「畳み込み級数」の版間の差分
提供: miniwiki
ja>Ryosuke0925 (→込み入った例) |
細 (1版 をインポートしました) |
(相違点なし)
|
2018/8/19/ (日) 17:25時点における最新版
数学において、畳み込み級数(たたみこみきゅうすう、英: telescoping series; 望遠鏡級数)は、各項からその近くの後続または先行する項と打ち消しあう部分をとりだして、次々に項が消えていくことで和が求まるような級数である。[1][2]。こうやって項を打ち消しあって和を求める方法は差分法 (method of differences) や和分法としても知られる。
たとえば、級数
- [math]\sum_{n=1}^\infty \frac{1}{n(n+1)}[/math]
は、以下のように簡単になる:
- [math]\begin{align}\sum_{n=1}^\infty \frac{1}{n(n+1)} & = \sum_{n=1}^\infty \left(\frac{1}{n} - \frac{1}{n+1}\right) \\ & = \left(1-\frac{1}{2}\right)+\left(\frac{1}{2}-\frac{1}{3}\right)+\cdots \\ & = 1 + \left(- \frac{1}{2} + \frac{1}{2}\right) + \left(-\frac{1}{3}+\frac{1}{3}\right)+\cdots = 1. \end{align}[/math]
Contents
注意点
差分法のテクニックは便利だが、落とし穴もある。
- [math]0 = \sum_{n=1}^\infty 0 = \sum_{n=1}^\infty (1-1) = 1 + \sum_{n=1}^\infty (-1 + 1) = 1[/math]
とするのは正しくない、個々の項が 0 に収斂でもしない限り、項を括りなおすのは有効ではないからである(グランディ級数の項を見よ)。こういった間違いを避けるには、まず N 項までの和を求めておいてから、そのあと N を無限大に飛ばした極限を計算する。
- [math]\begin{align}\sum_{n=1}^N \frac{1}{n(n+1)} & {} = \sum_{n=1}^N \left( \frac{1}{n} - \frac{1}{n+1} \right) \\ & {} = \left(1 - \frac{1}{2}\right) + \left(\frac{1}{2} - \frac{1}{3}\right) + \cdots + \left(\frac{1}{N} -\frac{1}{N+1}\right) \\ & {} = 1 + \left(- \frac{1}{2} + \frac{1}{2}\right) + \left( - \frac{1}{3} + \frac{1}{3}\right) + \cdots + \left(-\frac{1}{N} + \frac{1}{N}\right) - \frac{1}{N+1} \\ & {} = 1 - \frac{1}{N+1}\to 1\ \mathrm{as}\ N\to\infty. \end{align}[/math]
といった具合である。
込み入った例
- 多くの三角関数は、連続する項の間で畳み込みを起こさせる、階差としての表示をも持つ。たとえば[math] \begin{align}\sum_{n=1}^N \sin\left(n\right) & {} = \sum_{n=1}^N \frac{1}{2} \csc\left(\frac{1}{2}\right) \left(2\sin\left(\frac{1}{2}\right)\sin\left(n\right)\right) \\ & {} =\frac{1}{2} \csc\left(\frac{1}{2}\right) \sum_{n=1}^N \left(\cos\left(\frac{2n-1}{2}\right) -\cos\left(\frac{2n+1}{2}\right)\right) \\ & {} =\frac{1}{2} \csc\left(\frac{1}{2}\right) \left(\cos\left(\frac{1}{2}\right) -\cos\left(\frac{2N+1}{2}\right)\right)\end{align} [/math]といったような具合である。
- f と g が多項式でそれらの商が部分分数に分解されるような形の和[math]\sum_{n=1}^N {f(n) \over g(n)}[/math]でも、今考えたい差分による和をとる方法が有効でないこともある。特に、[math] \begin{align}\sum^\infty_{n=0}\frac{2n+3}{(n+1)(n+2)} & {} =\sum^\infty_{n=0}\left(\frac{1}{n+1}+\frac{1}{n+2}\right) \\ & {} = \left(\frac{1}{1} + \frac{1}{2}\right) + \left(\frac{1}{2} + \frac{1}{3}\right) + \left(\frac{1}{3} + \frac{1}{4}\right) + \cdots \\ & {}\qquad \cdots + \left(\frac{1}{n-1} + \frac{1}{n}\right) + \left(\frac{1}{n} + \frac{1}{n+1}\right) + \left(\frac{1}{n+1} + \frac{1}{n+2}\right) + \cdots \\ & {} =\infty \end{align} [/math]のように項がぜんぜん打ち消しあわない場合には無力である。
- k を正の整数とすれば[math] \sum^\infty_{n=1} {\frac{1}{n(n+k)}} = \frac{H_k}{k} [/math]となる(1/(k − 1) 以降の項がすべて打ち消されて消える)。ここで Hk は k-次調和数である。
確率論における応用
確率論において、ポアソン過程はもっとも単純な場合には「発生」がランダムな時間で引き起こされるような確率過程で、次の発生までの待ち時間が無記憶指数分布に従い、任意の時間間隔における発生回数は(期待値が時間間隔の長さに比例するという)ポアソン分布にしたがう。さて、Xt を時刻 t までの発生回数とし、Tx を x-番目の発生までの待ち時間として、確率変数 Tx の確率密度関数を求めよう。ポアソン分布の確率分布関数を用いれば
- [math] \Pr(X_t = x) = \frac{(\lambda t)^x e^{-\lambda t}}{x!} [/math]
がわかる。ここで λ は任意の時間間隔 1 での発生回数の平均値である。 [Xt ≥ x] なる事象は [Tx ≤ t] なる事象と同じことであり、したがって同一の確率を持つ。したがって、求める密度関数は
- [math]\begin{align} f(t) & {} = \frac{d}{dt}\Pr(T_x \le t) = \frac{d}{dt}\Pr(X_t \ge x) = \frac{d}{dt}(1 - \Pr(X_t \le x-1)) \\[6pt] & {} = \frac{d}{dt}\left( 1 - \sum_{u=0}^{x-1} \Pr(X_t = u)\right) = \frac{d}{dt}\left( 1 - \sum_{u=0}^{x-1} \frac{(\lambda t)^u e^{-\lambda t}}{u!} \right) \\[6pt] & {} = \lambda e^{-\lambda t} - e^{-\lambda t} \sum_{u=1}^{x-1} \left( \frac{\lambda^ut^{u-1}}{(u-1)!} - \frac{\lambda^{u+1} t^u}{u!} \right) \end{align}[/math]
であり、この和はほとんどが打ち消しあって、
- [math] f(t) = \frac{\lambda^x t^{x-1} e^{-\lambda t}}{x!}[/math]
だけが残る。
その他の応用
- グランディ級数
- 素数の逆数和が発散することの証明 (en): 証明に畳み込み (telescoping sum) を使う。
- Order statistic, where a telescoping sum occurs in the derivation of a probability density function;
- レフシェッツの不動点定理: 代数的位相幾何学より
- ホモロジー論: 代数的位相幾何学より
- Eilenberg–Mazur swindle, where a telescoping sum of knots occurs.
参考文献
- ↑ Tom M. Apostol, Calculus, Volume 1, Blaisdell Publishing Company, 1962, pages 422–3
- ↑ Brian S. Thomson and Andrew M. Bruckner, Elementary Real Analysis, Second Edition, CreateSpace, 2008, page 85