Szereg rozbieżny

Szereg rozbieżny – szereg nieskończony, który nie jest zbieżny, tj. nie istnieje granica ciągu jego sum częściowych.

Jeśli szereg jest zbieżny, to kolejne składniki w szeregu muszą zmierzać do zera. Stąd każdy szereg, w którym składniki nie zmierzają do zera, jest rozbieżny. Jednak zbieżność jest warunkiem silniejszym, tj. nie wszystkie szeregi, których składniki zmierzają do zera, są zbieżne. Najprostszym przykładem jest szereg harmoniczny

1 + 1 2 + 1 3 + 1 4 + 1 5 + = n = 1 1 n . {\displaystyle 1+{\frac {1}{2}}+{\frac {1}{3}}+{\frac {1}{4}}+{\frac {1}{5}}+\ldots =\sum _{n=1}^{\infty }{\frac {1}{n}}.}

Rozbieżność szeregu harmonicznego udowodnił średniowieczny matematyk Mikołaj z Oresme.

W specjalistycznych kontekstach matematycznych z wybranymi szeregami, w których sumy częściowe nie mają granicy, udaje się z powodzeniem skojarzyć pewne wartości. Metoda sumowania to funkcja częściowa odwzorowująca zbiór ciągów sum częściowych szeregu na wartości. Na przykład sumowanie metodą Cesàro przypisuje do rozbieżnego szeregu Grandiego

1 1 + 1 1 + {\displaystyle 1-1+1-1+\dots }

wartość 1 2 . {\displaystyle {\tfrac {1}{2}}.} Sumowalność w sensie Cesàro jest metodą uśredniającą, to znaczy, że opiera się na średniej arytmetycznej ciągu sum częściowych. Inne metody wykorzystują przedłużenie analityczne powiązanych szeregów. W fizyce szeroko stosowane są różne metody regularyzacji, na przykład regularyzacja funkcją dzeta.

Własności metod sumowania

Metody sumowania zwykle koncentrują się na ciągu sum częściowych szeregu. Podczas gdy ciąg ten nie jest zbieżny, można często zauważyć, że średnia coraz większej liczby początkowych wyrazów tego ciągu jest zbieżna, wobec czego można ją uznać za wynik zamiast nieistniejącej granicy sum częściowych szeregu. Obliczając a = a 0 + a 1 + a 2 + , {\displaystyle a=a_{0}+a_{1}+a_{2}+\dots ,} rozpatruje się ciąg s , {\displaystyle s,} gdzie s 0 = a 0 {\displaystyle s_{0}=a_{0}} i s n + 1 = s n + a n + 1 . {\displaystyle s_{n+1}=s_{n}+a_{n+1}.} W przypadku szeregów zbieżnych, ciąg s {\displaystyle s} jest zbieżny do a . {\displaystyle a.} Metodę sumowania można określić jako funkcję odwzorowującą zbiór ciągów sum częściowych na wartości. Jeśli A {\displaystyle \mathbf {A} } jest dowolną metodą sumowania przypisującą wartość do zbioru ciągów, można ją mechanicznie przekształcić na metodę sumowania szeregów A Σ , {\displaystyle \mathbf {A} ^{\Sigma },} która przypisuje te same wartości odpowiednim szeregom. Istnieje pewien zestaw własności, które są pożądane wśród metod sumowania, jeśli oczekuje się, że wartości, jakie one zwracają, odpowiadają granicy sumy szeregu.

  1. Regularność – metoda sumowania jest regularna, jeśli ciąg s {\displaystyle s} jest zbieżny do x , {\displaystyle x,} oraz A ( s ) = x . {\displaystyle \mathbf {A} (s)=x.} Innymi słowy odpowiadająca metoda sumowania szeregu A Σ ( a ) = x . {\displaystyle \mathbf {A} ^{\Sigma }(a)=x.}
  2. Liniowość A {\displaystyle \mathbf {A} } jest liniowe, jeśli zachowuje liniowe przekształcenia ciągów, czyli A ( r + s ) = A ( r ) + A ( s ) {\displaystyle \mathbf {A} (r+s)=\mathbf {A} (r)+\mathbf {A} (s)} oraz A ( k s ) = k A ( s ) , {\displaystyle \mathbf {A} (ks)=k\mathbf {A} (s),} dla skalarnego k {\displaystyle k} (rzeczywistego lub zespolonego). Ponieważ składniki a n = s n + 1 s n {\displaystyle a_{n}=s_{n+1}-s_{n}} z szeregu a {\displaystyle a} są wyrażeniami liniowymi w ciągu s {\displaystyle s} i odwrotnie, to jest to równoważne, że A Σ {\displaystyle \mathbf {A} ^{\Sigma }} jest funkcją liniową na składnikach szeregu.
  3. Stabilność – jeśli s {\displaystyle s} jest ciągiem rozpoczynającym się od s 0 , {\displaystyle s_{0},} a s {\displaystyle s'} jest ciągiem otrzymanym przez pominięcie pierwszego wyrazu i odjęciem go od pozostałych, tj. s n = s n + 1 s 0 , {\displaystyle s'_{n}=s_{n+1}-s_{0},} to A ( s ) {\displaystyle \mathbf {A} (s)} jest zdefiniowane wtedy i tylko wtedy, gdy A ( s ) {\displaystyle \mathbf {A} (s')} jest zdefiniowane, i A ( s ) = s 0 + A ( s ) . {\displaystyle \mathbf {A} (s)=s_{0}+\mathbf {A} (s').} Inaczej, gdy a n = a n + 1 {\displaystyle a'_{n}=a_{n+1}} dla wszystkich n , {\displaystyle n,} to A Σ ( a ) = a 0 + A Σ ( a ) . {\displaystyle \mathbf {A} ^{\Sigma }(a)=a_{0}+\mathbf {A} ^{\Sigma }(a').}

Trzecia własność nie jest konieczna, a pewne znaczące metody, na przykład sumowanie metodą Borela, jej nie mają.

Ostatni warunek można alternatywnie zastąpić słabszą własnością.

  • Skończona reindeksowalność – jeśli s {\displaystyle s} i s {\displaystyle s'} są takimi dwoma ciągami, że istnieje bijekcja f : N N {\displaystyle f\colon \mathbb {N} \to \mathbb {N} } taka, że s i = s f ( i ) , {\displaystyle s_{i}=s'_{f(i)},} i istnieje takie N N , {\displaystyle N\in \mathbb {N} ,} że s i = s i {\displaystyle s_{i}=s'_{i}} dla wszystkich i > N , {\displaystyle i>N,} to A ( s ) = A ( s ) . {\displaystyle \mathbf {A} (s)=\mathbf {A} (s').} Innymi słowy, s {\displaystyle s'} jest takim samym ciągiem jak s , {\displaystyle s,} z wyjątkiem co najwyżej skończonej liczby wyrazów w innej kolejności. Jest to warunek słabszy niż stabilność, ponieważ dowolna stabilna metoda sumowania ma własność skończonej reindeksowalności, natomiast odwrotnie już tak nie jest.

Pożądaną własnością dla dwóch różnych metod sumowania A {\displaystyle \mathbf {A} } i B {\displaystyle \mathbf {B} } jest niesprzeczność: A i B {\displaystyle \mathbf {A} i\mathbf {B} } są niesprzeczne, jeśli dla dowolnego ciągu s {\displaystyle s} przypisują tę samą liczbę a , {\displaystyle a,} tj. A ( s ) = B ( s ) . {\displaystyle \mathbf {A} (s)=\mathbf {B} (s).} Jeśli obie metody są niesprzeczne, a jedna sumuje więcej szeregów niż druga, to o tej, która sumuje więcej szeregów, mówi się, że jest silniejsza.

Istnieją także wydajne metody numeryczne sumowania, które nie są ani regularne, ani liniowe, takie jak przybliżenie Padé lub renormalizacja.

Metody aksjomatyczne

Przyjmując regularność, liniowość i stabilność jako aksjomaty, jest możliwe sumowanie wielu rozbieżnych szeregów, stosując podstawowe przekształcenia algebraiczne. Na przykład szeregi geometryczne ( q 1 ) {\displaystyle (q\neq 1)}

G ( q , c ) = k = 0 c q k = c + k = 0 c q k + 1 (stabilność) = c + q k = 0 c q k (liniowość) = c + q G ( q , c ) , {\displaystyle {\begin{aligned}G(q,c)&=\sum _{k=0}^{\infty }cq^{k}&&\\&=c+\sum _{k=0}^{\infty }cq^{k+1}&&{\mbox{(stabilność)}}\\&=c+q\sum _{k=0}^{\infty }cq^{k}&&{\mbox{(liniowość)}}\\&=c+q\,G(q,c),\end{aligned}}}

skąd

G ( q , c ) = c 1 q {\displaystyle G(q,c)={\frac {c}{1-q}}}

może być obliczone bez względu na zbieżność. Bardziej rygorystycznie, każda metoda sumowania mająca te własności i przypisująca skończoną wartość szeregom geometrycznym musi przypisać tę wartość. Jednak, kiedy q {\displaystyle q} jest liczbą rzeczywistą większą niż 1, to ciąg sum częściowych rośnie nieograniczenie, a metody uśredniające przypisują w granicy wartość . {\displaystyle \infty .}

Bibliografia

  • Tadeusz Gerstenkorn. Czy szeregi rozbieżne mogą mieć skończoną sumę?. „Matematyka-Społeczeństwo-Nauczanie”. Nr 5, s. 38–42, czerwiec 1990. Siedlce. [dostęp 2012-05-05].