Szereg rozbieżny

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Szereg rozbieżny – w matematyce szereg nieskończony, który nie jest zbieżny, tj. nie istnieje granica ciągu jego sum częściowych.

Jeśli szereg jest zbieżny to kolejne składniki w szeregu muszą zmierzać do zera. Stąd każdy szereg, w którym składniki nie zmierzają do zera, jest rozbieżny. Jednak zbieżność jest warunkiem silniejszym, tj. nie wszystkie szeregi, których składniki zmierzają do zera są zbieżne. Najprostszym przykładem jest szereg harmoniczny

1 + \frac{1}{2} + \frac{1}{3} + \frac{1}{4} + \frac{1}{5} + \cdots =\sum_{n=1}^\infty\frac{1}{n}.

Rozbieżność szeregu harmonicznego udowodnił średniowieczny matematyk Mikołaj z Oresme.

W specjalistycznych kontekstach matematycznych z wybranymi szeregami, w których sumy częściowe nie mają granicy, udaje się z powodzeniem skojarzyć pewne wartości. Metoda sumowania to funkcja częściowa odwzorowująca zbiór ciągów sum częściowych szeregu na wartości. Na przykład sumowanie metodą Cesàro przypisuje do rozbieżnego szeregu Grandiego

1 - 1 + 1 - 1 + \cdots

wartość 12. Sumowalność w sensie Cesàro jest metodą uśredniającą, to znaczy, że opiera się na średniej arytmetycznej ciągu sum częściowych. Inne metody wykorzystują przedłużenie analityczne powiązanych szeregów. W fizyce szeroko stosowane są różne metody regularyzacji na przykład regularyzacja funkcją dzeta.

Własności metod sumowania[edytuj | edytuj kod]

Metody sumowania zwykle koncentrują się na ciągu sum częściowych szeregu. Podczas gdy ciąg ten nie jest zbieżny, można często zauważyć, że średnia coraz większej liczby początkowych wyrazów tego ciągu jest zbieżna, wobec czego można ją uznać za wynik zamiast nieistniejącej granicy sum częściowych szeregu. Obliczając \scriptstyle a = a_0 + a_1 + a_2 + \ldots rozpatruje się ciąg \scriptstyle s, gdzie \scriptstyle s_0 = a_0 i \scriptstyle s_{n+1} = s_n + a_{n+1}. W przypadku szeregów zbieżnych, ciąg \scriptstyle s jest zbieżny do \scriptstyle a. Metodę sumowania można określić jako funkcję odwzorowującą zbiór ciągów sum częściowych na wartości. Jeśli A jest dowolną metodą sumowania przypisującą wartość do zbioru ciągów, można ją mechanicznie przekształcić na metodę sumowania szeregów AΣ, która przypisuje te same wartości odpowiednim szeregom. Istnieje pewien zestaw własności, które są pożądane wśród metod sumowania, jeśli oczekuje się, że wartości jakie one zwracają odpowiadają granicy sumy szeregu.

  1. Regularność – metoda sumowania jest regularna jeśli ciąg s jest zbieżny do x, oraz A(s) = x. Innymi słowy odpowiadająca metoda sumowania szeregu AΣ(a) = x.
  2. LiniowośćA jest liniowe jeśli zachowuje liniowe przekształcenia ciągów, czyli A(r + s) = A(r) + A(s) oraz A(ks) = k A(s), dla skalarnego k (rzeczywistego lub zespolonego). Ponieważ składniki an = sn+1 − sn z szeregu a są wyrażeniami liniowymi w ciągu s i odwrotnie, to jest to równoważne, że AΣ jest funkcją liniową na składnikach szeregu.
  3. Stabilność – jeśli s jest ciągiem rozpoczynającym się od s0 a s' jest ciągiem otrzymanym przez pominięcie pierwszego wyrazu i odjęciem go od pozostałych, tj. s'n = sn+1 - s0, to A(s) jest zdefiniowane wtedy i tylko wtedy gdy A(s') jest zdefiniowane, i A(s) = s0 + A(s'). Inaczej, gdy a'n = an+1 dla wszystkich n, to AΣ(a) = a0 + AΣ(a').

Trzecia własność nie jest konieczna i pewne znaczące metody, na przykład sumowanie metodą Borela, jej nie mają.

Ostatni warunek można alternatywnie zastąpić słabszą własnością.

  • Skończona reindeksowalność – jeśli s i s' są takimi dwoma ciągami, że istnieje bijekcja f: \mathbb{N} \rightarrow \mathbb{N} taka, że si = s'f(i), i istnieje takie N \in \mathbb{N}, że si = s'i dla wszystkich i > N, to A(s) = A(s'). Innymi słowy, s' jest takim samym ciągiem jak s, z wyjątkiem co najwyżej skończonej liczby wyrazów w innej kolejności. Jest to warunek słabszy niż stabilność ponieważ dowolna stabilna metoda sumowania ma własność skończonej reindeksowalności, natomiast odwrotnie już tak nie jest.

Pożądaną własnością dla dwóch różnych metod sumowania A i B jest niesprzeczność: A i B są niesprzeczne jeśli dla dowolnego ciągu s przypisują tę samą liczbę a, tj. A(s) = B(s). Jeśli obie metody są niesprzeczne, a jedna sumuje więcej szeregów niż druga, to o tej która sumuje więcej szeregów mówi się, że jest silniejsza.

Istnieją także wydajne metody numeryczne sumowania, które nie są ani regularne ani liniowe takie jak przybliżenie Padé lub renormalizacja.

Metody aksjomatyczne[edytuj | edytuj kod]

Przyjmując regularność, liniowość i stabilność jako aksjomaty, jest możliwe sumowanie wielu rozbieżnych szeregów stosując podstawowe przekształcenia algebraiczne. Na przykład szeregi geometryczne (q ≠ 1)

\begin{align}
G(q,c) & = \sum_{k=0}^\infty cq^k & & \\
 & = c + \sum_{k=0}^\infty cq^{k+1} & & \mbox{ (stabilność) } \\
 & = c + q \sum_{k=0}^\infty cq^k & & \mbox{ (liniowość) } \\
 & = c + q \, G(q,c) & & \\
\end{align}

skąd

G(q,c) = \frac{c}{1-q}

może być obliczone bez względu na zbieżność. Bardziej rygorystycznie, każda metoda sumowania mająca te własności i przypisująca skończoną wartość szeregom geometrycznym musi przypisać tę wartość. Jednak, kiedy q jest liczbą rzeczywistą większą niż 1, to ciąg sum częściowych rośnie nieograniczenie i metody uśredniające przypisują w granicy wartość ∞.

Bibliografia[edytuj | edytuj kod]