Série alternée - Alternating series

En mathématiques , une série alternée est une série infinie de la forme

ou

avec un n > 0 pour tout  n . Les signes des termes généraux alternent entre positif et négatif. Comme toute série, une série alternée converge si et seulement si la séquence associée de sommes partielles converge .

Exemples

La série géométrique 1/2 − 1/4 + 1/8 − 1/16 + somme à 1/3.

La série harmonique alternative a une somme finie mais pas la série harmonique .

La série de Mercator fournit une expression analytique du logarithme népérien :

Les fonctions sinus et cosinus utilisées en trigonométrie peuvent être définies comme des séries alternées en calcul même si elles sont introduites en algèbre élémentaire comme le rapport des côtés d'un triangle rectangle. En réalité,

, et

Lorsque le facteur d'alternance (–1) n est retiré de ces séries, on obtient les fonctions hyperboliques sinh et cosh utilisées en calcul.

Pour un indice entier ou positif la fonction de Bessel du premier type peut être définie avec la série alternée

  où ( z ) est la fonction gamma .

Si s est un nombre complexe , la fonction eta de Dirichlet est formée comme une série alternée

qui est utilisé dans la théorie analytique des nombres .

Test en série alternée

Le théorème connu sous le nom de "Test de Leibniz" ou le test des séries alternées nous dit qu'une série alternée convergera si les termes a n convergent vers 0 de manière monotone .

Preuve : Supposons que la suite converge vers zéro et soit monotone décroissante. Si est impair et , on obtient l'estimation via le calcul suivant :

Puisque est monotone décroissant, les termes sont négatifs. On a donc l'inégalité finale : . De même, on peut montrer que . Puisque converge vers , nos sommes partielles forment une suite de Cauchy (c'est-à-dire que la série satisfait au critère de Cauchy ) et donc convergent. L'argument pour pair est similaire.

Sommes approximatives

L'estimation ci-dessus ne dépend pas de . Ainsi, si s'approche de 0 de manière monotone, l'estimation fournit une erreur liée à l'approximation de sommes infinies par des sommes partielles :

Convergence absolue

Une série converge absolument si la série converge.

Théorème : Les séries absolument convergentes sont convergentes.

Preuve : Supposons qu'elle soit absolument convergente. Alors, est convergent et il s'ensuit que converge aussi. Depuis , la série converge par le test de comparaison . Par conséquent, la série converge comme la différence de deux séries convergentes .

Convergence conditionnelle

Une série est conditionnellement convergente si elle converge mais ne converge pas absolument.

Par exemple, la série harmonique

diverge, tandis que la version alternative

converge par le test des séries alternées .

Réarrangements

Pour toute série, nous pouvons créer une nouvelle série en réorganisant l'ordre de sommation. Une série est inconditionnellement convergente si un réarrangement crée une série avec la même convergence que la série originale. Les séries absolument convergentes sont inconditionnellement convergentes . Mais le théorème des séries de Riemann stipule que les séries condi- tionnellement convergentes peuvent être réarrangées pour créer une convergence arbitraire. Le principe général est que l'addition de sommes infinies n'est commutative que pour des séries absolument convergentes.

Par exemple, une fausse preuve que 1=0 exploite l'échec de l'associativité pour des sommes infinies.

Comme autre exemple, par la série Mercator

Mais, comme la série ne converge pas absolument, on peut réarranger les termes pour obtenir une série pour :

Accélération en série

En pratique, la sommation numérique d'une série alternative peut être accélérée en utilisant l'une quelconque d'une variété de techniques d' accélération de série . L'une des techniques les plus anciennes est celle de la sommation d'Euler , et il existe de nombreuses techniques modernes qui peuvent offrir une convergence encore plus rapide.

Voir également

Remarques

Les références