Séries divergentes - Divergent series

Les séries divergentes sont en général
quelque chose de bien fatal et c'est une honte qu'on ose y fonder aucune démonstration. (« Les séries divergentes sont en général quelque chose de fatal, et c'est une honte de fonder une quelconque preuve sur elles. » Souvent traduit par « Les séries divergentes sont une invention du diable… »)

NH Abel , lettre à Holmboe, janvier 1826, réimprimé dans le volume 2 de ses papiers collectés.

En mathématiques , une série divergente est une série infinie qui n'est pas convergente , ce qui signifie que la séquence infinie des sommes partielles de la série n'a pas de limite finie .

Si une série converge, les termes individuels de la série doivent s'approcher de zéro. Ainsi, toute série dans laquelle les termes individuels ne s'approchent pas de zéro diverge. Cependant, la convergence est une condition plus forte : toutes les séries dont les termes approchent de zéro ne convergent pas. Un contre-exemple est la série harmonique

La divergence de la série harmonique a été prouvée par la mathématicienne médiévale Nicole Oresme .

Dans des contextes mathématiques spécialisés, des valeurs peuvent être objectivement attribuées à certaines séries dont les séquences de sommes partielles divergent, afin de donner un sens à la divergence des séries. Une méthode de sommabilité ou méthode de sommation est une fonction partielle de l'ensemble des séries aux valeurs. Par exemple, la sommation de Cesàro attribue la série divergente de Grandi

la valeur 1/2. La sommation de Cesàro est une méthode de moyennage , en ce sens qu'elle repose sur la moyenne arithmétique de la séquence de sommes partielles. D'autres méthodes impliquent des continuations analytiques de séries apparentées. En physique , il existe une grande variété de méthodes de sommabilité ; celles-ci sont abordées plus en détail dans l'article sur la régularisation .

Histoire

... mais il est globalement vrai de dire que les mathématiciens d'avant Cauchy n'ont pas demandé « Comment définirons- nous 1 − 1 + 1... ? » mais « Qu'est - ce que 1 − 1 + 1... ?

GH Hardy, série divergente, page 6

Avant le 19ème siècle, les séries divergentes étaient largement utilisées par Leonhard Euler et d'autres, mais conduisaient souvent à des résultats confus et contradictoires. Un problème majeur était l'idée d'Euler que toute série divergente devrait avoir une somme naturelle, sans d'abord définir ce que l'on entend par la somme d'une série divergente. Augustin-Louis Cauchy a finalement donné une définition rigoureuse de la somme d'une série (convergente), et pendant un certain temps après cela, les séries divergentes ont été pour la plupart exclues des mathématiques. Elles réapparaissent en 1886 avec les travaux d' Henri Poincaré sur les séries asymptotiques. En 1890, Ernesto Cesàro réalisa qu'on pouvait donner une définition rigoureuse de la somme de certaines séries divergentes, et défini la sommation de Cesàro . (Ce n'était pas la première utilisation de la sommation de Cesàro, qui a été utilisée implicitement par Ferdinand Georg Frobenius en 1880 ; la contribution clé de Cesàro n'était pas la découverte de cette méthode, mais son idée que l'on devrait donner une définition explicite de la somme d'une série divergente .) Dans les années qui ont suivi l'article de Cesàro, plusieurs autres mathématiciens ont donné d'autres définitions de la somme d'une série divergente, bien que celles-ci ne soient pas toujours compatibles : des définitions différentes peuvent donner des réponses différentes pour la somme d'une même série divergente ; ainsi, lorsqu'on parle de somme d'une série divergente, il est nécessaire de préciser quelle méthode de sommation on utilise.

Théorèmes sur les méthodes de sommation des séries divergentes

Une méthode de sommabilité M est régulière si elle est en accord avec la limite réelle de toutes les séries convergentes . Un tel résultat est appelé un théorème abélien pour M , à partir du théorème d'Abel prototypique . Plus subtils, sont des résultats inverses partiels, appelés théorèmes taubériens , à partir d'un prototype prouvé par Alfred Tauber . Ici, une réciproque partielle signifie que si M additionne la série Σ , et qu'une condition latérale est vérifiée, alors Σ était convergente en premier lieu ; sans aucune condition secondaire, un tel résultat dirait que M ne fait que sommer les séries convergentes (ce qui le rend inutile comme méthode de sommation pour les séries divergentes).

La fonction donnant la somme d'une série convergente est linéaire et il résulte du théorème de Hahn-Banach qu'elle peut être étendue à une méthode de sommation sommant toute série avec des sommes partielles bornées. C'est ce qu'on appelle la limite de Banach . Ce fait n'est pas très utile en pratique, car il existe de nombreuses extensions de ce type, incompatibles les unes avec les autres, et aussi parce que prouver que de tels opérateurs existent nécessite d'invoquer l' axiome du choix ou ses équivalents, comme le lemme de Zorn . Ils sont donc non constructifs.

Le sujet des séries divergentes, en tant que domaine de l' analyse mathématique , concerne principalement des techniques explicites et naturelles telles que la sommation Abel , sommation Cesàro et sommation de Borel , et leurs relations. L'avènement du théorème taubérien de Wiener a marqué une époque dans le sujet, introduisant des connexions inattendues aux méthodes d' algèbre de Banach dans l'analyse de Fourier .

La sommation de séries divergentes est également liée aux méthodes d' extrapolation et aux transformations de séquences en tant que techniques numériques. Des exemples de telles techniques sont les approximations de Padé , les transformations de séquences de type Levin et les mappages dépendants de l'ordre liés aux techniques de renormalisation pour la théorie des perturbations d' ordre élevé en mécanique quantique .

Propriétés des méthodes de sommation

Les méthodes de sommation se concentrent généralement sur la séquence des sommes partielles de la série. Bien que cette séquence ne converge pas, nous pouvons souvent constater que lorsque nous prenons une moyenne de nombres de plus en plus grands de termes initiaux de la séquence, la moyenne converge, et nous pouvons utiliser cette moyenne au lieu d'une limite pour évaluer la somme de la série . Une méthode de sommation peut être considérée comme une fonction d'un ensemble de séquences de sommes partielles en valeurs. Si A est un quelconque procédé de sommation attribuant des valeurs à un ensemble de séquences, on peut mécaniquement à traduire à un procédé en série sommation A Σ qui attribue les mêmes valeurs à la série correspondante. Il y a certaines propriétés qu'il est souhaitable que ces méthodes possèdent si elles doivent arriver à des valeurs correspondant respectivement aux limites et aux sommes.

  • Régularité . Une méthode de sommation est régulière si, à chaque fois que la suite s converge vers x , A ( s ) = x . De manière équivalente, le procédé en série sommation correspondant évalue A Σ ( a ) = x .
  • Linéarité . A est linéaire si c'est une fonctionnelle linéaire sur les suites où elle est définie, de sorte que A ( k r + s ) = k A ( r ) + A ( s ) pour les suites r , s et un scalaire réel ou complexe k . Etant donné que les termes a n + 1 = s n 1 - de la n de la série a sont fonctionnelles linéaires sur la séquence s et vice versa, ce qui est équivalent à A Σ étant une fonction linéaire sur les termes de la série.
  • Stabilité (également appelée translativité ). Si s est une séquence à partir de s 0 et s 'est la séquence obtenue en omettant la première valeur et en soustrayant du reste, de sorte que s ' n = s n + 1 - s 0 , alors A ( s ) est défini si et seulement si A ( s ) est défini, et A ( s ) = s 0 + A ( s ′). De manière équivalente, à chaque fois un ' n = a n + 1 pour tout n , alors A Σ ( a ) = a 0 + A Σ ( a '). Une autre façon de dire cela est que la règle de décalage doit être valide pour les séries qui sont sommables par cette méthode.

La troisième condition est moins importante, et certaines méthodes importantes, comme la sommation de Borel , ne la possèdent pas.

On peut aussi donner une alternative plus faible à la dernière condition.

  • Réindexabilité finie . Si a et a ′ sont deux séries telles qu'il existe une bijection telle que a i = af ( i ) pour tout i , et s'il en existe telle que a i = ai pour tout i  >  N , alors A Σ ( a ) = a Σ ( a '). (En d'autres termes, a est la même série que a , avec seulement un nombre fini de termes réindexés.) C'est une condition plus faible que la stabilité , car toute méthode de sommation qui présente une stabilité présente également une réindexabilité finie , mais l'inverse est pas vrai.)

Une propriété souhaitable pour deux méthodes de sommation distinctes A et B à partager est la cohérence : A et B sont cohérents si pour chaque séquence s à laquelle les deux attribuent une valeur, A ( s ) = B ( s ). ( L' utilisation de cette langue, une méthode de sommation A est régulière ssi il est compatible avec la somme norme Σ .) Si deux méthodes sont cohérentes, et une série sommes plus que l'autre, celui de plusieurs séries est résumait plus forte .

Il existe de puissantes méthodes de sommation numérique qui ne sont ni régulières ni linéaires, par exemple les transformations de séquences non linéaires comme les transformations de séquences de type Levin et les approximants de Padé , ainsi que les mappages dépendants de l'ordre des séries perturbatives basées sur des techniques de renormalisation .

En prenant la régularité, la linéarité et la stabilité comme axiomes, il est possible de sommer de nombreuses séries divergentes par des manipulations algébriques élémentaires. Cela explique en partie pourquoi de nombreuses méthodes de sommation différentes donnent la même réponse pour certaines séries.

Par exemple, chaque fois que r 1, la série géométrique

peut être évalué indépendamment de la convergence. Plus rigoureusement, toute méthode de sommation qui possède ces propriétés et qui attribue une valeur finie à la série géométrique doit attribuer cette valeur. Cependant, lorsque r est un nombre réel supérieur à 1, les sommes partielles augmentent sans limite et les méthodes de calcul de moyenne attribuent une limite à l'infini.

Méthodes de sommation classiques

Les deux méthodes classiques de sommation des séries, convergence ordinaire et convergence absolue, définissent la somme comme une limite de certaines sommes partielles. Ceux-ci ne sont inclus que par souci d'exhaustivité ; à proprement parler ce ne sont pas de véritables méthodes de sommation pour des séries divergentes puisque, par définition, une série n'est divergente que si ces méthodes ne fonctionnent pas. La plupart des méthodes de sommation pour les séries divergentes, mais pas toutes, étendent ces méthodes à une plus grande classe de séquences.

Convergence absolue

La convergence absolue définit la somme d'une séquence (ou d'un ensemble) de nombres comme étant la limite du réseau de toutes les sommes partielles a k 1 + ... + a k n , s'il existe. Il ne dépend pas de l'ordre des éléments de la suite, et un théorème classique dit qu'une suite est absolument convergente si et seulement si la suite des valeurs absolues est convergente au sens standard.

Somme d'une série

La définition classique de Cauchy de la somme d'une série a 0 + a 1 + ... définit la somme comme étant la limite de la suite des sommes partielles a 0 + ... + a n . C'est la définition par défaut de la convergence d'une séquence.

Nørlund signifie

Supposons que p n soit une suite de termes positifs, à partir de p 0 . Supposons aussi que

Si maintenant nous transformons une séquence s en utilisant p pour donner des moyennes pondérées, en définissant

puis la limite de t n comme n tend vers l' infini est une moyenne appelée Nørlund moyenne N p ( s ).

La moyenne de Nørlund est régulière, linéaire et stable. De plus, deux moyennes de Nørlund sont cohérentes.

Cesaro sommation

Les moyens les plus significatifs du Nørlund sont les sommes Cesàro. Ici, si on définit la suite p k par

alors la somme de Cesàro C k est définie par C k ( s ) = N ( p k ) ( s ). Les sommes de Cesàro sont des moyennes de Nørlund si k 0 , et sont donc régulières, linéaires, stables et cohérentes. C 0 est une sommation ordinaire, et C 1 est une sommation Cesàro ordinaire . Sommes Cesaro ont la propriété que si h > k , alors C h est plus forte que C k .

Abélien signifie

Supposons que λ = { λ 0 , λ 1 , λ 2 ,... } soit une suite strictement croissante tendant vers l'infini, et que λ 0 ≥ 0 . Supposer

converge pour tous les nombres réels x  > 0. Ensuite , la moyenne abélien A λ est définie comme

Plus généralement, si la série pour f ne converge que pour un grand x mais peut être continuée analytiquement jusqu'à tout x réel positif , alors on peut toujours définir la somme des séries divergentes par la limite ci-dessus.

Une série de ce type est connue sous le nom de série de Dirichlet généralisée ; dans les applications à la physique, c'est ce qu'on appelle la méthode de régularisation des noyaux thermiques .

Les moyennes abéliennes sont régulières et linéaires, mais pas stables et pas toujours cohérentes entre les différents choix de λ . Cependant, certains cas particuliers sont des méthodes de sommation très importantes.

Abel sommation

Si λ n = n , alors on obtient la méthode de sommation d' Abel . Ici

z  = exp(− x ). Alors la limite de f ( x ) lorsque x tend vers 0 via des réels positifs est la limite de la série entière pour f ( z ) lorsque z tend vers 1 par le bas via des réels positifs, et la somme d'Abel A ( s ) est définie comme

La sommation d'Abel est intéressante en partie parce qu'elle est cohérente mais plus puissante que la sommation de Cesàro : A ( s ) = C k ( s ) chaque fois que cette dernière est définie. La somme d'Abel est donc régulière, linéaire, stable et cohérente avec la sommation de Cesàro.

Somme de Lindelöf

Si λ n = n log( n ) , alors (indexation à partir de un) nous avons

Alors L ( s ), la somme de Lindelöf ( Volkov 2001 ) , est la limite de f ( x ) lorsque x tend vers zéro positif. La somme de Lindelöf est une méthode puissante lorsqu'elle est appliquée aux séries de puissance parmi d'autres applications, en additionnant les séries de puissance dans l' étoile de Mittag-Leffler .

Si g ( z ) est analytique dans un disque autour de zéro, et a donc une série de Maclaurin G ( z ) avec un rayon de convergence positif, alors L ( G ( z )) = g ( z ) dans l'étoile de Mittag-Leffler. De plus, la convergence vers g ( z ) est uniforme sur les sous-ensembles compacts de l'étoile.

Suite analytique

Plusieurs méthodes de sommation consistent à prendre la valeur d'une continuation analytique d'une fonction.

Suite analytique des séries entières

Si Σ a n x n converge pour un petit complexe x et peut être poursuivi analytiquement le long d'un chemin de x  = 0 au point x  = 1, alors la somme de la série peut être définie comme étant la valeur à x  = 1. Cette valeur peut dépendre du choix du chemin.

sommation d'Euler

La sommation d'Euler est essentiellement une forme explicite de continuation analytique. Si une série entière converge pour un petit complexe z et peut être continuée analytiquement jusqu'au disque ouvert de diamètre de-1/q  + 1à 1 et est continue à 1, alors sa valeur à est appelée la somme d' Euler ou (E, q ) de la série a 0  + .... Euler l'a utilisé avant que la continuation analytique ne soit définie en général, et a donné des formules explicites pour le séries entières de la suite analytique.

L'opération de sommation d'Euler peut être répétée plusieurs fois, ce qui équivaut essentiellement à prendre une continuation analytique d'une série entière jusqu'au point  z  = 1.

Suite analytique de la série de Dirichlet

Cette méthode définit la somme d'une série comme étant la valeur de la suite analytique de la série de Dirichlet

à s  = 0, s'il existe et est unique. Cette méthode est parfois confondue avec la régularisation de la fonction zêta.

Si s  = 0 est une singularité isolée, la somme est définie par le terme constant du développement en série de Laurent.

Régularisation de la fonction Zeta

Si la série

(pour des valeurs positives de a n ) converge pour de grands réels s et peut être poursuivie analytiquement le long de la droite réelle jusqu'à s  = −1, alors sa valeur à s  = −1 est appelée la somme régularisée zêta de la série a 1  +  a 2  + ... La régularisation de la fonction Zeta est non linéaire. Dans les applications, les nombres a i sont parfois les valeurs propres d'un opérateur auto-adjoint A à résolvante compacte, et f ( s ) est alors la trace de A s . Par exemple, si A a des valeurs propres 1, 2, 3, ... alors f ( s ) est la fonction de Riemann zeta , ζ ( s ), dont la valeur à s  = -1 est -1/12, en attribuant une valeur à la série divergente 1 + 2 + 3 + 4 + ... . D'autres valeurs de s peuvent également être utilisées pour attribuer des valeurs aux sommes divergentes ζ (0) = 1 + 1 + 1 + ... = −1/2, Ζ (-2) = 1 + 4 + 9 + ... = 0 et en général

B k est un nombre de Bernoulli .

Fonction intégrale signifie

Si J ( x ) = p n x n est une fonction intégrale, alors la somme J de la série a 0  + ... est définie comme étant

si cette limite existe.

Il existe une variante de cette méthode où la série pour J a un rayon de convergence fini r et diverge en x  =  r . Dans ce cas, on définit la somme comme ci-dessus, sauf en prenant la limite lorsque x tend vers r plutôt que vers l'infini.

Sommation de Borel

Dans le cas particulier où J ( x ) =  e x cela donne une forme (faible) de sommation de Borel .

La méthode Valiron

La méthode de Valiron est une généralisation de la sommation de Borel à certaines fonctions intégrales plus générales J . Valiron a montré que sous certaines conditions cela équivaut à définir la somme d'une série comme

H est la dérivée seconde de G et c ( n ) =  e G ( n ) , et a 0  + ... +  a h doit être interprété comme 0 lorsque  h  < 0.

Méthodes des moments

Supposons que est une mesure sur la droite réelle telle que tous les moments

sont finis. Si a 0  +  a 1  + ... est une série telle que

converge pour tous les x dans le support de μ , alors le ( ) somme de la série est définie pour être la valeur de l'intégrale

s'il est défini. (Si le nombre u n augmentent trop rapidement alors ils ne déterminent pas uniquement la mesure μ .)

Sommation de Borel

Par exemple, si  =  e x  dx pour x positif et 0 pour x négatif alors μ n  =  n !, et cela donne une version de la sommation de Borel , où la valeur d'une somme est donnée par

Il y a une généralisation de cette fonction d'une variable α , appelée (B ', α ) somme, la somme d'une série de 0  + ... est définie comme

si cette intégrale existe. Une autre généralisation consiste à remplacer la somme sous l'intégrale par sa continuation analytique à partir de t petit  .

Méthodes diverses

sommation hyperréelle BGN

Cette méthode de sommation fonctionne en utilisant une extension aux nombres réels connus sous le nom de nombres hyperréels . Étant donné que les nombres hyperréels incluent des valeurs infinies distinctes, ces nombres peuvent être utilisés pour représenter les valeurs de séries divergentes. La méthode clé consiste à désigner une valeur infinie particulière qui est additionnée, généralement , qui est utilisée comme unité d'infini. Au lieu de sommer à une infinité arbitraire (comme c'est généralement le cas avec ), la méthode BGN additionne à la valeur infinie hyperréelle spécifique étiquetée . Les sommes sont donc de la forme

Cela permet l'utilisation de formules standard pour les séries finies telles que les progressions arithmétiques dans un contexte infini. Par exemple, en utilisant cette méthode, la somme de la progression est , ou, en utilisant juste la partie hyperréelle infinie la plus significative, .

Transformations de Hausdorff

Hardy (1949 , chapitre 11).

Sommation de Hölder

La méthode de Hutton

En 1812, Hutton a introduit une méthode de sommation des séries divergentes en commençant par la séquence de sommes partielles et en appliquant à plusieurs reprises l'opération consistant à remplacer une séquence  s 0s 1 , ... par la séquence de moyenness 0  +  s 1/2, s 1  +  s 2/2, ..., puis en prenant la limite ( Hardy 1949 , p. 21).

Ingham sommabilité

La série a 1  + ... est appelée Ingham sommable à s si

Albert Ingham a montré que si δ est un nombre positif alors (C,− δ ) (Cesàro) la sommabilité implique la sommabilité d'Ingham, et la sommabilité d'Ingham implique la sommabilité (C, δ ) de Hardy (1949 , Annexe II).

sommabilité Lambert

La série a 1  + ... est appelée Lambert sommable à s si

Si une série est (C, k ) (Cesàro) sommable pour tout k alors elle est sommable Lambert à la même valeur, et si une série est sommable Lambert alors elle est sommable Abel à la même valeur Hardy (1949 , Annexe II).

Le Roy sommation

La série a 0  + ... est appelée Le Roy sommable à s si

Hardy (1949 , 4.11)

Sommation de Mittag-Leffler

La série a 0  + ... est appelée Mittag-Leffler (M) sommable à s si

Hardy (1949 , 4.11)

Somme de Ramanujan

La sommation de Ramanujan est une méthode d'attribution d'une valeur aux séries divergentes utilisée par Ramanujan et basée sur la formule de sommation d'Euler-Maclaurin . La somme de Ramanujan d'une série f (0) + f (1) + ... dépend non seulement des valeurs de f aux entiers, mais aussi des valeurs de la fonction f aux points non entiers, ce n'est donc pas vraiment un méthode de sommation au sens de cet article.

sommabilité de Riemann

La série a 1  + ... est appelée (R, k ) (ou Riemann) sommable à s si

Hardy (1949 , 4.17) La série a 1  + ... est appelée R 2 sommable à s si

Riesz signifie

Si λ n forme une suite croissante de nombres réels et

alors la somme de Riesz (R, λ , κ ) de la série a 0  + ... est définie comme étant

sommabilité Vallée-Poussin

La série a 1  + ... est appelée VP (ou Vallée-Poussin) sommable à s si

où est la fonction gamma. Hardy (1949 , 4.17).

Voir également

Remarques

Les références

  • Arteca, Géorgie ; Fernandez, FM; Castro, EA (1990), Théorie des perturbations aux grands ordres et méthodes de sommation en mécanique quantique , Berlin : Springer-Verlag.
  • Baker, Jr., Géorgie; Graves-Morris, P. (1996), Padé Approximants , Cambridge University Press.
  • Brezinski, C.; Zaglia, M. Redivo (1991), Méthodes d'extrapolation. Théorie et pratique , Hollande du Nord.
  • Hardy, GH (1949), Séries divergentes , Oxford : Clarendon Press.
  • LeGuillou, J.-C. ; Zinn-Justin, J. (1990), Théorie du comportement aux grands ordres de la perturbation , Amsterdam: North-Holland.
  • Volkov, II (2001) [1994], "Méthode de sommation Lindelöf" , Encyclopédie des mathématiques , EMS Press.
  • Zakharov, AA (2001) [1994], "Méthode de sommation Abel" , Encyclopédie des mathématiques , EMS Press.
  • "Méthode de sommation de Riesz" , Encyclopédie des mathématiques , EMS Press , 2001 [1994]
  • Werner Balser : « De la série de puissance divergente aux fonctions analytiques », Springer-Verlag, LNM 1582, ISBN 0-387-58268-1 (1994).
  • William O. Bray et Časlav V. Stanojević (Eds.): "Analyse de la divergence", Springer, ISBN 978-1-4612-7467-4 (1999).
  • Alexander I. Saichev et Wojbor Woyczynski : "Distributions in the Physical and Engineering Sciences, Volume 1", Chap.8 "Sommation of divergent series and Integrales", Springer (2018).