AccueilđŸ‡«đŸ‡·Chercher

Extrapolation de Richardson

En analyse numĂ©rique, le procĂ©dĂ© d'extrapolation de Richardson est une technique d'accĂ©lĂ©ration de la convergence. Il est ainsi dĂ©nommĂ© en l'honneur de Lewis Fry Richardson[1] - [2], qui l'a popularisĂ© au dĂ©but du XXe siĂšcle. Les premiĂšres utilisations remontent Ă  Huygens en 1654 et Takebe Kenkƍ en 1723[3], pour l'Ă©valuation numĂ©rique de π.

Ce procédé est notamment utilisé pour définir une méthode numérique d'intégration : la méthode de Romberg, accélération de la méthode des trapÚzes.

Présentation du principe

On suppose que la quantitĂ© inconnue A peut ĂȘtre approchĂ©e par une fonction A(h) avec une convergence d'ordre n en h

expression dans laquelle le coefficient an n'est pas connu. Le principe d'extrapolation consiste à supprimer le terme en hn par combinaison linéaire de deux valeurs de A(h), calculés avec des h différents : par exemple A(h) et A(h/2). On obtient :

R(h) est l'extrapolĂ© de Richardson qui approche A Ă  l'ordre m>n en h. Le facteur 2 peut ĂȘtre remplacĂ© par n'importe quel autre facteur. L'intĂ©rĂȘt de la mĂ©thode est qu'il sera frĂ©quemment plus aisĂ© d'obtenir une prĂ©cision donnĂ©e en calculant R(h) que A(h') avec un h' beaucoup plus petit (risque d'erreur d'arrondi, grande quantitĂ© de calcul 
).

Formule générale

On suppose que l'on dispose d'une approximation de A avec une formule d'erreur de cette forme

les coefficients Ă©tant inconnus. On se fixe un paramĂštre rĂ©el r>1 et on forme une combinaison entre la relation prĂ©cĂ©dente et cette mĂȘme relation prise au point

Le terme en hk0 a disparu. Cette formule peut ĂȘtre itĂ©rĂ©e pour augmenter l'ordre, en Ă©valuant A(h) successivement aux points .

Pour les formules d'erreur pouvant ĂȘtre exprimĂ© sous la forme

avec une fonction connue telle que , un algorithme d'interpolation polynomial (par exemple l'algorithme d'Aitken-Neville) peut ĂȘtre utilisĂ©. Dans ce cas, la suite des subdivisions hn n'a pas nĂ©cessitĂ© d'ĂȘtre en progression gĂ©omĂ©trique.

Dans ce cas, le rĂ©sultat de l'extrapolation de Richardson s'obtient en calculant la valeur en zĂ©ro du polynĂŽme d'interpolation passant par les points , oĂč les hi forment une suite dĂ©croissant vers 0. Une variante consiste Ă  utiliser une interpolation par fraction rationnelle au lieu d'une interpolation polynomiale (Bulirsch et Stoer (en)[4] ou le ρ-algorithme de P. Wynn).

Pour le cas encore plus gĂ©nĂ©ral, oĂč la formule d'erreur est de la forme :

avec les fonctions connues et telles que , l'algorithme d'interpolation linĂ©aire gĂ©nĂ©ralisĂ© de MĂŒhlbach[5] peut ĂȘtre utilisĂ© : On obtient dans ce cas un algorithme d'accĂ©lĂ©ration de la convergence appelĂ© E-algorithme, de HĂ„vie[6] et Brezinski[7] (Ă  ne pas confondre avec l'Δ-algorithme de P. Wynn).

Algorithme

L'algorithme présenté est celui associé à la méthode d'Aitken Neville, lorsque la formule d'erreur est de la forme :

Pour N valeurs différentes calculés de An, avec la suite auxiliaire hn correspondante, on initialise le tableau suivant :

Puis le reste du tableau (seulement une partie triangulaire) est calculé par les relations :

Le résultat de l'extrapolation de Richardson est (la pointe du triangle)

Le choix de la suite auxiliaire hn est un compromis entre une suite décroissant suffisamment rapidement pour obtenir un algorithme numériquement stable, et une suite décroissant lentement évitant les difficultés de calcul des An. Pour des raisons de risque de divergence, on évitera d'utiliser une suite auxiliaire décroissant plus lentement que la suite harmonique (critÚre de Laurent).

D'autres algorithmes d'interpolation polynomiales peuvent ĂȘtre utilisĂ©s Ă  la place de la mĂ©thode d'Aitken Neville, notamment la mĂ©thode de Lagrange (en particulier sa variante dite barycentrique). Dans ce cas prĂ©cis, les polynĂŽmes formant la base de Lagrange peuvent ĂȘtre calculĂ©s une fois pour toutes (ceux-ci ne dĂ©pendant que de la suite hn choisie), ce qui rend l'algorithme compĂ©titif. Ceci est d'autant plus vrai s'il y a Ă  extrapoler Ă  plusieurs reprises, par exemple pour la rĂ©solution des Ă©quations diffĂ©rentielles, ou l'extrapolation d'une suite vectorielle.

Les suites classiquement utilisés sont :

  • la suite de Romberg
  • les suites de Bulirsch ou bien
  • la suite de Deuflhard

Lorsque les exposants de la formule d'erreur de A(h) ne suivent pas une progression arithmĂ©tique, les algorithmes prĂ©cĂ©dents doivent ĂȘtre adaptĂ©s, avec la contrainte d'utiliser une suite hn gĂ©omĂ©trique, du type hn=h0/rn (par exemple, celle de Romberg, de raison 2). D'autre part, les diffĂ©rents exposants de la formule d'erreur doivent ĂȘtre connus, car ils rentre dans la formule de calcul du tableau.

Exemples d'application

Approximation numérique de la dérivée d'une fonction

Le point de départ est le développement de Taylor de la fonction à dériver :

la dérivée de f(x) est déduite

en appelant , le terme d'erreur se présente sous une forme :

forme convenable pour ĂȘtre accĂ©lĂ©rĂ©e Ă  l'aide de l'extrapolation de Richardson. Il suffira de calculer A(h) pour diffĂ©rentes valeur de h (par exemple la suite de Romberg), et de s'en servir pour Ă©liminer les termes en h, h2, etc.

En soustrayant le dĂ©veloppement de Taylor de f (x+h) Ă  celui de f(x–h), on obtient :

on en tire une autre approximation de la dérivée :

qui ne contient que des termes d'erreur de degré pair. L'utilisation de l'extrapolation de Richardson est dans ce cas beaucoup plus efficace, car à chaque étape, le degré d'approximation est augmenté de 2.

De la mĂȘme maniĂšre, cette fois-ci en additionnant les dĂ©veloppements de f (x+h) et f(x–h), on en tire une formule du mĂȘme type servant Ă  calculer la dĂ©rivĂ©e seconde :

Dans les deux cas précédents, on pourra utiliser la méthode de Aitken-Neville pour le calcul de l'extrapolation de Richardson, avec la fonction .

Intégration numérique

La méthode des trapÚzes possÚde un terme d'erreur n'ayant que des puissances paires de h, d'aprÚs la formule d'Euler-Maclaurin. Elle est donc trÚs bien adaptée à l'utilisation de l'extrapolation de Richardson. La méthode résultante est appelée méthode de Romberg.

La mĂ©thode du point mĂ©dian possĂšde aussi ce type de dĂ©veloppement, et peut donc fournir une variante de la mĂ©thode de Romberg. Les deux mĂ©thodes peuvent ĂȘtre utilisĂ©es de concert pour fournir une estimation de l'erreur de l'intĂ©grale rĂ©sultante.

Intégration numérique des équations différentielles

La mĂ©thode d'intĂ©gration de base qui se prĂȘte le mieux Ă  l'extrapolation de Richardson est la mĂ©thode du point milieu (oĂč du point milieu modifiĂ©) de Gragg. Elle possĂšde aussi un terme d'erreur oĂč n'apparait que les puissances paires de h (lorsque les subdivisions sont paires). La mĂ©thode rĂ©sultante est connue sous le nom de Gragg-Bulirsch-Stoer (GBS) (en). Il existe plusieurs variantes, dĂ©pendant du choix de la sĂ©quence des hi, du type d'extrapolation (polynomiale ou rationnelle), et du calcul de la taille du pas global.

Notes

  1. (en) L. F. Richardson, « The approximate arithmetical solution by finite differences of physical problems including differential equations, with an application to the stresses in a masonry dam », Philosophical Transactions of the Royal Society of London, Series A, vol. 210,‎ , p. 307–357 (DOI 10.1098/rsta.1911.0009)
  2. (en) L. F. Richardson, « The deferred approach to the limit », Philosophical Transactions of the Royal Society of London, Series A, vol. 226,‎ , p. 299–349 (DOI 10.1098/rsta.1927.0008)
  3. (en) Guido Walz, « The History of Extrapolation Methods in Numerical Analysis », Mannheimer Manuskripte, vol. 130,‎ , p. 1–11
  4. (en) R. Bulirsch et J. Stoer, §2.2 in Introduction to Numerical Analysis, New York, Springer-Verlag, 1991.
  5. MĂŒhlbach, G., The general Neville-Aitken algorithm and some applications. Numer. Math. v31. 97-110
  6. HĂ„vie, T., Generalized Neville type extrapolation schemes. BIT. v19. 204-213
  7. Brezinski, C., « A general extrapolation algorithm ». Numer. Math. v25. 175-187

Voir aussi

Bibliographie

Claude Brezinski, Algorithmes d'accélération de la convergence : étude numérique, Paris, éditions Technip, , 392 p. (ISBN 2-7108-0341-0, lire en ligne)

Article connexe

Delta-2

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.