AccueilđŸ‡«đŸ‡·Chercher

Rho algorithme

En analyse numĂ©rique, le ρ-algorithme est un algorithme non linĂ©aire d'accĂ©lĂ©ration de la convergence d'une suite numĂ©rique dĂ» Ă  Peter Wynn (en)[1]. C'est un algorithme analogue Ă  l'extrapolation de Richardson, mais fondĂ© sur une extrapolation par fraction rationnelle au lieu d'une extrapolation polynomiale. Il est particuliĂšrement bien adaptĂ© Ă  accĂ©lĂ©rer les suites Ă  convergence logarithmique.

Description de l'algorithme

Le ρ-algorithme consiste Ă  calculer une fraction rationnelle d'interpolation Ă  l'aide des valeurs connues de la suite, et de dĂ©terminer la limite en l'infini de cette fraction comme une estimation de la limite de la suite numĂ©rique. Il utilise pour cela les diffĂ©rences rĂ©ciproques, qui fournissent directement le rĂ©sultat cherchĂ©. L'algorithme obtenu se rĂ©sume donc au calcul des diffĂ©rences rĂ©ciproques de la suite numĂ©rique.

Soit une suite numĂ©rique Sn dont on cherche Ă  connaĂźtre la limite S. Le ρ-algorithme consiste Ă  calculer un tableau en initialisant la premiĂšre colonne par la suite Sn, et en calculant les autres cases Ă  l'aide des relations suivantes :

Les diffĂ©rentes colonnes d'indice k pair du tableau fournissent d'autres suites convergeant en gĂ©nĂ©ral plus vite que la suite Sn d'origine. Les colonnes d'indice impair peuvent ĂȘtre considĂ©rĂ©es comme des intermĂ©diaires de calcul.

On prĂ©sente souvent les rĂ©sultats du ρ-algorithme sous forme d'un tableau aux lignes dĂ©calĂ©es : la formule de calcul du ρ-algorithme relie ainsi les termes formant un losange dans le tableau.

Il arrive frĂ©quemment que la suite Ă  accĂ©lĂ©rer Sn dĂ©pende d'une suite auxiliaire xn, celle-ci tendant vers l'infini (par exemple des approximations par discrĂ©tisation avec un maillage de plus en plus fin, oĂč xn serait le nombre de mailles). Il est possible d'utiliser le ρ-algorithme de base dans ces cas mais la façon dont Ă©volue la suite xn associĂ©e (par exemple l'Ă©volution du nombre de mailles entre chaque Sn) est un renseignement prĂ©cieux qui pourrait aider l'accĂ©lĂ©ration de la convergence. On utilise dans ce cas une gĂ©nĂ©ralisation du ρ-algorithme utilisant cet information supplĂ©mentaire : il correspond Ă  la limite en l'infini de la fraction rationnelle d'interpolation, passant par les points (xn, Sn).

Avec la suite auxiliaire xn = n, on retrouve le ρ-algorithme classique.

Propriétés

Lien avec la formule de Thiele

La formule d'interpolation de Thiele (en)[2] est une méthode de calcul de fraction rationnelle d'interpolation s'apparentant à celle de Newton pour les polynÎmes d'interpolation. La fraction rationnelle de Thiele passant par les points (xi, Si) pour i=n, n+1, ..., n+k se présente sous forme d'une fraction continue généralisée qui s'écrit :

soit, pour tous les points Ă  partir de (x0, S0) :

oĂč les diffĂ©rences rĂ©ciproques ρ(n)k sont calculĂ©es avec la suite Si et la suite auxiliaire xi. La fonction de Thiele est une fraction rationnelle de degrĂ©s identiques au numĂ©rateur et dĂ©nominateur pour k pair et de degrĂ© supĂ©rieur de 1 au numĂ©rateur pour k impair. Plus prĂ©cisĂ©ment, on a :

On en dĂ©duit facilement que, lorsque k est pair, le ρ-algorithme correspond Ă  la limite en l'infini de la fraction d'interpolation de Thiele. De plus, on peut en dĂ©duire aussi que les diffĂ©rences rĂ©ciproques ρ(n)k ne dĂ©pendent pas de l'ordre des points ayant servi Ă  les calculer (puisque la fraction d'interpolation ne dĂ©pend pas de cet ordre et que la diffĂ©rence rĂ©ciproque est un des coefficients de cette fraction).

Exemples

Accélération de la convergence d'une suite numérique

La série suivante, série dite du problÚme de Bùle,

converge trĂšs lentement. Le ρ-algorithme peut ĂȘtre utilisĂ© pour accĂ©lĂ©rer la convergence des sommes partielles de cette sĂ©rie. Voici le rĂ©sultat :

Le ρ-algorithme classique a Ă©tĂ© utilisĂ© pour les calculs prĂ©cĂ©dents. La suite Ă  accĂ©lĂ©rer est la somme partielle de la sĂ©rie, en ajoutant un terme Ă  la fois. On constate effectivement que seules les colonnes paires convergent vers la limite, et ceci beaucoup plus vite que la suite d'origine (pour obtenir la mĂȘme prĂ©cision avec la suite d'origine, il aurait fallu sommer plusieurs milliards de termes au lieu de 9).

Interpolation rationnelle

Comparaison de l'interpolation polynomiale et rationnelle de la fonction Arctan(x)

Le calcul des diffĂ©rences rĂ©ciproques (tableau de valeur du ρ-algorithme) permet d'utiliser la formule de Thiele pour le calcul de fraction rationnelle d'interpolation. L'interpolation rationnelle fournit de meilleurs rĂ©sultats par rapport Ă  l'interpolation polynomiale, lorsque la fonction Ă  interpoler :

  • prĂ©sente des asymptotes ;
  • prĂ©sente des pĂŽles Ă  proximitĂ© ou dans la zone d'interpolation ;
  • prĂ©sente des pĂŽles complexes au voisinage de l'intervalle d'interpolation (phĂ©nomĂšne de Runge).

Le graphique ci-contre montre le gain que peut apporter l'interpolation rationnelle sur l'interpolation polynomiale dans certains cas. L'exemple porte sur l'interpolation de la fonction Arc-tangente Ă  l'aide de 21 points d'interpolation rĂ©guliĂšrement espacĂ©s sur l'intervalle [-10;10]. On constate que l'interpolation polynomiale prĂ©sente un phĂ©nomĂšne de Runge. L'interpolation rationnelle est quasiment confondue avec la fonction arc tangente dans l'intervalle d'interpolation, et mĂȘme lĂ©gĂšrement au-delĂ . La fonction arctangente prĂ©sente des asymptotes horizontales et des pĂŽles complexes en -i et +i, conditions non favorables pour une interpolation polynomiale. Le phĂ©nomĂšne de Runge peut ĂȘtre estompĂ© en resserrant les abscisses d'interpolation aux extrĂ©mitĂ©s de l'intervalle, par exemple avec les abscisses de Chebychev : cependant l'amĂ©lioration obtenue ne suffit pas Ă  tenir la comparaison avec l'interpolation rationnelle (erreur max de l'ordre de 0,07 contre 0,00005).

Variante des méthodes utilisant l'extrapolation de Richardson

Plusieurs méthodes numériques utilisent l'extrapolation de Richardson pour accélérer la convergence de méthodes d'ordre peu élevé. On trouve par exemple son utilisation dans :

  • l'Ă©valuation de la dĂ©rivĂ©e d'une fonction, par accĂ©lĂ©ration de la convergence de la mĂ©thode des diffĂ©rences centrales ;
  • l'intĂ©gration numĂ©rique, en accĂ©lĂ©rant la mĂ©thode des trapĂšzes (mĂ©thode de Romberg) ;
  • l'intĂ©gration des Ă©quations diffĂ©rentielles, en accĂ©lĂ©rant la mĂ©thode du point milieu (mĂ©thode de Gragg-Bulirsch-Stoer).

Dans chacune de ces applications, il est possible de remplacer l'extrapolation de Richardson par le ρ-algorithme. La suite associĂ©e xn devant tendre vers l'infini dans le cas du ρ-algorithme, on prendra l'inverse de la suite associĂ©e Ă  l'extrapolation de Richardson (ou leur carrĂ©, le cas Ă©chĂ©ant). Les colonnes impaires de l'algorithme ne convergeant pas vers la limite cherchĂ©e, la valeur Ă  retenir pour l'extrapolation est alternativement ρ(0)k pour k pair et ρ(1)k–1 pour k impair. Bulirsch et Stoer[3] ont proposĂ© dans ce but une autre mĂ©thode d'interpolation rationnelle qui, pour un nombre pair de points, donne les mĂȘmes rĂ©sultats que le ρ-algorithme, mais nĂ©cessite plus de calculs.

Autres applications

Le ρ-algorithme s'est rĂ©vĂ©lĂ© intĂ©ressant pour divers applications pratiques, entre autres :

  • l'inversion numĂ©rique de la transformation de Laplace[4] ;
  • l'accĂ©lĂ©ration de la convergence d'algorithmes de restauration d'images (algorithme de Richardson-Lucy).

Notes et références

  1. (en) Peter Wynn, « On a procrustean technique for the numerical transformation of slowly convergent sequences and series », Mathematical Proceedings of the Cambridge Philosophical Society, vol. 52,‎ , p. 663–671 (DOI 10.1017/S030500410003173X).
  2. (de) Thorvald Nicolai Thiele, Interpolationsrechnung, Leipzig, Teubner, 1909.
  3. (en) R. Bulirsch et J. Stoer, « Numerical treatment of ordinary differential equations by extrapolation methods Â», Numer. Math., vol. 8, 1966, p. 1-13.
  4. (en) J. Abate et P. P. ValkĂł, Multi-precision Laplace transform inversion.

Annexes

Bibliographie

  • Claude Brezinski, Algorithmes d'accĂ©lĂ©ration de la convergence : Ă©tude numĂ©rique, Ă©ditions Technip, 1978, (ISBN 2-7108-0341-0)

Articles connexes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.