AccueilđŸ‡«đŸ‡·Chercher

MĂ©thode de Bernoulli

En analyse numérique, la méthode de Bernoulli est une méthode de calcul numérique de la racine de plus grand module d'un polynÎme, exposée par Daniel Bernoulli [1]. C'est une méthode itérative ne nécessitant aucune estimation préalable de la racine, qui sous certaines conditions, est globalement convergente.

Présentation

Soit le polynĂŽme:

dont les racines λk sont telles que |λ1|> |λ2|≄...≄|λp|

la méthode de Bernoulli génÚre la suite yn définie par les termes initiaux y0, y1...yp-1 arbitraires, non tous nuls. Les termes suivants sont générés par récurrence:

Le rapport des termes consécutifs yn+1/yn converge, sous certaines conditions, vers λ1, la racine "dominante" du polynÎme P(x).

Cette mĂ©thode peut ĂȘtre rattachĂ©e Ă  celle de la puissance itĂ©rĂ©e pour estimer les valeurs propres des matrices, en l'appliquant Ă  la matrice compagnon du polynĂŽme.

Propriétés

la suite

est une suite récurrente linéaire à coefficients constants, dont la solution analytique est connue, et peut s'exprimer par:

oĂč les λi sont les m racines du polynĂŽme

et ki la multiplicitĂ© de la racine λi (avec k1+k2+..+km=p le degrĂ© du polynĂŽme). Les ci,j sont des coefficients arbitraires, qui peuvent ĂȘtre dĂ©terminĂ©s grĂące aux termes initiaux de la suite y0, y1...yp-1.

Les racines ayant été numérotées suivant leur module décroissant. Si le polynÎme possÚde une racine dominante λ1 unique, c'est-à-dire tel que , la suite yn se comporte asymptotiquement comme:

Le rapport de deux termes consécutifs se comporte asymptotiquement comme:

et converge vers la racine dominante simple λ1.La convergence est linéaire et dépend du ratio entre les 2 racines dominantes (la convergence sera d'autant plus rapide que λ1 sera grand par rapport à λ2). Si, par un choix particulier de valeurs initiales y0, y1...yp-1, le coefficient c1,0 serait égal à 0, le ratio des yn convergera vers λ2.

Lorsque la racine dominante est de multiplicité k1, le comportement asymptotique est

Les ki' sont au plus égaux à la multiplicité de la iéme racine (inférieur si certains ci,ki sont nuls). Dans ce cas, le rapport de deux termes consécutifs se comporte asymptotiquement comme:

et la convergence vers λ1 est en gĂ©nĂ©ral logarithmique, sauf au cas oĂč c1,1, c1,2, etc. c1,k1=0 et c1,0≠0, oĂč elle est linĂ©aire. Un certain choix judicieux de valeurs initiales y0, y1...yp-1 permet d'obtenir ce comportement.

La convergence étant généralement assurée quel que soit les termes initiaux choisit qualifie la méthode de globalement convergente, et rend cette méthode quasiment insensible aux propagations d'erreur (équivalant à un léger changement des valeurs initiales).

Variantes

Choix des valeurs initiales

Le choix le plus simple, y0 = y1...yp-2 = 0 et yp-1=1 garanti un coefficient c1,0 non nul, donc une convergence vers la racine dominante.

Si une estimation de la racine dominante λ est disponible, l'initialisation y0=1; y1=λ; y2=λÂČ...yp-1=λp-1 permet d'amĂ©liorer la convergence en diminuant les valeurs des coefficients ci,k par rapport Ă  c1,0.

Le choix:






 

gĂ©nĂšre la suite yn de la somme des racines Ă©levĂ© Ă  la puissance n+1, d'aprĂšs les identitĂ©s de Newton Girard. Avec ces valeurs initiales, la suite du rapport de deux termes consĂ©cutifs converge linĂ©airement vers la racine dominante, mĂȘme dans le cas d'une racine multiple.

Racines complexes ou de mĂȘme module

Pour les polynĂŽmes Ă  coefficients rĂ©els, si les termes initiaux de la suite sont aussi rĂ©els, la suite gĂ©nĂ©rĂ©e ne peut quitter l'axe des rĂ©els. Au cas oĂč la racine dominante est un couple de racines complexes conjuguĂ©s, la suite des ratios successifs oscillent sans converger. Dans ce cas, les suites auxiliaires:

vérifient:

oĂč les deux racines dominantes complexes conjuguĂ©s sont racines de:

Cette variante s'applique aussi dans le cas de racines dominantes rĂ©elles. Lorsque les deux racines dominantes forment un couple isolĂ© des autres, la convergence peut ĂȘtre plus rapide vers S et P que le vers la racine dominante seule. Les mĂȘmes remarques s'appliquent lorsque la racine dominante est double.

Racine de plus petit module

La racine de plus petit module de P(x) est l'inverse de la racine de plus grand module de xp.P(1/x), obtenu en reversant l'ordre des coefficients:

En appliquant la méthode de Bernoulli avec les coefficients du polynÎme d'origine écrit à rebours,

le ratio des termes consĂ©cutifs de la suite converge vers 1/λp, inverse de la racine de plus petit module. Ainsi, toutes les propriĂ©tĂ©s et mĂ©thodes spĂ©cifiques aux racines dominantes peuvent se transcrire aux racines de plus faible module. En cas de racine multiple ou complexe conjuguĂ©, les mĂȘmes procĂ©dĂ©s que pour les racines dominantes s'appliquent.

Racines intermédiaires

  • DĂ©flation du polynĂŽme

Une fois dĂ©terminĂ©e avec suffisamment de prĂ©cision la racine de plus grand module, la division du polynĂŽme de dĂ©part par (x-λ1) Ă  l'aide du schĂ©ma de Horner, permet d'obtenir un polynĂŽme de degrĂ© n-1 avec les racines restantes Ă  dĂ©terminer. La mĂ©thode de Bernoulli peut ĂȘtre appliquĂ©e Ă  ce polynĂŽme rĂ©duit, pour de proche en proche, dĂ©terminer toutes les racines. De la mĂȘme maniĂšre, il est possible de retirer la racine de plus petit module, par la mĂ©thode de Bernoulli avec les coefficients Ă©crits Ă  rebours. En cas de racines dominantes complexes conjuguĂ©es, une dĂ©clinaison du schĂ©ma de Horner permet de retirer les deux racines simultanĂ©ment en divisant le polynĂŽme par xÂČ-Sx+P. Avec ce type de procĂ©dĂ©, les polynĂŽmes successifs peuvent avoir des racines lĂ©gĂšrement diffĂ©rentes du polynĂŽme initial, Ă  la suite de propagations d'erreur d'arrondi. Afin de limiter au mieux cette propagation d'erreur, il est conseillĂ©[2] de supprimer les racines par ordre croissant des modules. Il est aussi conseillĂ© de garder en mĂ©moire le polynĂŽme d'origine afin d'affiner les racines par un autre procĂ©dĂ©.

  • DĂ©termination de toutes les racines simultanĂ©ment

Certains algorithmes complĂ©mentaires permettent, en se basant sur la suite yn gĂ©nĂ©rĂ©e par la mĂ©thode de Bernoulli, d'estimer toutes les racines du polynĂŽme simultanĂ©ment. Parmi ces mĂ©thodes, figure celle d'A. Aitken [3] , l'algorithme q-d de H.Rutishauser[4] ou l'Δ-algorithme de P. Wynn. Contrairement Ă  la mĂ©thode de Bernoulli, ces mĂ©thodes complĂ©mentaires sont trĂšs sensibles Ă  la propagation des erreurs d'arrondi, et sauf prĂ©cautions particuliĂšres, la prĂ©cision obtenue pour certaines racines peut ĂȘtre mĂ©diocre. Pour limiter les instabilitĂ©s numĂ©riques de ces mĂ©thodes, il est souhaitable de dĂ©terminer les plus grandes racines en partant de la variante de Bernoulli convergeant vers la racine dominante, et de dĂ©terminer les plus petites racines Ă  l'aide de la variante convergeant vers la racine de plus petit module. Les valeurs trouvĂ©es pourront servir de premiĂšres estimations pour des algorithmes de rĂ©solution nĂ©cessitant des estimations de toutes les racines simultanĂ©ment (MĂ©thode de Durand-Kerner (en)).

Par exemple, la méthode d'Aitken consiste à déduire de la suite yk, générée par la méthode de Bernoulli, des suites associées, dont les ratios convergent vers le produit des m plus grandes racines du polynÎme:





vérifient:

d'oĂč

Des variantes permettent de prendre en charge les racines complexes.

Mise en Ɠuvre calculatoire

Les principaux points de vigilance de la méthode de Bernoulli sont les risques de dépassement de capacité des nombres en virgule flottant lors de la génération de la suite, et la lenteur de convergence du procédé.

Gestion des limitations des nombres flottants

La suite générée par la méthode de Bernoulli tend à suivre une progression géométrique dont la raison est la plus grande (ou la plus petite) des racines du polynÎme. Si la valeur de cette racine est élevée, la suite générée peut rapidement dépasser la capacité des nombres en virgule flottante utilisés (overflow ou underflow). Afin d'éviter cet écueil, il existe plusieurs stratégies.

  • normalisation des racines du polynĂŽme

Il existe plusieurs formules permettant d'estimer la dimension de la plus grande (ou plus petite) racine du polynĂŽme, Ă  l'aide des coefficients (entre autres, les premiers termes de la mĂ©thode de Bernoulli). Une fois cette estimation, λmax, connue, un changement de variable z=x/|λmax| permet de ramener la plus grande racine Ă  une valeur voisine de l'unitĂ©. Pour Ă©viter la propagation des erreurs de calcul lors de ce changement de variable, la valeur de λmax pourra ĂȘtre remplacĂ©e par la puissance de 2 la plus proche. De mĂȘme, pour Ă©viter que les produits intermĂ©diaires lors du calcul de la suite de Bernoulli gĂ©nĂšrent des dĂ©passements de capacitĂ©, une normalisation de tous les coefficients par une puissance de 2 adĂ©quate est Ă  envisager, une fois le changement de variable effectuĂ©. Les coefficients d'origine seront Ă  conserver comme rĂ©fĂ©rence.

  • rectification pĂ©riodique de la suite gĂ©nĂ©rĂ©e

Lors du calcul de la suite des yn+p, une vĂ©rification peut ĂȘtre faite en cas de risque prochain de dĂ©passement de capacitĂ© (le ratio de deux termes consĂ©cutifs donnant la raison de la suite gĂ©omĂ©trique, une estimation du terme suivant est aisĂ©e). En cas de dĂ©passement de capacitĂ© proche, une division des p derniers termes de la suite par une puissance de 2 adĂ©quate permet de repartir avec des termes loin du dĂ©passement de capacitĂ©. La convergence de la suite n'est pas altĂ©rĂ©e par ce procĂ©dĂ©, car seuls les ratios interviennent dans l'estimation des racines.

  • utilisation de la suite des ratios consĂ©cutifs

Seuls les ratios de termes yn+p sont d'intĂ©rĂȘt pratique, et non les termes individuellement. Une reformulation[5] permet de calculer directement le ratio Ă  l'aide d'une relation de rĂ©currence. Ces ratios convergent directement vers la valeur des racines, Ă©vitant les risques de dĂ©passement de capacitĂ©.

En introduisant zm=ym-1/ym, la relation de récurrence de Bernoulli devient:

La suite des zm se calculent facilement Ă  partir de la fin, en emboĂźtant les multiplications Ă  la maniĂšre de Horner.

Les zm initiaux correspondant Ă  y0 = y1...yp-2 = 0 et yp-1=1 sont z1 = z2...zp-1 = 1 et Zp=0

ceux correspondant aux identités de Newton Girard sont:







 


Les estimations de la racine dominante se déduisent de la définition de zm :

OĂč S et P sont la somme et le produit des deux racines dominantes. La mĂȘme mĂ©thode, en renversant l'ordre des coefficients, peut ĂȘtre utilisĂ©e pour calculer l'inverse de la ou des racine(s) de plus petit module.

Accélération de la convergence

La mĂ©thode de Bernoulli converge typiquement de maniĂšre linĂ©aire vers la racine cherchĂ©e, il est utile d'accĂ©lĂ©rer ce procĂ©dĂ©. Plusieurs mĂ©thodes peuvent ĂȘtre mises en Ɠuvre:

Plusieurs algorithmes d'accĂ©lĂ©ration de la convergence sont aptes Ă  accĂ©lĂ©rer la convergence de la mĂ©thode de Bernoulli. Parmi ceux-ci certains sont particuliĂšrement adaptĂ©s au vu de la forme du terme d'erreur de la mĂ©thode: le Delta-2 d'Aitken, et l'Δ-algorithme. Le but de ces algorithmes est d'accĂ©lĂ©rer la convergence de la suite yn/yn-1 ou zn. Chaque utilisation d'un des deux algorithmes supprime le plus grand des termes du ratio des deux racines dominantes non encore supprimĂ©s. La rĂ©pĂ©tition de l'utilisation de ces algorithmes permet d'obtenir une suite Ă  convergence linĂ©aire, mais avec un terme d'erreur de plus en plus petit. Les termes consĂ©cutifs de la suite de Bernoulli utilisĂ©s pour accĂ©lĂ©rer la convergence ne doivent pas subir de transformation (dĂ©calage du zĂ©ro, rectification pĂ©riodique) sur la plage utilisĂ©e pour l'accĂ©lĂ©ration. Il est en revanche possible ensuite de rĂ©initialiser la suite de Bernoulli Ă  l'aide du rĂ©sultat obtenu par l'accĂ©lĂ©ration de la convergence. En prenant comme valeur initiale y0=1, y1=λ,y1=λÂČ ...yp-1=λp-1, oĂč λ est l'estimation de λ1 trouvĂ© par l'accĂ©lĂ©rateur, la nouvelle suite gĂ©nĂ©rĂ©e converge plus rapidement que l'originale. Ceci est dĂ» Ă  la modification des coefficients ci,k induit par le changement de valeur initiales, qui tendent vers les coefficients idĂ©aux pour la convergence (ci,k=0 sauf c1,0).

  • dĂ©calage de l'origine

Le coefficient de linĂ©aritĂ© de la convergence est proportionnel au rapport de la racine cherchĂ©e avec celle la plus proche. Si les deux racines dominantes sont voisines, la convergence sera d'autant plus lente. Lorsque la mĂ©thode est employĂ©e pour chercher la racine de plus faible module, une technique permet d'augmenter le rythme de convergence: le dĂ©calage de l'origine. En supposant que l'algorithme fournit Ă  un certain stade une approximation grossiĂšre de la racine de plus petit module, le fait de dĂ©caler l'origine Ă  cette valeur permet de diminuer le ratio entre les deux plus petites racines, et donc d'augmenter le rythme de convergence de l'algorithme par la suite. Ce dĂ©calage peut ĂȘtre renouvelĂ© par la suite pour accĂ©lĂ©rer davantage la convergence. Le dĂ©calage systĂ©matique de l'origine toutes les p itĂ©rations permet d'obtenir une convergence d'ordre p. Le cumul des dĂ©calages successifs doit ĂȘtre additionnĂ© pour dĂ©terminer la racine du polynĂŽme d'origine. Les coefficients du polynĂŽme avec le dĂ©calage d'origine est obtenu Ă  l'aide du schĂ©mas d'Horner emboĂźtĂ©.

  • bascule avec une autre mĂ©thode

Le principal intĂ©rĂȘt de la mĂ©thode de Bernoulli est de fournir une estimation d'une des racines du polynĂŽme, sans estimation prĂ©alable. L’inconvĂ©nient est sa convergence seulement linĂ©aire. D'autres mĂ©thodes, Ă  l'inverse, ont une convergence rapide (typiquement d'ordre deux), mais nĂ©cessitent une bonne estimation de dĂ©part, sous peines de diverger ou entrer dans des cycles itĂ©ratifs. La combinaison de la mĂ©thode de Bernoulli, pour fournir une valeur approchĂ©e d'une racine, avec une mĂ©thode Ă  convergence rapide, pour polir cette estimation, est complĂ©mentaire. Parmi les mĂ©thodes Ă  associer, figure celle de Newton ou Birge-Vieta, Bairstow (en) ou Laguerre.

Extension Ă  des fonctions non polynomiales

La mĂ©thode de Bernoulli est basĂ©e sur les propriĂ©tĂ©s des polynĂŽmes, et leur lien avec les suites rĂ©currentes linĂ©aires. Mais il est possible d'Ă©tendre la mĂ©thode Ă  des fonctions autres que polynomiales, en les approximant localement par un polynĂŽme. Dans ce cas, la mĂ©thode recherchant la racine de plus petit module s'avĂšre intĂ©ressante. La technique du dĂ©calage systĂ©matique de l'origine pourra ĂȘtre mise en Ɠuvre pour obtenir des mĂ©thodes d'ordre quelconque; celui-ci prenant dans ce cas la forme d'une mĂ©thode de point fixe classique.

Si les dĂ©rivĂ©es successives de la fonction f(x) sont connues jusqu'Ă  un certain ordre, il sera possible de remplacer la fonction par son dĂ©veloppement de Taylor autour du point oĂč la fonction est susceptible d'avoir un zĂ©ro. Il est aussi possible de remplacer le dĂ©veloppement de Taylor par un des approximant de PadĂ© correspondant, en cherchant la racine du numĂ©rateur par la mĂ©thode de Bernoulli.

Soit à résoudre l'équation f(x)=0, et soit x0 une valeur estimée proche de la racine cherchée. Le but est de trouver une suite de valeur xn convergeant vers la racine de f(x). Les dérivées successives de f(x) jusqu'à l'ordre p, sont calculées en xn, et avec les notations:

La fonction peut ĂȘtre approximĂ©e localement par son dĂ©veloppement de Taylor, autour de xn :

L'approximation suivante xn+1 est déterminée en appliquant la méthode de Bernoulli sur l'équation polynomiale en h, en recherchant la racine de plus petit module, puis xn+1 = xn +h.

Avec l'utilisation systématique du décalage d'abscisse, la méthode de Bernoulli classique risque de rencontrer des difficultés de calcul, à cause du coefficient constant du polynÎme devenant trÚs petit. Pour éviter cela, un changement de variable est opéré: Rk=a0k.yk.







 

L'itération de la fonction se calcule par: La méthode est d'ordre p+1 pour les fonctions Cp+1, mais chute à l'ordre 1 pour des racines multiples. La premiÚre formule obtenue est celle de Newton Raphson. La formule suivante, s'écrit en l'explicitant: , est attribuée à Halley. Elle est d'ordre 3 pour les racine simples, et d'ordre 1 pour les racines multiples.

Il est possible d'exprimer directement les ratio Rp-1/Rp=wp Ă  l'aide de:

avec

Les wk peuvent se calculer par la boucle suivante:

FOR k=1 TO p
   temp=a(k)
   FOR i=1 TO k-1
      temp=temp*a(0)*w(i)+a(k-i)
   NEXT i
   w(k)=-1/temp
NEXT k

Avec l'initialisation par les identités de Newton Girard, en changeant la notation Rk en Tk :






 

L'itération de la fonction se calcule par: La méthode est d'ordre p pour les fonctions Cp+1, et reste d'ordre p pour des racines multiples. Pour p=2, on obtient:

, attribuĂ©e Ă  Schröder[6], d'ordre 2, mĂȘme pour les racines multiples.

Le fait de prolonger la suite de Bernoulli au delĂ  de p, dĂ©rivĂ©e la plus Ă©levĂ©e disponible, n'augmente pas l'ordre de convergence de la mĂ©thode, mais modifie Ă  la marge le domaine de convergence de la mĂ©thode. La suite de Bernoulli convergeant vers la racine du polynĂŽme d'approximation, et non la racine de la fonction elle-mĂȘme. Cette prolongation peut ĂȘtre envisagĂ©e lorsque les ratios Rp/Rp+1 convergent lentement ou oscillent, a des fins de diagnostic sur les cas de divergence, ou d'extension du domaine de convergence. De mĂȘme, utiliser les mĂ©thodes d'accĂ©lĂ©ration, type Delta-2 dans ces cas de figure, peut s’avĂ©rer utile pour stabiliser les convergences oscillantes.

La convergence globale dont bénéficie la méthode de Bernoulli sur les polynÎmes ne se généralise pas avec la version non polynomiale. Les causes pouvant générer des limitations de domaine de convergence sont:

- prĂ©sence d'un pĂŽle dans un rayon plus proche que celui de la racine cherchĂ©e, par rapport au point de dĂ©part de l'itĂ©ration. Le pĂŽle limite le rayon de convergence de la sĂ©rie de Taylor, et la racine se trouve hors de cette limite. La convergence globale n'est plus garantie. Ce cas peut ĂȘtre dĂ©tectĂ© par des estimations erratiques des diffĂ©rents ratios Rp/Rp+1. Un palliatif est de retenir seulement ceux liĂ©s Ă  un polynĂŽme de degrĂ© impair, ou de remplacer le dĂ©veloppement de Taylor par le numĂ©rateur d'un approximant de PadĂ© Ă©quivalent (Ă©tendant le domaine de convergence par la possibilitĂ© de prendre en compte un pĂŽle Ă  proximitĂ©).

- présence de racines complexes conjugués plus proche du point de départ des itérations que la racine réelle cherchée. Ce cas est détecté par l'oscillation des ratios Rp/Rp+1, et l'éventuelle convergence des ratios de la somme et du produit des plus faibles racines. Un contournement est de retenir comme premiÚre proposition R0/R1 (méthode de Newton), comme deuxiÚme proposition d'évaluer la plus grande racine du développement de Taylor d'ordre 3 (dont les deux plus petites racines seraient complexes conjugués, et la plus grande, la seule racine réelle). La troisiÚme proposition serait de calculer la 3e racine de plus petit module à l'aide des Rp déjà calculés, et de la méthode d'Aitken ou de l'epsilon algorithme. La proposition retenue pou xn+1 sera celle ayant la valeur de la fonction la plus proche de zéro.

L'usage de ce genre de méthode, d'ordre élevé, se justifie lorsque les dérivées d'ordre élevé sont de calcul simple, ou nécessite peu de calcul supplémentaire une fois les premiÚres dérivées calculées. Ceci se présente aussi lorsque la fonction vérifie une équation différentielle simple.

Exemples

  • Exemple 1: racine rĂ©elles d'un polynĂŽme

Estimation des racines du polynĂŽme , dont les racines sont: 1, 2, 9 et 10.

la récurrence pour la racine dominante est donc:

et la récurrence pour la racine dominée est:

les valeurs initiales sont: y0 = y1 = y2 = 0 et y3 = 1

Racine dominée Racine dominante
n yn Pn Qn λ4 S P yn Pn Qn λ1 S P
3 1 - - - - - 1 - - - - -
4 1,71111111111111 - - 0,58441558442 - - 22 - - 22 - -
5 2,100123456790 -1 - 0,81476691553 - - 335 -1 - 15,2272727273 - -
6 2,299347050754 -0,8277777778 -1,2941975309 0,91335644878 1,5634601044 0,8277777778 4400 -149 -2970 13,1343283582 19,9328859 149
7 2,399583005639 -0,4760802469 -0,7229595336 0,95822776097 1,5185665406 0,5751304996 53481 -15425 -297418 12,1547727273 19,2815559 103,52348993
8 2,449780333960 -0,2475763032 -0,3726329637 0,97950945739 1,5051237092 0,5200306141 620202 -1443865 -27548730 11,5966791945 19,0798516 93,605510535
9 2,474888814884 -0,1251034151 -0,1878229595 0,98985470346 1,5013415850 0,5053125581 6970675 -131328561 -2498053162 11,2393623368 19,0214005 90,956260454
10 2,487444246098 -0,0627225436 -0,0941050070 0,99495247733 1,5003378627 0,5013655589 76624900 -11851851129 -225250299450 10,9924648617 19,0054952 90,245800599
11 2,493722104011 -0,0313826501 -0,0470765736 0,99748253508 1,5000827961 0,5003408395 828512861 -1067393725825 -20281941389578 10,8125799968 19,0013684 90,061351109
12 2,496861049779 -0,0156939348 -0,0235412146 0,99874284323 1,5000199039 0,5000831586 8845504382 -96081412658825 -1825578864841048 10,6763633956 19,0003333 90,014968548
13 2,498430524631 -0,0078472805 -0,0117709577 0,99937181569 1,5000047187 0,5000199474 93498427815 -8647672122093568 -1,643064610E+017 10,5701635291 19,0000799 90,003590526
14 2,499215262285 -0,0039236773 -0,0058855203 0,99968600638 1,5000011070 0,5000047238 980374738200 -7,782978439E+017 -1,478767375E+019 10,4854676288 19,0000189 90,000850285

La convergence vers la racine dominĂ©e "1" est linĂ©aire mais relativement rapide: un chiffre exact est gagnĂ© toutes les deux ou trois itĂ©rations. Ce rythme s'explique par la racine la plus proche qui est le double de la racine dominĂ©e: l'erreur Ă©volue comme une suite gĂ©omĂ©trique de rapport 1/2. La convergence vers S et P (la somme et le produit des deux plus faibles racines) est meilleure, du fait que les racines suivantes sont significativement Ă©loignĂ©es. S et P convergent vers 1.5 et 0.5, dont l'inverse des racines de xÂČ-Sx+P sont 1 et 2.

La convergence vers la racine dominante "10" est nettement plus lente que la racine dominĂ©e: le ratio avec la racine la plus proche valant 0.9, l'erreur est vaguement est multipliĂ©e par cette valeur Ă  chaque itĂ©ration. La convergence de S et P vers la somme et le produit des deux plus grandes racines est nettement plus rapide, les deux racines suivantes Ă©tant significativement Ă©loignĂ©s. S et P convergent vers 19 et 90, dont les racines de xÂČ-Sx+P sont 9 et 10.

La convergence particuliĂšrement lente de la plus grande racine peut ĂȘtre accĂ©lĂ©rĂ©e par le ΔÂČ d'Aitken, par exemple. Voici le rĂ©sultat avec les donnĂ©es extraites du tableau prĂ©cĂ©dent :

AccĂ©lĂ©ration de la convergence de λ1 par le ΔÂČ
λ Delta-2 1 Delta-2 2 Delta-2 3
22
15,2272727273
13,1343283582 12,19829858457
12,1547727273 11,29296300957
11,5966791945 10,85766044827 10,45452212745
11,2393623368 10,60345511933 10,24662830085
10,9924648617 10,44040269890 10,14873793204 10,06162681301
10,8125799968 10,32970722817 10,09566977349 10,03283865839
10,6763633956 10,25145613172 10,06272590565 10,00879613272
10,5701635291 10,19442606828 10,04116170382 10,00029804399
10,4854676288 10,15188286476 10,02694729028 9,999456763456

La nouvelle estimation de la plus grande racine peut ĂȘtre utilisĂ© pour rĂ©initialiser une nouvelle suite de Bernoulli avec comme valeur initiales y0=1, y1=λ,y1=λÂČ ...yp-1=λp-1, qui convergera plus vite que la suit d'origine. Cette nouvelle suite pouvant Ă  nouveau ĂȘtre accĂ©lĂ©rĂ©e.

Le tableau suivant continue le procĂ©dĂ© prĂ©cĂ©dent, en gĂ©nĂ©rant 7 termes de la suite de Bernoulli en initialisant les valeurs initiales comme indiquĂ©. Le terme en gras est issu de l'application en cascade du ΔÂČ de cette suite, qui servira de germe pour la prochaine suite. L'accĂ©lĂ©ration de la convergence par rapport Ă  la suite originale est nettement amĂ©liorĂ©e.

itération de l'accélération de la suite précédente
Suite n°2 Suite n°3
9,99949585659666 10,0000000712436
9,99954277270112 10,0000000646106
9,99958773806757 10,000000058254
9,99962879690367 10,0000000524501
9,99966587396396 10,0000000472094
9,99969927030643 10,0000000424893
9,99972933388907 10,0000000382406
10,0000000767712 10,000000000001


La convergence vers la plus petite racine peut ĂȘtre accĂ©lĂ©rĂ©e par un dĂ©calage de l'origine. Par exemple, en s'arrĂȘtant Ă  la 7e itĂ©ration, une valeur approchĂ©e grossiĂšre de la racine est 0,95822776097. En dĂ©calant l'origine Ă  cette abscisse, le polynĂŽme dĂ©calĂ© devient:

en recommençant les itérations avec ce polynÎme, et en appliquant le décalage aux estimations trouvées par la méthode de Bernoulli, on trouve:

n yn λ4
3 1 -
4 25,1341952052522 0,998014195022212
5 602,884534091775 0,999917659754444
6 14433,807501309 0,999996679810777
7 345536,985274708 0,999999866753945
8 8271929,81501342 0,99999999465651
9 198024574,44086 0,999999999785737
10 4740578409,91793 0,999999999991409
11 113486337337,666 0,999999999999656
12 2716788469371,51 0,999999999999986
13 65038133756546,3 1

La convergence a Ă©tĂ© nettement accĂ©lĂ©rĂ©e. La nouvelle racine dominĂ©e Ă©tant de l'ordre de 0.05, et la racine la plus proche de l'ordre de 1, leur ratio est nettement plus petit que le ratio avant dĂ©calage, d'oĂč l'accĂ©lĂ©ration de la convergence. Ce procĂ©dĂ© peut ĂȘtre rĂ©pĂ©tĂ© en cumulant les dĂ©calages, dĂ©duites des nouvelles estimations de la racine dominĂ©e. Il est possible aussi de coupler le procĂ©dĂ© au ΔÂČ d'Aitken, en proposant comme dĂ©calage non pas l'estimation de Bernoulli mais celle du ΔÂČ.

  • Exemple 2: zĂ©ro d'une fonction non polynomiale

La fonction f(x)=x-2*sin(x)-2 possÚde une racine réelle voisine de 2.75. Ses dérivées successives se calculent à trÚs peu de frais, une fois évaluée S=2*sin(x) et C=2*cos(x), par:

Partant de x0=0, la présence de deux racines complexes conjugués à une distance d'environ 1.6 (donc plus proche de la racine réelle), devrait faire osciller les suites de Bernoulli. La détection de ces oscillations orientera le calcul vers l'estimation de λ3, à l'aide de la suite déjà calculée et de la méthode d'Aitken.

Zéro de la fonction f(x)=x-2sin(x)-x à l'aide de la méthode Rp d'ordre 8, en partant de x0=0
n xn a0.R0/R1 a0.R1/R2 a0.R2/R3 a0.R3/R4 a0.R4/R5 a0.R5/R6 a0.R6/R7 a0.R7/R8 a0.R8/R9 Description
0 0 -2 -2 6,00000000000002 -0,399999999999999 -1,21951219512195 -2,7032967032967 9,16546762589932 -0,222222222222222 -1,28154345227932 non convergence vers λ1
_ 2,35294117647059 1,85294117647059 3,95647615090906 2,32778993119059 2,80500672889401 2,86233149074198 2,62795658279164 recherche de λ3
1 2,80500672889401 -0,050029406074024 -0,050317307537598 -0,050332858595305 -0,050332971748262 -0,050332974623125 -0,050332974647328 -0,050332974647718 convergence vers λ1
2 2,75467375424629 0 0 0 0 0 0 0 convergence vers λ1
3 2,75467375424629 convergence atteinte

Les dĂ©rivĂ©es successives ont Ă©tĂ© calculĂ©es jusqu'Ă  l'ordre 7, reprĂ©sentant une mĂ©thode thĂ©oriquement d'ordre 8. Dans le cas d'une suspicion de non convergence, la suite de Bernoulli a Ă©tĂ© poussĂ©e jusqu'Ă  9, sans ajout des dĂ©rivĂ©es 8 et 9. À la suite de la dĂ©tection de non-convergence, et de suspicion de prĂ©sence de deux racines complexes conjuguĂ©es proches (λ1 et λ2), l'estimation de λ3 utilise la suite dĂ©jĂ  calculĂ©e et la mĂ©thode d'Aitken. L'itĂ©ration suivante converge sans encombre, la racine rĂ©elle Ă©tant cette fois nettement plus proche de x1 que les deux racines complexes. À noter que sur cet exemple, les mĂ©thodes de Newton et Halley gĂ©nĂšrent des itĂ©rations chaotiques, avant de converger aprĂšs respectivement 17 et 77 itĂ©rations.

Notes

  1. Daniel Bernoulli, « Observationes de seriebus recurrentibus », Commentarii Academiae Scientarium Imperialis Petropolitanae, Petropolis, vol. 3,‎ , p. 85-100
  2. J. H. Wilkinson, « The evaluation of zeros of ill-conditionned polynomials », Numerische Mathematik, vol. 1,‎ , p. 150-166
  3. Alexander Craig Aitken, « On Bernoulli’s Numerical Solution of Algebraic Equations », Proceedings of the Royal Society of Edinburgh, vol. 46,‎ , p. 289-305
  4. Henrici, Watkins, « Finding zeros of a polynomial by the Q-D algorithm », Communications of the ACM, vol. 8, issue 9,‎ , p. 570-574
  5. Herbert S. Wilf, « The numercical solution of polynomial equations », Mathematical methods for digital computers,‎ , p. 233-241
  6. E. Schröder, « Üeber unendlich viele Algorithmen zur Auflosung der Gleichungen », Mathematische Annalen,‎ , p. 317-365

Références

  • Emile Durand, Solutions numĂ©rique des Ă©quations algĂ©briques, Volume 1, Equations du type F(x)=0 , racines d'un polynĂŽme, Ă©ditions Masson, 1960.
  • Francis B Hildebrand, Introduction to numerical analysis, second edition, McGraw-Hill, Inc, 1956.

Voir aussi

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.