MĂ©thode de Bernoulli
En analyse numérique, la méthode de Bernoulli est une méthode de calcul numérique de la racine de plus grand module d'un polynÎme, exposée par Daniel Bernoulli [1]. C'est une méthode itérative ne nécessitant aucune estimation préalable de la racine, qui sous certaines conditions, est globalement convergente.
Présentation
Soit le polynĂŽme:
dont les racines λk sont telles que |λ1|> |λ2|â„...â„|λp|
la méthode de Bernoulli génÚre la suite yn définie par les termes initiaux y0, y1...yp-1 arbitraires, non tous nuls. Les termes suivants sont générés par récurrence:
Le rapport des termes consécutifs yn+1/yn converge, sous certaines conditions, vers λ1, la racine "dominante" du polynÎme P(x).
Cette mĂ©thode peut ĂȘtre rattachĂ©e Ă celle de la puissance itĂ©rĂ©e pour estimer les valeurs propres des matrices, en l'appliquant Ă la matrice compagnon du polynĂŽme.
Propriétés
la suite
est une suite récurrente linéaire à coefficients constants, dont la solution analytique est connue, et peut s'exprimer par:
oĂč les λi sont les m racines du polynĂŽme
et ki la multiplicitĂ© de la racine λi (avec k1+k2+..+km=p le degrĂ© du polynĂŽme). Les ci,j sont des coefficients arbitraires, qui peuvent ĂȘtre dĂ©terminĂ©s grĂące aux termes initiaux de la suite y0, y1...yp-1.
Les racines ayant été numérotées suivant leur module décroissant. Si le polynÎme possÚde une racine dominante λ1 unique, c'est-à -dire tel que , la suite yn se comporte asymptotiquement comme:
Le rapport de deux termes consécutifs se comporte asymptotiquement comme:
et converge vers la racine dominante simple λ1.La convergence est linéaire et dépend du ratio entre les 2 racines dominantes (la convergence sera d'autant plus rapide que λ1 sera grand par rapport à λ2). Si, par un choix particulier de valeurs initiales y0, y1...yp-1, le coefficient c1,0 serait égal à 0, le ratio des yn convergera vers λ2.
Lorsque la racine dominante est de multiplicité k1, le comportement asymptotique est
Les ki' sont au plus égaux à la multiplicité de la iéme racine (inférieur si certains ci,ki sont nuls). Dans ce cas, le rapport de deux termes consécutifs se comporte asymptotiquement comme:
et la convergence vers λ1 est en gĂ©nĂ©ral logarithmique, sauf au cas oĂč c1,1, c1,2, etc. c1,k1=0 et c1,0â 0, oĂč elle est linĂ©aire. Un certain choix judicieux de valeurs initiales y0, y1...yp-1 permet d'obtenir ce comportement.
La convergence étant généralement assurée quel que soit les termes initiaux choisit qualifie la méthode de globalement convergente, et rend cette méthode quasiment insensible aux propagations d'erreur (équivalant à un léger changement des valeurs initiales).
Variantes
Choix des valeurs initiales
Le choix le plus simple, y0 = y1...yp-2 = 0 et yp-1=1 garanti un coefficient c1,0 non nul, donc une convergence vers la racine dominante.
Si une estimation de la racine dominante λ est disponible, l'initialisation y0=1; y1=λ; y2=λÂČ...yp-1=λp-1 permet d'amĂ©liorer la convergence en diminuant les valeurs des coefficients ci,k par rapport Ă c1,0.
Le choix:
âŠ
gĂ©nĂšre la suite yn de la somme des racines Ă©levĂ© Ă la puissance n+1, d'aprĂšs les identitĂ©s de Newton Girard. Avec ces valeurs initiales, la suite du rapport de deux termes consĂ©cutifs converge linĂ©airement vers la racine dominante, mĂȘme dans le cas d'une racine multiple.
Racines complexes ou de mĂȘme module
Pour les polynĂŽmes Ă coefficients rĂ©els, si les termes initiaux de la suite sont aussi rĂ©els, la suite gĂ©nĂ©rĂ©e ne peut quitter l'axe des rĂ©els. Au cas oĂč la racine dominante est un couple de racines complexes conjuguĂ©s, la suite des ratios successifs oscillent sans converger. Dans ce cas, les suites auxiliaires:
vérifient:
oĂč les deux racines dominantes complexes conjuguĂ©s sont racines de:
Cette variante s'applique aussi dans le cas de racines dominantes rĂ©elles. Lorsque les deux racines dominantes forment un couple isolĂ© des autres, la convergence peut ĂȘtre plus rapide vers S et P que le vers la racine dominante seule. Les mĂȘmes remarques s'appliquent lorsque la racine dominante est double.
Racine de plus petit module
La racine de plus petit module de P(x) est l'inverse de la racine de plus grand module de xp.P(1/x), obtenu en reversant l'ordre des coefficients:
En appliquant la méthode de Bernoulli avec les coefficients du polynÎme d'origine écrit à rebours,
le ratio des termes consĂ©cutifs de la suite converge vers 1/λp, inverse de la racine de plus petit module. Ainsi, toutes les propriĂ©tĂ©s et mĂ©thodes spĂ©cifiques aux racines dominantes peuvent se transcrire aux racines de plus faible module. En cas de racine multiple ou complexe conjuguĂ©, les mĂȘmes procĂ©dĂ©s que pour les racines dominantes s'appliquent.
Racines intermédiaires
- DĂ©flation du polynĂŽme
Une fois dĂ©terminĂ©e avec suffisamment de prĂ©cision la racine de plus grand module, la division du polynĂŽme de dĂ©part par (x-λ1) Ă l'aide du schĂ©ma de Horner, permet d'obtenir un polynĂŽme de degrĂ© n-1 avec les racines restantes Ă dĂ©terminer. La mĂ©thode de Bernoulli peut ĂȘtre appliquĂ©e Ă ce polynĂŽme rĂ©duit, pour de proche en proche, dĂ©terminer toutes les racines. De la mĂȘme maniĂšre, il est possible de retirer la racine de plus petit module, par la mĂ©thode de Bernoulli avec les coefficients Ă©crits Ă rebours. En cas de racines dominantes complexes conjuguĂ©es, une dĂ©clinaison du schĂ©ma de Horner permet de retirer les deux racines simultanĂ©ment en divisant le polynĂŽme par xÂČ-Sx+P. Avec ce type de procĂ©dĂ©, les polynĂŽmes successifs peuvent avoir des racines lĂ©gĂšrement diffĂ©rentes du polynĂŽme initial, Ă la suite de propagations d'erreur d'arrondi. Afin de limiter au mieux cette propagation d'erreur, il est conseillĂ©[2] de supprimer les racines par ordre croissant des modules. Il est aussi conseillĂ© de garder en mĂ©moire le polynĂŽme d'origine afin d'affiner les racines par un autre procĂ©dĂ©.
- Détermination de toutes les racines simultanément
Certains algorithmes complĂ©mentaires permettent, en se basant sur la suite yn gĂ©nĂ©rĂ©e par la mĂ©thode de Bernoulli, d'estimer toutes les racines du polynĂŽme simultanĂ©ment. Parmi ces mĂ©thodes, figure celle d'A. Aitken [3] , l'algorithme q-d de H.Rutishauser[4] ou l'Δ-algorithme de P. Wynn. Contrairement Ă la mĂ©thode de Bernoulli, ces mĂ©thodes complĂ©mentaires sont trĂšs sensibles Ă la propagation des erreurs d'arrondi, et sauf prĂ©cautions particuliĂšres, la prĂ©cision obtenue pour certaines racines peut ĂȘtre mĂ©diocre. Pour limiter les instabilitĂ©s numĂ©riques de ces mĂ©thodes, il est souhaitable de dĂ©terminer les plus grandes racines en partant de la variante de Bernoulli convergeant vers la racine dominante, et de dĂ©terminer les plus petites racines Ă l'aide de la variante convergeant vers la racine de plus petit module. Les valeurs trouvĂ©es pourront servir de premiĂšres estimations pour des algorithmes de rĂ©solution nĂ©cessitant des estimations de toutes les racines simultanĂ©ment (MĂ©thode de Durand-Kerner (en)).
Par exemple, la méthode d'Aitken consiste à déduire de la suite yk, générée par la méthode de Bernoulli, des suites associées, dont les ratios convergent vers le produit des m plus grandes racines du polynÎme:
vérifient:
d'oĂč
- Des variantes permettent de prendre en charge les racines complexes.
Mise en Ćuvre calculatoire
Les principaux points de vigilance de la méthode de Bernoulli sont les risques de dépassement de capacité des nombres en virgule flottant lors de la génération de la suite, et la lenteur de convergence du procédé.
Gestion des limitations des nombres flottants
La suite générée par la méthode de Bernoulli tend à suivre une progression géométrique dont la raison est la plus grande (ou la plus petite) des racines du polynÎme. Si la valeur de cette racine est élevée, la suite générée peut rapidement dépasser la capacité des nombres en virgule flottante utilisés (overflow ou underflow). Afin d'éviter cet écueil, il existe plusieurs stratégies.
- normalisation des racines du polynĂŽme
Il existe plusieurs formules permettant d'estimer la dimension de la plus grande (ou plus petite) racine du polynĂŽme, Ă l'aide des coefficients (entre autres, les premiers termes de la mĂ©thode de Bernoulli). Une fois cette estimation, λmax, connue, un changement de variable z=x/|λmax| permet de ramener la plus grande racine Ă une valeur voisine de l'unitĂ©. Pour Ă©viter la propagation des erreurs de calcul lors de ce changement de variable, la valeur de λmax pourra ĂȘtre remplacĂ©e par la puissance de 2 la plus proche. De mĂȘme, pour Ă©viter que les produits intermĂ©diaires lors du calcul de la suite de Bernoulli gĂ©nĂšrent des dĂ©passements de capacitĂ©, une normalisation de tous les coefficients par une puissance de 2 adĂ©quate est Ă envisager, une fois le changement de variable effectuĂ©. Les coefficients d'origine seront Ă conserver comme rĂ©fĂ©rence.
- rectification périodique de la suite générée
Lors du calcul de la suite des yn+p, une vĂ©rification peut ĂȘtre faite en cas de risque prochain de dĂ©passement de capacitĂ© (le ratio de deux termes consĂ©cutifs donnant la raison de la suite gĂ©omĂ©trique, une estimation du terme suivant est aisĂ©e). En cas de dĂ©passement de capacitĂ© proche, une division des p derniers termes de la suite par une puissance de 2 adĂ©quate permet de repartir avec des termes loin du dĂ©passement de capacitĂ©. La convergence de la suite n'est pas altĂ©rĂ©e par ce procĂ©dĂ©, car seuls les ratios interviennent dans l'estimation des racines.
- utilisation de la suite des ratios consécutifs
Seuls les ratios de termes yn+p sont d'intĂ©rĂȘt pratique, et non les termes individuellement. Une reformulation[5] permet de calculer directement le ratio Ă l'aide d'une relation de rĂ©currence. Ces ratios convergent directement vers la valeur des racines, Ă©vitant les risques de dĂ©passement de capacitĂ©.
En introduisant zm=ym-1/ym, la relation de récurrence de Bernoulli devient:
La suite des zm se calculent facilement Ă partir de la fin, en emboĂźtant les multiplications Ă la maniĂšre de Horner.
Les zm initiaux correspondant Ă y0 = y1...yp-2 = 0 et yp-1=1 sont z1 = z2...zp-1 = 1 et Zp=0
ceux correspondant aux identités de Newton Girard sont:
âŠ
Les estimations de la racine dominante se déduisent de la définition de zm :
- OĂč S et P sont la somme et le produit des deux racines dominantes. La mĂȘme mĂ©thode, en renversant l'ordre des coefficients, peut ĂȘtre utilisĂ©e pour calculer l'inverse de la ou des racine(s) de plus petit module.
Accélération de la convergence
La mĂ©thode de Bernoulli converge typiquement de maniĂšre linĂ©aire vers la racine cherchĂ©e, il est utile d'accĂ©lĂ©rer ce procĂ©dĂ©. Plusieurs mĂ©thodes peuvent ĂȘtre mises en Ćuvre:
- utilisation d'algorithme d'accélération
Plusieurs algorithmes d'accĂ©lĂ©ration de la convergence sont aptes Ă accĂ©lĂ©rer la convergence de la mĂ©thode de Bernoulli. Parmi ceux-ci certains sont particuliĂšrement adaptĂ©s au vu de la forme du terme d'erreur de la mĂ©thode: le Delta-2 d'Aitken, et l'Δ-algorithme. Le but de ces algorithmes est d'accĂ©lĂ©rer la convergence de la suite yn/yn-1 ou zn. Chaque utilisation d'un des deux algorithmes supprime le plus grand des termes du ratio des deux racines dominantes non encore supprimĂ©s. La rĂ©pĂ©tition de l'utilisation de ces algorithmes permet d'obtenir une suite Ă convergence linĂ©aire, mais avec un terme d'erreur de plus en plus petit. Les termes consĂ©cutifs de la suite de Bernoulli utilisĂ©s pour accĂ©lĂ©rer la convergence ne doivent pas subir de transformation (dĂ©calage du zĂ©ro, rectification pĂ©riodique) sur la plage utilisĂ©e pour l'accĂ©lĂ©ration. Il est en revanche possible ensuite de rĂ©initialiser la suite de Bernoulli Ă l'aide du rĂ©sultat obtenu par l'accĂ©lĂ©ration de la convergence. En prenant comme valeur initiale y0=1, y1=λ,y1=λÂČ ...yp-1=λp-1, oĂč λ est l'estimation de λ1 trouvĂ© par l'accĂ©lĂ©rateur, la nouvelle suite gĂ©nĂ©rĂ©e converge plus rapidement que l'originale. Ceci est dĂ» Ă la modification des coefficients ci,k induit par le changement de valeur initiales, qui tendent vers les coefficients idĂ©aux pour la convergence (ci,k=0 sauf c1,0).
- décalage de l'origine
Le coefficient de linĂ©aritĂ© de la convergence est proportionnel au rapport de la racine cherchĂ©e avec celle la plus proche. Si les deux racines dominantes sont voisines, la convergence sera d'autant plus lente. Lorsque la mĂ©thode est employĂ©e pour chercher la racine de plus faible module, une technique permet d'augmenter le rythme de convergence: le dĂ©calage de l'origine. En supposant que l'algorithme fournit Ă un certain stade une approximation grossiĂšre de la racine de plus petit module, le fait de dĂ©caler l'origine Ă cette valeur permet de diminuer le ratio entre les deux plus petites racines, et donc d'augmenter le rythme de convergence de l'algorithme par la suite. Ce dĂ©calage peut ĂȘtre renouvelĂ© par la suite pour accĂ©lĂ©rer davantage la convergence. Le dĂ©calage systĂ©matique de l'origine toutes les p itĂ©rations permet d'obtenir une convergence d'ordre p. Le cumul des dĂ©calages successifs doit ĂȘtre additionnĂ© pour dĂ©terminer la racine du polynĂŽme d'origine. Les coefficients du polynĂŽme avec le dĂ©calage d'origine est obtenu Ă l'aide du schĂ©mas d'Horner emboĂźtĂ©.
- bascule avec une autre méthode
Le principal intĂ©rĂȘt de la mĂ©thode de Bernoulli est de fournir une estimation d'une des racines du polynĂŽme, sans estimation prĂ©alable. LâinconvĂ©nient est sa convergence seulement linĂ©aire. D'autres mĂ©thodes, Ă l'inverse, ont une convergence rapide (typiquement d'ordre deux), mais nĂ©cessitent une bonne estimation de dĂ©part, sous peines de diverger ou entrer dans des cycles itĂ©ratifs. La combinaison de la mĂ©thode de Bernoulli, pour fournir une valeur approchĂ©e d'une racine, avec une mĂ©thode Ă convergence rapide, pour polir cette estimation, est complĂ©mentaire. Parmi les mĂ©thodes Ă associer, figure celle de Newton ou Birge-Vieta, Bairstow (en) ou Laguerre.
Extension Ă des fonctions non polynomiales
La mĂ©thode de Bernoulli est basĂ©e sur les propriĂ©tĂ©s des polynĂŽmes, et leur lien avec les suites rĂ©currentes linĂ©aires. Mais il est possible d'Ă©tendre la mĂ©thode Ă des fonctions autres que polynomiales, en les approximant localement par un polynĂŽme. Dans ce cas, la mĂ©thode recherchant la racine de plus petit module s'avĂšre intĂ©ressante. La technique du dĂ©calage systĂ©matique de l'origine pourra ĂȘtre mise en Ćuvre pour obtenir des mĂ©thodes d'ordre quelconque; celui-ci prenant dans ce cas la forme d'une mĂ©thode de point fixe classique.
Si les dĂ©rivĂ©es successives de la fonction f(x) sont connues jusqu'Ă un certain ordre, il sera possible de remplacer la fonction par son dĂ©veloppement de Taylor autour du point oĂč la fonction est susceptible d'avoir un zĂ©ro. Il est aussi possible de remplacer le dĂ©veloppement de Taylor par un des approximant de PadĂ© correspondant, en cherchant la racine du numĂ©rateur par la mĂ©thode de Bernoulli.
Soit à résoudre l'équation f(x)=0, et soit x0 une valeur estimée proche de la racine cherchée. Le but est de trouver une suite de valeur xn convergeant vers la racine de f(x). Les dérivées successives de f(x) jusqu'à l'ordre p, sont calculées en xn, et avec les notations:
La fonction peut ĂȘtre approximĂ©e localement par son dĂ©veloppement de Taylor, autour de xn :
L'approximation suivante xn+1 est déterminée en appliquant la méthode de Bernoulli sur l'équation polynomiale en h, en recherchant la racine de plus petit module, puis xn+1 = xn +h.
Avec l'utilisation systématique du décalage d'abscisse, la méthode de Bernoulli classique risque de rencontrer des difficultés de calcul, à cause du coefficient constant du polynÎme devenant trÚs petit. Pour éviter cela, un changement de variable est opéré: Rk=a0k.yk.
âŠ
L'itération de la fonction se calcule par: La méthode est d'ordre p+1 pour les fonctions Cp+1, mais chute à l'ordre 1 pour des racines multiples. La premiÚre formule obtenue est celle de Newton Raphson. La formule suivante, s'écrit en l'explicitant: , est attribuée à Halley. Elle est d'ordre 3 pour les racine simples, et d'ordre 1 pour les racines multiples.
Il est possible d'exprimer directement les ratio Rp-1/Rp=wp Ă l'aide de:
avec
Les wk peuvent se calculer par la boucle suivante:
FOR k=1 TO p
temp=a(k)
FOR i=1 TO k-1
temp=temp*a(0)*w(i)+a(k-i)
NEXT i
w(k)=-1/temp
NEXT k
Avec l'initialisation par les identités de Newton Girard, en changeant la notation Rk en Tk :
âŠ
L'itération de la fonction se calcule par: La méthode est d'ordre p pour les fonctions Cp+1, et reste d'ordre p pour des racines multiples. Pour p=2, on obtient:
, attribuĂ©e Ă Schröder[6], d'ordre 2, mĂȘme pour les racines multiples.
Le fait de prolonger la suite de Bernoulli au delĂ de p, dĂ©rivĂ©e la plus Ă©levĂ©e disponible, n'augmente pas l'ordre de convergence de la mĂ©thode, mais modifie Ă la marge le domaine de convergence de la mĂ©thode. La suite de Bernoulli convergeant vers la racine du polynĂŽme d'approximation, et non la racine de la fonction elle-mĂȘme. Cette prolongation peut ĂȘtre envisagĂ©e lorsque les ratios Rp/Rp+1 convergent lentement ou oscillent, a des fins de diagnostic sur les cas de divergence, ou d'extension du domaine de convergence. De mĂȘme, utiliser les mĂ©thodes d'accĂ©lĂ©ration, type Delta-2 dans ces cas de figure, peut sâavĂ©rer utile pour stabiliser les convergences oscillantes.
La convergence globale dont bénéficie la méthode de Bernoulli sur les polynÎmes ne se généralise pas avec la version non polynomiale. Les causes pouvant générer des limitations de domaine de convergence sont:
- prĂ©sence d'un pĂŽle dans un rayon plus proche que celui de la racine cherchĂ©e, par rapport au point de dĂ©part de l'itĂ©ration. Le pĂŽle limite le rayon de convergence de la sĂ©rie de Taylor, et la racine se trouve hors de cette limite. La convergence globale n'est plus garantie. Ce cas peut ĂȘtre dĂ©tectĂ© par des estimations erratiques des diffĂ©rents ratios Rp/Rp+1. Un palliatif est de retenir seulement ceux liĂ©s Ă un polynĂŽme de degrĂ© impair, ou de remplacer le dĂ©veloppement de Taylor par le numĂ©rateur d'un approximant de PadĂ© Ă©quivalent (Ă©tendant le domaine de convergence par la possibilitĂ© de prendre en compte un pĂŽle Ă proximitĂ©).
- présence de racines complexes conjugués plus proche du point de départ des itérations que la racine réelle cherchée. Ce cas est détecté par l'oscillation des ratios Rp/Rp+1, et l'éventuelle convergence des ratios de la somme et du produit des plus faibles racines. Un contournement est de retenir comme premiÚre proposition R0/R1 (méthode de Newton), comme deuxiÚme proposition d'évaluer la plus grande racine du développement de Taylor d'ordre 3 (dont les deux plus petites racines seraient complexes conjugués, et la plus grande, la seule racine réelle). La troisiÚme proposition serait de calculer la 3e racine de plus petit module à l'aide des Rp déjà calculés, et de la méthode d'Aitken ou de l'epsilon algorithme. La proposition retenue pou xn+1 sera celle ayant la valeur de la fonction la plus proche de zéro.
L'usage de ce genre de méthode, d'ordre élevé, se justifie lorsque les dérivées d'ordre élevé sont de calcul simple, ou nécessite peu de calcul supplémentaire une fois les premiÚres dérivées calculées. Ceci se présente aussi lorsque la fonction vérifie une équation différentielle simple.
Exemples
- Exemple 1: racine réelles d'un polynÎme
Estimation des racines du polynĂŽme , dont les racines sont: 1, 2, 9 et 10.
la récurrence pour la racine dominante est donc:
et la récurrence pour la racine dominée est:
les valeurs initiales sont: y0 = y1 = y2 = 0 et y3 = 1
Racine dominée | Racine dominante | |||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|
n | yn | Pn | Qn | λ4 | S | P | yn | Pn | Qn | λ1 | S | P |
3 | 1 | - | - | - | - | - | 1 | - | - | - | - | - |
4 | 1,71111111111111 | - | - | 0,58441558442 | - | - | 22 | - | - | 22 | - | - |
5 | 2,100123456790 | -1 | - | 0,81476691553 | - | - | 335 | -1 | - | 15,2272727273 | - | - |
6 | 2,299347050754 | -0,8277777778 | -1,2941975309 | 0,91335644878 | 1,5634601044 | 0,8277777778 | 4400 | -149 | -2970 | 13,1343283582 | 19,9328859 | 149 |
7 | 2,399583005639 | -0,4760802469 | -0,7229595336 | 0,95822776097 | 1,5185665406 | 0,5751304996 | 53481 | -15425 | -297418 | 12,1547727273 | 19,2815559 | 103,52348993 |
8 | 2,449780333960 | -0,2475763032 | -0,3726329637 | 0,97950945739 | 1,5051237092 | 0,5200306141 | 620202 | -1443865 | -27548730 | 11,5966791945 | 19,0798516 | 93,605510535 |
9 | 2,474888814884 | -0,1251034151 | -0,1878229595 | 0,98985470346 | 1,5013415850 | 0,5053125581 | 6970675 | -131328561 | -2498053162 | 11,2393623368 | 19,0214005 | 90,956260454 |
10 | 2,487444246098 | -0,0627225436 | -0,0941050070 | 0,99495247733 | 1,5003378627 | 0,5013655589 | 76624900 | -11851851129 | -225250299450 | 10,9924648617 | 19,0054952 | 90,245800599 |
11 | 2,493722104011 | -0,0313826501 | -0,0470765736 | 0,99748253508 | 1,5000827961 | 0,5003408395 | 828512861 | -1067393725825 | -20281941389578 | 10,8125799968 | 19,0013684 | 90,061351109 |
12 | 2,496861049779 | -0,0156939348 | -0,0235412146 | 0,99874284323 | 1,5000199039 | 0,5000831586 | 8845504382 | -96081412658825 | -1825578864841048 | 10,6763633956 | 19,0003333 | 90,014968548 |
13 | 2,498430524631 | -0,0078472805 | -0,0117709577 | 0,99937181569 | 1,5000047187 | 0,5000199474 | 93498427815 | -8647672122093568 | -1,643064610E+017 | 10,5701635291 | 19,0000799 | 90,003590526 |
14 | 2,499215262285 | -0,0039236773 | -0,0058855203 | 0,99968600638 | 1,5000011070 | 0,5000047238 | 980374738200 | -7,782978439E+017 | -1,478767375E+019 | 10,4854676288 | 19,0000189 | 90,000850285 |
La convergence vers la racine dominĂ©e "1" est linĂ©aire mais relativement rapide: un chiffre exact est gagnĂ© toutes les deux ou trois itĂ©rations. Ce rythme s'explique par la racine la plus proche qui est le double de la racine dominĂ©e: l'erreur Ă©volue comme une suite gĂ©omĂ©trique de rapport 1/2. La convergence vers S et P (la somme et le produit des deux plus faibles racines) est meilleure, du fait que les racines suivantes sont significativement Ă©loignĂ©es. S et P convergent vers 1.5 et 0.5, dont l'inverse des racines de xÂČ-Sx+P sont 1 et 2.
La convergence vers la racine dominante "10" est nettement plus lente que la racine dominĂ©e: le ratio avec la racine la plus proche valant 0.9, l'erreur est vaguement est multipliĂ©e par cette valeur Ă chaque itĂ©ration. La convergence de S et P vers la somme et le produit des deux plus grandes racines est nettement plus rapide, les deux racines suivantes Ă©tant significativement Ă©loignĂ©s. S et P convergent vers 19 et 90, dont les racines de xÂČ-Sx+P sont 9 et 10.
La convergence particuliĂšrement lente de la plus grande racine peut ĂȘtre accĂ©lĂ©rĂ©e par le ÎÂČ d'Aitken, par exemple. Voici le rĂ©sultat avec les donnĂ©es extraites du tableau prĂ©cĂ©dent :
λ | Delta-2 1 | Delta-2 2 | Delta-2 3 |
---|---|---|---|
22 | |||
15,2272727273 | |||
13,1343283582 | 12,19829858457 | ||
12,1547727273 | 11,29296300957 | ||
11,5966791945 | 10,85766044827 | 10,45452212745 | |
11,2393623368 | 10,60345511933 | 10,24662830085 | |
10,9924648617 | 10,44040269890 | 10,14873793204 | 10,06162681301 |
10,8125799968 | 10,32970722817 | 10,09566977349 | 10,03283865839 |
10,6763633956 | 10,25145613172 | 10,06272590565 | 10,00879613272 |
10,5701635291 | 10,19442606828 | 10,04116170382 | 10,00029804399 |
10,4854676288 | 10,15188286476 | 10,02694729028 | 9,999456763456 |
La nouvelle estimation de la plus grande racine peut ĂȘtre utilisĂ© pour rĂ©initialiser une nouvelle suite de Bernoulli avec comme valeur initiales y0=1, y1=λ,y1=λÂČ ...yp-1=λp-1, qui convergera plus vite que la suit d'origine. Cette nouvelle suite pouvant Ă nouveau ĂȘtre accĂ©lĂ©rĂ©e.
Le tableau suivant continue le procĂ©dĂ© prĂ©cĂ©dent, en gĂ©nĂ©rant 7 termes de la suite de Bernoulli en initialisant les valeurs initiales comme indiquĂ©. Le terme en gras est issu de l'application en cascade du ÎÂČ de cette suite, qui servira de germe pour la prochaine suite. L'accĂ©lĂ©ration de la convergence par rapport Ă la suite originale est nettement amĂ©liorĂ©e.
Suite n°2 | Suite n°3 |
---|---|
9,99949585659666 | 10,0000000712436 |
9,99954277270112 | 10,0000000646106 |
9,99958773806757 | 10,000000058254 |
9,99962879690367 | 10,0000000524501 |
9,99966587396396 | 10,0000000472094 |
9,99969927030643 | 10,0000000424893 |
9,99972933388907 | 10,0000000382406 |
10,0000000767712 | 10,000000000001 |
La convergence vers la plus petite racine peut ĂȘtre accĂ©lĂ©rĂ©e par un dĂ©calage de l'origine. Par exemple, en s'arrĂȘtant Ă la 7e itĂ©ration, une valeur approchĂ©e grossiĂšre de la racine est 0,95822776097. En dĂ©calant l'origine Ă cette abscisse, le polynĂŽme dĂ©calĂ© devient:
en recommençant les itérations avec ce polynÎme, et en appliquant le décalage aux estimations trouvées par la méthode de Bernoulli, on trouve:
n | yn | λ4 |
---|---|---|
3 | 1 | - |
4 | 25,1341952052522 | 0,998014195022212 |
5 | 602,884534091775 | 0,999917659754444 |
6 | 14433,807501309 | 0,999996679810777 |
7 | 345536,985274708 | 0,999999866753945 |
8 | 8271929,81501342 | 0,99999999465651 |
9 | 198024574,44086 | 0,999999999785737 |
10 | 4740578409,91793 | 0,999999999991409 |
11 | 113486337337,666 | 0,999999999999656 |
12 | 2716788469371,51 | 0,999999999999986 |
13 | 65038133756546,3 | 1 |
La convergence a Ă©tĂ© nettement accĂ©lĂ©rĂ©e. La nouvelle racine dominĂ©e Ă©tant de l'ordre de 0.05, et la racine la plus proche de l'ordre de 1, leur ratio est nettement plus petit que le ratio avant dĂ©calage, d'oĂč l'accĂ©lĂ©ration de la convergence. Ce procĂ©dĂ© peut ĂȘtre rĂ©pĂ©tĂ© en cumulant les dĂ©calages, dĂ©duites des nouvelles estimations de la racine dominĂ©e. Il est possible aussi de coupler le procĂ©dĂ© au ÎÂČ d'Aitken, en proposant comme dĂ©calage non pas l'estimation de Bernoulli mais celle du ÎÂČ.
- Exemple 2: zéro d'une fonction non polynomiale
La fonction f(x)=x-2*sin(x)-2 possÚde une racine réelle voisine de 2.75. Ses dérivées successives se calculent à trÚs peu de frais, une fois évaluée S=2*sin(x) et C=2*cos(x), par:
Partant de x0=0, la présence de deux racines complexes conjugués à une distance d'environ 1.6 (donc plus proche de la racine réelle), devrait faire osciller les suites de Bernoulli. La détection de ces oscillations orientera le calcul vers l'estimation de λ3, à l'aide de la suite déjà calculée et de la méthode d'Aitken.
n | xn | a0.R0/R1 | a0.R1/R2 | a0.R2/R3 | a0.R3/R4 | a0.R4/R5 | a0.R5/R6 | a0.R6/R7 | a0.R7/R8 | a0.R8/R9 | Description |
---|---|---|---|---|---|---|---|---|---|---|---|
0 | 0 | -2 | -2 | 6,00000000000002 | -0,399999999999999 | -1,21951219512195 | -2,7032967032967 | 9,16546762589932 | -0,222222222222222 | -1,28154345227932 | non convergence vers λ1 |
_ | 2,35294117647059 | 1,85294117647059 | 3,95647615090906 | 2,32778993119059 | 2,80500672889401 | 2,86233149074198 | 2,62795658279164 | recherche de λ3 | |||
1 | 2,80500672889401 | -0,050029406074024 | -0,050317307537598 | -0,050332858595305 | -0,050332971748262 | -0,050332974623125 | -0,050332974647328 | -0,050332974647718 | convergence vers λ1 | ||
2 | 2,75467375424629 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | convergence vers λ1 | ||
3 | 2,75467375424629 | convergence atteinte |
Les dérivées successives ont été calculées jusqu'à l'ordre 7, représentant une méthode théoriquement d'ordre 8. Dans le cas d'une suspicion de non convergence, la suite de Bernoulli a été poussée jusqu'à 9, sans ajout des dérivées 8 et 9. à la suite de la détection de non-convergence, et de suspicion de présence de deux racines complexes conjuguées proches (λ1 et λ2), l'estimation de λ3 utilise la suite déjà calculée et la méthode d'Aitken. L'itération suivante converge sans encombre, la racine réelle étant cette fois nettement plus proche de x1 que les deux racines complexes. à noter que sur cet exemple, les méthodes de Newton et Halley génÚrent des itérations chaotiques, avant de converger aprÚs respectivement 17 et 77 itérations.
Notes
- Daniel Bernoulli, « Observationes de seriebus recurrentibus », Commentarii Academiae Scientarium Imperialis Petropolitanae, Petropolis, vol. 3,â , p. 85-100
- J. H. Wilkinson, « The evaluation of zeros of ill-conditionned polynomials », Numerische Mathematik, vol. 1,â , p. 150-166
- Alexander Craig Aitken, « On Bernoulliâs Numerical Solution of Algebraic Equations », Proceedings of the Royal Society of Edinburgh, vol. 46,â , p. 289-305
- Henrici, Watkins, « Finding zeros of a polynomial by the Q-D algorithm », Communications of the ACM, vol. 8, issue 9,â , p. 570-574
- Herbert S. Wilf, « The numercical solution of polynomial equations », Mathematical methods for digital computers,â , p. 233-241
- E. Schröder, « Ăeber unendlich viele Algorithmen zur Auflosung der Gleichungen », Mathematische Annalen,â , p. 317-365
Références
- Emile Durand, Solutions numérique des équations algébriques, Volume 1, Equations du type F(x)=0 , racines d'un polynÎme, éditions Masson, 1960.
- Francis B Hildebrand, Introduction to numerical analysis, second edition, McGraw-Hill, Inc, 1956.