AccueilđŸ‡«đŸ‡·Chercher

Algorithme de recherche d'un zéro d'une fonction

Un algorithme de recherche d'un zĂ©ro d’une fonction est une mĂ©thode numĂ©rique ou un algorithme de recherche d’une valeur approchĂ©e d’un x vĂ©rifiant f(x) = 0, pour une fonction donnĂ©e f. Ici, x est un nombre rĂ©el appelĂ© zĂ©ro de f ou lorsque f est polynomiale, racine de f.

Lorsque x est un vecteur, les algorithmes pour trouver x tel que f(x) = 0 sont gĂ©nĂ©ralement appelĂ©s « algorithmes de rĂ©solution numĂ©rique d'un systĂšme d'Ă©quations ». Ces algorithmes sont une gĂ©nĂ©ralisation des algorithmes de recherche d’un zĂ©ro d’une fonction et peuvent s’appliquer Ă  des Ă©quations linĂ©aires ou non linĂ©aires. Certains algorithmes de recherche des zĂ©ros (comme la mĂ©thode de Newton) peuvent ĂȘtre gĂ©nĂ©ralisĂ©s Ă  la rĂ©solution numĂ©rique des systĂšmes d'Ă©quations non linĂ©aires.

Les algorithmes de recherche des zĂ©ros d’une fonction sont Ă©tudiĂ©s en analyse numĂ©rique.

Algorithmes spécifiques

Dichotomie

La mĂ©thode de dichotomie est l'algorithme le plus simple pour trouver des zĂ©ros d'une fonction continue : commencer avec deux points a et b qui encadrent un zĂ©ro de la fonction, et Ă  chaque itĂ©ration, choisir l’un des deux intervalles [a, c] ou [c, b], c = (a + b)⁄2 Ă©tant le milieu de a et b. L’algorithme repose sur le choix du sous-intervalle de [a, b] qui contient un zĂ©ro. Dans la plupart des cas, la mĂ©thode de dichotomie garantit la convergence vers un zĂ©ro lorsque la fonction est continue. Sa progression dans la recherche est plutĂŽt lente, puisque sa vitesse de convergence est linĂ©aire. Une des particularitĂ©s de cet algorithme est qu'il est possible de connaĂźtre Ă  l'avance le nombre d'itĂ©rations nĂ©cessaires pour dĂ©terminer la racine de l'Ă©quation avec la prĂ©cision souhaitĂ©e.

Newton-Raphson

La méthode de Newton, appelée aussi méthode de Newton-Raphson, suppose que f est de classe C1. On « linéarise » la fonction f en la valeur approchée courante du zéro, en utilisant la dérivée de la fonction. Cela donne la relation de récurrence :

La mĂ©thode de Newton peut ne pas converger si la valeur initiale est trop loin d’un zĂ©ro. Cependant, si elle converge, elle est beaucoup plus rapide que la mĂ©thode de dichotomie (sa vitesse de convergence est quadratique). Elle peut aisĂ©ment se gĂ©nĂ©raliser Ă  des problĂšmes en dimensions supĂ©rieures.

SĂ©cante

Si la dérivée de la fonction dans la méthode de Newton est remplacée par une différence finie, nous obtenons la méthode de la sécante. Elle utilise la relation récurrente :

.

Cette mĂ©thode ne requiert pas le calcul d’une dĂ©rivĂ©e, mais c’est au prix d’une vitesse de convergence plus lente que celle de Newton (de l’ordre de 1,618). Cependant, comme elle ne nĂ©cessite qu'une Ă©valuation de fonction par itĂ©ration, elle se rĂ©vĂšle en gĂ©nĂ©ral plus rapide que la mĂ©thode de Newton. Sa gĂ©nĂ©ralisation en dimension supĂ©rieure Ă  1 est la mĂ©thode de Broyden (en).

Regula falsi

La mĂ©thode de la fausse position, aussi appelĂ©e mĂ©thode de regula falsi, s’apparente Ă  la mĂ©thode de dichotomie. Cependant, elle ne coupe pas l’intervalle en deux parts Ă©gales Ă  chaque itĂ©ration, mais en un point donnĂ© par la formule de la mĂ©thode de la sĂ©cante. Cette mĂ©thode hĂ©rite de la robustesse de la mĂ©thode de dichotomie et de la complexitĂ© « super-linĂ©aire » de la mĂ©thode de la sĂ©cante.

MĂ©thode de Muller

La méthode de la sécante évalue la racine de la fonction f en l'approximant par interpolation linéaire. La méthode de Muller évalue la racine par interpolation quadratique à l'aide des trois derniers points calculés. Elle converge plus rapidement que la méthode de la sécante (ordre de convergence de 1,84). Elle nécessite l'évaluation d'une racine carrée à chaque itération. Une particularité de cette méthode est que le terme itéré xn peut devenir complexe.

Interpolation quadratique inverse

L'inconvĂ©nient de la mĂ©thode de MĂŒller peut ĂȘtre Ă©vitĂ© par l'interpolation de la bijection rĂ©ciproque de f, ce qui mĂšne Ă  la mĂ©thode de l'interpolation quadratique inverse. Encore une fois, la convergence est asymptotiquement plus rapide que la mĂ©thode de la sĂ©cante, mais elle se comporte souvent mal quand les itĂ©rĂ©s ne sont pas proches du zĂ©ro.

MĂ©thode de Brent

La mĂ©thode de Brent est une combinaison de la mĂ©thode de dichotomie, de la mĂ©thode de la sĂ©cante et de l’interpolation quadratique inverse. À chaque itĂ©ration, cette mĂ©thode dĂ©cide de laquelle de ces trois mĂ©thodes est susceptible d’approcher au mieux le zĂ©ro, et effectue une Ă©tape en utilisant cette mĂ©thode. Cela donne une mĂ©thode robuste et rapide, trĂšs populaire et trĂšs apprĂ©ciĂ©e.

Autres algorithmes

D’autres algorithmes de recherches de zĂ©ros sont :

  • mĂ©thode du point fixe : l'Ă©quation f(x) = 0 est reformulĂ©e sous la forme x = g(x) oĂč g est choisie de telle sorte que toute suite (xn) donnĂ©e par xn+1 = g(xn) converge vers un zĂ©ro de f.

Recherche des racines d’un polynîme

Une attention particuliĂšre a Ă©tĂ© donnĂ©e au cas particulier oĂč f est une fonction polynomiale. Bien sĂ»r, les mĂ©thodes dĂ©crites dans la section prĂ©cĂ©dente peuvent ĂȘtre utilisĂ©es. En particulier, il est facile de dĂ©terminer la dĂ©rivĂ©e d’un polynĂŽme, et la mĂ©thode de Newton est un trĂšs bon candidat. Mais il est possible de choisir une mĂ©thode qui exploite le fait que f est un polynĂŽme.

Une possibilitĂ© est de considĂ©rer la matrice compagnon associĂ©e au polynĂŽme. Sachant que les valeurs propres de cette matrice coĂŻncident avec les racines du polynĂŽme, on peut alors utiliser n’importe quel algorithme de recherche de valeur propre pour trouver des valeurs approchĂ©es des racines du polynĂŽme initial, par exemple la mĂ©thode de la puissance itĂ©rĂ©e.

Une autre possibilitĂ© est d’utiliser la mĂ©thode de Laguerre, qui sous certaines conditions converge Ă  coup sĂ»r vers l'une des racines (convergence globale). Sa vitesse de convergence est cubique pour les racines simples.

Si le polynĂŽme a des coefficients rationnels et si on recherche uniquement des racines rationnelles, alors la mĂ©thode de Ruffini peut ĂȘtre utilisĂ©e.

Dans tous les cas, le problĂšme de recherche de valeurs approchĂ©es de racines peut ĂȘtre mal conditionnĂ© comme le montrent les polynĂŽmes de Wilkinson (en).

Références

(en) Cet article est partiellement ou en totalitĂ© issu de l’article de WikipĂ©dia en anglais intitulĂ© « Root-finding algorithm » (voir la liste des auteurs).

Voir aussi

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.