Algorithme de recherche d'un zéro d'une fonction
Un algorithme de recherche d'un zĂ©ro dâune fonction est une mĂ©thode numĂ©rique ou un algorithme de recherche dâune valeur approchĂ©e dâun x vĂ©rifiant f(x) = 0, pour une fonction donnĂ©e f. Ici, x est un nombre rĂ©el appelĂ© zĂ©ro de f ou lorsque f est polynomiale, racine de f.
Lorsque x est un vecteur, les algorithmes pour trouver x tel que f(x) = 0 sont gĂ©nĂ©ralement appelĂ©s « algorithmes de rĂ©solution numĂ©rique d'un systĂšme d'Ă©quations ». Ces algorithmes sont une gĂ©nĂ©ralisation des algorithmes de recherche dâun zĂ©ro dâune fonction et peuvent sâappliquer Ă des Ă©quations linĂ©aires ou non linĂ©aires. Certains algorithmes de recherche des zĂ©ros (comme la mĂ©thode de Newton) peuvent ĂȘtre gĂ©nĂ©ralisĂ©s Ă la rĂ©solution numĂ©rique des systĂšmes d'Ă©quations non linĂ©aires.
Les algorithmes de recherche des zĂ©ros dâune fonction sont Ă©tudiĂ©s en analyse numĂ©rique.
Algorithmes spécifiques
Dichotomie
La mĂ©thode de dichotomie est l'algorithme le plus simple pour trouver des zĂ©ros d'une fonction continue : commencer avec deux points a et b qui encadrent un zĂ©ro de la fonction, et Ă chaque itĂ©ration, choisir lâun des deux intervalles [a, c] ou [c, b], c = (a + b)â2 Ă©tant le milieu de a et b. Lâalgorithme repose sur le choix du sous-intervalle de [a, b] qui contient un zĂ©ro. Dans la plupart des cas, la mĂ©thode de dichotomie garantit la convergence vers un zĂ©ro lorsque la fonction est continue. Sa progression dans la recherche est plutĂŽt lente, puisque sa vitesse de convergence est linĂ©aire. Une des particularitĂ©s de cet algorithme est qu'il est possible de connaĂźtre Ă l'avance le nombre d'itĂ©rations nĂ©cessaires pour dĂ©terminer la racine de l'Ă©quation avec la prĂ©cision souhaitĂ©e.
Newton-Raphson
La méthode de Newton, appelée aussi méthode de Newton-Raphson, suppose que f est de classe C1. On « linéarise » la fonction f en la valeur approchée courante du zéro, en utilisant la dérivée de la fonction. Cela donne la relation de récurrence :
La mĂ©thode de Newton peut ne pas converger si la valeur initiale est trop loin dâun zĂ©ro. Cependant, si elle converge, elle est beaucoup plus rapide que la mĂ©thode de dichotomie (sa vitesse de convergence est quadratique). Elle peut aisĂ©ment se gĂ©nĂ©raliser Ă des problĂšmes en dimensions supĂ©rieures.
SĂ©cante
Si la dérivée de la fonction dans la méthode de Newton est remplacée par une différence finie, nous obtenons la méthode de la sécante. Elle utilise la relation récurrente :
- .
Cette mĂ©thode ne requiert pas le calcul dâune dĂ©rivĂ©e, mais câest au prix dâune vitesse de convergence plus lente que celle de Newton (de lâordre de 1,618). Cependant, comme elle ne nĂ©cessite qu'une Ă©valuation de fonction par itĂ©ration, elle se rĂ©vĂšle en gĂ©nĂ©ral plus rapide que la mĂ©thode de Newton. Sa gĂ©nĂ©ralisation en dimension supĂ©rieure Ă 1 est la mĂ©thode de Broyden (en).
Regula falsi
La mĂ©thode de la fausse position, aussi appelĂ©e mĂ©thode de regula falsi, sâapparente Ă la mĂ©thode de dichotomie. Cependant, elle ne coupe pas lâintervalle en deux parts Ă©gales Ă chaque itĂ©ration, mais en un point donnĂ© par la formule de la mĂ©thode de la sĂ©cante. Cette mĂ©thode hĂ©rite de la robustesse de la mĂ©thode de dichotomie et de la complexitĂ© « super-linĂ©aire » de la mĂ©thode de la sĂ©cante.
MĂ©thode de Muller
La méthode de la sécante évalue la racine de la fonction f en l'approximant par interpolation linéaire. La méthode de Muller évalue la racine par interpolation quadratique à l'aide des trois derniers points calculés. Elle converge plus rapidement que la méthode de la sécante (ordre de convergence de 1,84). Elle nécessite l'évaluation d'une racine carrée à chaque itération. Une particularité de cette méthode est que le terme itéré xn peut devenir complexe.
Interpolation quadratique inverse
L'inconvĂ©nient de la mĂ©thode de MĂŒller peut ĂȘtre Ă©vitĂ© par l'interpolation de la bijection rĂ©ciproque de f, ce qui mĂšne Ă la mĂ©thode de l'interpolation quadratique inverse. Encore une fois, la convergence est asymptotiquement plus rapide que la mĂ©thode de la sĂ©cante, mais elle se comporte souvent mal quand les itĂ©rĂ©s ne sont pas proches du zĂ©ro.
MĂ©thode de Brent
La mĂ©thode de Brent est une combinaison de la mĂ©thode de dichotomie, de la mĂ©thode de la sĂ©cante et de lâinterpolation quadratique inverse. Ă chaque itĂ©ration, cette mĂ©thode dĂ©cide de laquelle de ces trois mĂ©thodes est susceptible dâapprocher au mieux le zĂ©ro, et effectue une Ă©tape en utilisant cette mĂ©thode. Cela donne une mĂ©thode robuste et rapide, trĂšs populaire et trĂšs apprĂ©ciĂ©e.
Autres algorithmes
Dâautres algorithmes de recherches de zĂ©ros sont :
- mĂ©thode du point fixe : l'Ă©quation f(x) = 0 est reformulĂ©e sous la forme x = g(x) oĂč g est choisie de telle sorte que toute suite (xn) donnĂ©e par xn+1 = g(xn) converge vers un zĂ©ro de f.
Recherche des racines dâun polynĂŽme
Une attention particuliĂšre a Ă©tĂ© donnĂ©e au cas particulier oĂč f est une fonction polynomiale. Bien sĂ»r, les mĂ©thodes dĂ©crites dans la section prĂ©cĂ©dente peuvent ĂȘtre utilisĂ©es. En particulier, il est facile de dĂ©terminer la dĂ©rivĂ©e dâun polynĂŽme, et la mĂ©thode de Newton est un trĂšs bon candidat. Mais il est possible de choisir une mĂ©thode qui exploite le fait que f est un polynĂŽme.
Une possibilitĂ© est de considĂ©rer la matrice compagnon associĂ©e au polynĂŽme. Sachant que les valeurs propres de cette matrice coĂŻncident avec les racines du polynĂŽme, on peut alors utiliser nâimporte quel algorithme de recherche de valeur propre pour trouver des valeurs approchĂ©es des racines du polynĂŽme initial, par exemple la mĂ©thode de la puissance itĂ©rĂ©e.
Une autre possibilitĂ© est dâutiliser la mĂ©thode de Laguerre, qui sous certaines conditions converge Ă coup sĂ»r vers l'une des racines (convergence globale). Sa vitesse de convergence est cubique pour les racines simples.
Si le polynĂŽme a des coefficients rationnels et si on recherche uniquement des racines rationnelles, alors la mĂ©thode de Ruffini peut ĂȘtre utilisĂ©e.
Dans tous les cas, le problĂšme de recherche de valeurs approchĂ©es de racines peut ĂȘtre mal conditionnĂ© comme le montrent les polynĂŽmes de Wilkinson (en).
Références
Voir aussi
Articles connexes
- Algorithme de calcul de la racine n-iÚme d'un réel positif.
- Méthode du cercle de séparation
- Méthode de Dandelin-GrÀffe (en)
- ThéorÚme de Sturm