AccueilđŸ‡«đŸ‡·Chercher

MĂ©thode de Newton

En analyse numĂ©rique, la mĂ©thode de Newton ou mĂ©thode de Newton-Raphson[1] est, dans son application la plus simple, un algorithme efficace pour trouver numĂ©riquement une approximation prĂ©cise d'un zĂ©ro (ou racine) d'une fonction rĂ©elle d'une variable rĂ©elle. Cette mĂ©thode doit son nom aux mathĂ©maticiens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-ĂȘtre 1648-1715), qui furent les premiers Ă  la dĂ©crire pour la recherche des solutions d'une Ă©quation polynomiale. Thomas Simpson (1710-1761) Ă©largit considĂ©rablement le domaine d'application de l'algorithme en montrant, grĂące Ă  la notion de dĂ©rivĂ©e, comment on pouvait l'utiliser pour calculer une solution d'une Ă©quation non linĂ©aire, pouvant ne pas ĂȘtre un polynĂŽme, et d'un systĂšme formĂ© de telles Ă©quations.

Une itération de la méthode de Newton.

Présentation

Sous sa forme moderne, l'algorithme peut ĂȘtre prĂ©sentĂ© briĂšvement comme suit : Ă  chaque itĂ©ration, la fonction dont on cherche un zĂ©ro est linĂ©arisĂ©e en l'itĂ©rĂ© (ou point) courant et l'itĂ©rĂ© suivant est pris Ă©gal au zĂ©ro de la fonction linĂ©arisĂ©e. Cette description sommaire indique qu'au moins deux conditions sont requises pour la bonne marche de l'algorithme : la fonction doit ĂȘtre dĂ©rivable aux points visitĂ©s (pour pouvoir y linĂ©ariser la fonction) et les dĂ©rivĂ©es ne doivent pas s'y annuler (pour que la fonction linĂ©arisĂ©e ait un zĂ©ro) ; s'ajoute Ă  ces conditions la contrainte forte de devoir prendre le premier itĂ©rĂ© assez proche d'un zĂ©ro rĂ©gulier de la fonction (i.e., en lequel la dĂ©rivĂ©e de la fonction ne s'annule pas), pour que la convergence du processus soit assurĂ©e.

L'intĂ©rĂȘt principal de l'algorithme de Newton est sa convergence quadratique locale. En termes imagĂ©s mais peu prĂ©cis, cela signifie que le nombre de chiffres significatifs corrects des itĂ©rĂ©s double Ă  chaque itĂ©ration, asymptotiquement. Comme le nombre de chiffres significatifs reprĂ©sentables par un ordinateur est d’environ 15 chiffres dĂ©cimaux (sur un ordinateur qui respecte la norme IEEE-754), on peut simplifier grossiĂšrement les propriĂ©tĂ©s de convergence de l'algorithme de Newton en disant que, soit il converge en moins de 10 itĂ©rations, soit il diverge. En effet, si l'itĂ©rĂ© initial n'est pas pris suffisamment proche d'un zĂ©ro, la suite des itĂ©rĂ©s gĂ©nĂ©rĂ©e par l'algorithme a un comportement erratique, dont la convergence Ă©ventuelle ne peut ĂȘtre que le fruit du hasard (un des itĂ©rĂ©s est par chance proche d'un zĂ©ro).

L'importance de l'algorithme a incitĂ© les numĂ©riciens Ă  Ă©tendre son application et Ă  proposer des remĂšdes Ă  ses dĂ©fauts. Par exemple, l'algorithme permet Ă©galement de trouver un zĂ©ro d'une fonction de plusieurs variables Ă  valeurs vectorielles, voire dĂ©finie entre espaces vectoriels de dimension infinie ; la mĂ©thode conduit d'ailleurs Ă  des rĂ©sultats d'existence de zĂ©ro (utilisĂ©s dans certaines preuves du thĂ©orĂšme des fonctions implicites, les thĂ©orĂšmes de Kantorovitch). On peut aussi l'utiliser lorsque la fonction est diffĂ©rentiable dans un sens plus faible (fonction diffĂ©rentiable par morceaux, B-diffĂ©rentiable, semi-lisse, obliquement diffĂ©rentiable, etc), ainsi que pour rĂ©soudre des systĂšmes d'inĂ©galitĂ© non linĂ©aire, des problĂšmes d'inclusion fonctionnelle, d'Ă©quations diffĂ©rentielles ou aux dĂ©rivĂ©es partielles, d’inĂ©quations variationnelles, de complĂ©mentaritĂ©, etc. On a Ă©galement mis au point des techniques de globalisation de l'algorithme, lesquelles ont pour but de forcer la convergence des suites gĂ©nĂ©rĂ©es Ă  partir d'un itĂ©rĂ© initial arbitraire (non nĂ©cessairement proche d'un zĂ©ro), comme la recherche linĂ©aire et les rĂ©gions de confiance agissant sur une fonction de mĂ©rite (souvent la fonction de moindres-carrĂ©s). Dans les versions dites inexactes ou tronquĂ©es, on ne rĂ©sout le systĂšme linĂ©aire Ă  chaque itĂ©ration que de maniĂšre approchĂ©e. Enfin, la famille des algorithmes de quasi-Newton propose des techniques permettant de se passer du calcul de la dĂ©rivĂ©e de la fonction. Toutes ces amĂ©liorations ne permettent toutefois pas d'assurer que l'algorithme trouvera un zĂ©ro existant, quel que soit l'itĂ©rĂ© initial.

Appliqué à la dérivée d'une fonction réelle, cet algorithme permet d'obtenir des points critiques (i.e., des zéros de la fonction dérivée). Cette observation est à l'origine de son utilisation en optimisation sans ou avec contraintes.

ÉlĂ©ments d'histoire

John Wallis.
Isaac Newton.

La méthode de Newton fut décrite par le mathématicien anglais Isaac Newton dans De analysi per aequationes numero terminorum infinitas, écrit en 1669 et publié en 1711 par William Jones. Elle fut à nouveau décrite dans De metodis fluxionum et serierum infinitarum (De la méthode des fluxions et des suites infinies), écrit en 1671, traduit et publié sous le titre Methods of Fluxions en 1736 par John Colson. Toutefois, Newton n'appliqua la méthode qu'aux seuls polynÎmes. Comme la notion de dérivée et donc de linéarisation n'était pas définie à cette époque, son approche diffÚre de celle décrite dans l'introduction : Newton cherchait à affiner une approximation grossiÚre d'un zéro d'un polynÎme par un calcul polynomial.

L'exemple que Newton donne[2] est celui du calcul de la racine réelle de l'équation cubique

,

en prenant comme itĂ©rĂ© initial le point x1 = 2. qui diffĂšre de moins de 0,1 de la vraie valeur de l'unique racine rĂ©elle. Il Ă©crit alors x = 2 + d1, oĂč d1 est donc l'accroissement Ă  donner Ă  2 pour obtenir la racine x. Il remplace x par 2 + d1 dans l'Ă©quation, qui devient

et dont il faut trouver la racine pour l'ajouter Ă  2. Il nĂ©glige d13 + 6d12 Ă  cause de sa petitesse (on suppose que |d1| << 1), si bien qu'il reste 10 d1 – 1 = 0 ou d1 = 0,1, ce qui donne comme nouvelle approximation de la racine x2 = x1 + d1 = 2,1. Il Ă©crit ensuite d1 = 0,1 + d2, oĂč d2 est donc l'accroissement Ă  donner Ă  d1 pour obtenir la racine du polynĂŽme prĂ©cĂ©dent. Il remplace donc d1 par 0,1 + d2 dans le polynĂŽme prĂ©cĂ©dent pour obtenir

.

On obtiendrait la mĂȘme Ă©quation en remplaçant x par 2,1 + d2 dans le polynĂŽme initial. NĂ©gligeant les deux premiers termes, il reste 11,23 d2+ 0,061 = 0 ou d2 ≈ –0,0054, ce qui donne comme nouvelle approximation de la racine x3 = x2 + d2 ≈ 2,0946. On peut poursuivre les opĂ©rations aussi longtemps qu'il convient.

Cette méthode fut l'objet de publications antérieures. En 1685, John Wallis en publia une premiÚre description[3] dans A Treatise of Algebra both Historical and Practical. En 1690, Joseph Raphson en publia une description simplifiée dans Analysis aequationum universalis. Raphson considérait la méthode de Newton toujours comme une méthode purement algébrique et restreignait aussi son usage aux seuls polynÎmes. Toutefois, il mit en évidence le calcul récursif des approximations successives d'un zéro d'un polynÎme au lieu de considérer comme Newton une suite de polynÎmes.

C'est Thomas Simpson (1710-1761) qui généralisa cette méthode au calcul itératif des solutions d'une équation non linéaire, en utilisant les dérivées (qu'il appelait fluxions, comme Newton)[4]. Simpson appliqua la méthode de Newton à des systÚmes de deux équations non linéaires à deux inconnues[5], en suivant l'approche utilisée aujourd'hui pour des systÚmes ayant plus de 2 équations, et à des problÚmes d'optimisation sans contrainte en cherchant un zéro du gradient[6]. Arthur Cayley fut le premier à noter la difficulté de généraliser la méthode de Newton aux variables complexes en 1879[7], par exemple aux polynÎmes de degré supérieur à 3.

On pourra consulter l'article de Ypma (1995) pour d'autres informations sur l'historique de l'algorithme. Cet auteur attribue l'absence de reconnaissance aux autres contributeurs de l'algorithme au livre influent de Fourier, intitulĂ© Analyse des Équations DĂ©terminĂ©es (1831), lequel dĂ©crivait la mĂ©thode newtonienne sans faire rĂ©fĂ©rence Ă  Raphson ou Simpson.

Fonction réelle d'une variable réelle

L'algorithme

On va donc chercher à construire une bonne approximation d'un zéro de la fonction d'une variable réelle f(x) en considérant son développement de Taylor au premier ordre. Pour cela, partant d'un point x0 que l'on choisit de préférence proche du zéro à trouver (en faisant des estimations grossiÚres par exemple), on approche la fonction au premier ordre, autrement dit, on la considÚre asymptotiquement égale à sa tangente en ce point :

Partant de là, pour trouver un zéro de cette fonction d'approximation, il suffit de calculer l'intersection de la droite tangente avec l'axe des abscisses, c'est-à-dire résoudre l'équation affine :

On obtient alors un point x1 qui en gĂ©nĂ©ral a de bonnes chances d'ĂȘtre plus proche du vrai zĂ©ro de f que le point x0 prĂ©cĂ©dent. Par cette opĂ©ration, on peut donc espĂ©rer amĂ©liorer l'approximation par itĂ©rations successives (voir illustration) : on approche Ă  nouveau la fonction par sa tangente en pour obtenir un nouveau point x2, etc.

Illustration de la méthode de Newton.
Illustration animée de la méthode.

Cette méthode requiert que la fonction possÚde une tangente en chacun des points de la suite que l'on construit par itération, par exemple il suffit que f soit dérivable.

Formellement, on part d'un point x0 appartenant à l'ensemble de définition de la fonction et on construit par récurrence la suite :

oĂč f ' dĂ©signe la dĂ©rivĂ©e de la fonction f. Le point xk+1 est bien la solution de l'Ă©quation affine .

Il se peut que la récurrence doive se terminer, si à l'étape k, xk n'appartient pas au domaine de définition ou si la dérivée f '(xk) est nulle ; dans ces cas, la méthode échoue.

Si le zéro inconnu α est isolé, alors il existe un voisinage de α tel que pour toutes les valeurs de départ x0 dans ce voisinage, la suite (xk) va converger vers α. De plus, si f '(α) est non nul, alors la convergence est (au moins) quadratique, ce qui signifie intuitivement que le nombre de chiffres corrects est approximativement doublé à chaque étape.

Bien que la mĂ©thode soit trĂšs efficace, certains aspects pratiques doivent ĂȘtre pris en compte. Avant tout, la mĂ©thode de Newton nĂ©cessite que la dĂ©rivĂ©e soit effectivement calculĂ©e. Dans les cas oĂč la dĂ©rivĂ©e est seulement estimĂ©e en prenant la pente entre deux points de la fonction, la mĂ©thode prend le nom de mĂ©thode de la sĂ©cante, moins efficace (d'ordre 1,618 qui est le nombre d'or) et infĂ©rieure Ă  d'autres algorithmes. Par ailleurs, si la valeur de dĂ©part est trop Ă©loignĂ©e du vrai zĂ©ro, la mĂ©thode de Newton peut entrer en boucle infinie sans produire d'approximation amĂ©liorĂ©e. À cause de cela, toute mise en Ɠuvre de la mĂ©thode de Newton doit inclure un code de contrĂŽle du nombre d'itĂ©rations.

Exemple

Pour illustrer la mĂ©thode, recherchons le nombre positif x vĂ©rifiant cos(x) = x3. Reformulons la question pour introduire une fonction devant s'annuler : on recherche le zĂ©ro positif (la racine) de f(x) = cos(x) – x3. La dĂ©rivation donne f '(x) = –sin(x) – 3x2.

Comme pour tout x et x3>1 pour x>1, nous savons que notre zéro se situe entre 0 et 1. Nous essayons une valeur de départ de x0 = 0,5.

Les 7 premiers chiffres de cette valeur coïncident avec les 7 premiers chiffres du vrai zéro.

Convergence

La vitesse de convergence d'une suite xn obtenue par la mĂ©thode de Newton peut ĂȘtre obtenue comme application de la formule de Taylor-Lagrange. Il s'agit d'Ă©valuer une majoration de log|xn – a|.

f est une fonction dĂ©finie au voisinage de a et deux fois continĂ»ment diffĂ©rentiable. On suppose que a se trouve ĂȘtre un zĂ©ro de f qu'on essaie d'approcher par la mĂ©thode de Newton. On fait l'hypothĂšse que a est un zĂ©ro d'ordre 1, autrement dit que f '(a) est non nul. La formule de Taylor-Lagrange s'Ă©crit :

, avec Ο entre x et a.

Partant de l'approximation x, la méthode de Newton fournit au bout d'une itération :

.

Pour un intervalle compact I contenant x et a et inclus dans le domaine de définition de f, on pose : m1 = minx ∈ I |f '(x) | ainsi que M2 = maxx ∈ I |f ''(x)|. Alors, pour tout x ∈ I :

.

Par récurrence immédiate, il vient :

oĂč K = M2/2m1. En passant au logarithme :

La convergence de xn vers a est donc quadratique, à condition que |x0 – a| < 1/K.

Exemples de non-convergence

Les tangentes à la courbe représentant la fonction en 0 et en 1 coupent l'axe des x en 1 et en 0 respectivement. Si l'on prend 0 ou 1 comme point de départ, la méthode oscille entre ces deux points et ne converge donc pas.
  • La tangente Ă  la courbe peut couper l'axe des abscisses hors du domaine de dĂ©finition de la fonction.
  • Si l'on utilise l'algorithme de Newton pour trouver l'unique zĂ©ro x* = 0 de la fonction en prenant un itĂ©rĂ© initial x0 ≠ 0, on constate que, pour tout , xk+1=–xk ; la suite gĂ©nĂ©rĂ©e ne converge donc pas, mĂȘme localement (c'est-Ă -dire mĂȘme si x0 est pris proche du zĂ©ro x* = 0). Le problĂšme provient ici, en particulier, de la non-diffĂ©rentiabilitĂ© de la fonction en l'unique zĂ©ro x* = 0.

CritĂšre d'arrĂȘt

Des critĂšres d'arrĂȘt possibles, dĂ©terminĂ©s relativement Ă  une grandeur numĂ©riquement nĂ©gligeable, sont :

oĂč reprĂ©sentent des erreurs d'approximations caractĂ©risant la qualitĂ© de la solution numĂ©rique.

Dans tous les cas, il se peut que le critĂšre d'arrĂȘt soit vĂ©rifiĂ© en des points ne correspondant pas Ă  des solutions de l'Ă©quation Ă  rĂ©soudre.

Racine carrée

Un cas particulier de la méthode de Newton est la méthode de Héron, aussi appelée méthode babylonienne : il s'agit, pour calculer la racine carrée de a, d'appliquer la méthode de Newton à la fonction f définie par

.

On obtient alors, en utilisant la formule de la dĂ©rivĂ©e f '(x) = 2x, une mĂ©thode d'approximation de la solution √a donnĂ©e par la formule itĂ©rative suivante :

.

Pour tout a ≄ 0 et tout point de dĂ©part x0 > 0, cette mĂ©thode converge vers √a.

On peut l'Ă©tendre au calcul de toute racine n-iĂšme d'un nombre a avec la formule :

.

Intersection de graphes

On peut dĂ©terminer une intersection des graphes de deux fonctions rĂ©elles dĂ©rivables f et g, c'est-Ă -dire un point x tel que f(x) = g(x), en appliquant la mĂ©thode de Newton Ă  la fonction f–g.

Fonctions holomorphes

La mĂ©thode de Newton appliquĂ©e au polynĂŽme z3 – 1 Ă  variable complexe z converge Ă  partir de tous les points du plan (des nombres complexes) colorĂ©s en rouge, vert ou bleu vers l'une des trois racines de ce polynĂŽme, chacune des couleurs correspondant Ă  une racine diffĂ©rente. Les points restants, se trouvant sur la structure plus claire — appelĂ©e fractale de Newton — sont les points de dĂ©part pour lesquels la mĂ©thode ne converge pas.

La mĂ©thode peut aussi ĂȘtre utilisĂ©e pour trouver des zĂ©ros de fonctions holomorphes. Dans ce cadre, on connaĂźt bien les comportements que peut avoir la suite des itĂ©rĂ©s de Newton. On peut citer :

  • convergence vers un zĂ©ro ;
  • limite infinie ;
  • la suite admet un cycle limite autrement dit, la suite peut ĂȘtre dĂ©coupĂ©e en p sous-suites disjointes de la forme (zn0 + kp)k qui chacune convergent vers des points distincts (qui ne sont pas des zĂ©ros de f) formant un cycle pĂ©riodique pour la fonction z – f(z)/f '(z) ;
  • la suite se rapproche de l'ensemble des zĂ©ros de la fonction sans qu'il n'y ait toutefois de cycle limite, et Ă  chaque Ă©tape de l'itĂ©ration, on se retrouve proche d'un zĂ©ro diffĂ©rent des prĂ©cĂ©dents ;
  • la suite a un comportement chaotique, etc.

L'ensemble des points Ă  partir desquels peut ĂȘtre obtenue une suite qui converge vers un zĂ©ro fixĂ© s'appelle le bassin d'attraction de ce zĂ©ro. Pour beaucoup de fonctions complexes, le bassin d'attraction est une fractale.

L'étude de la méthode de Newton pour les polynÎmes à variables complexes trouve naturellement sa place dans l'étude dynamique des fractions rationnelles et a été une des motivations récentes de l'étude de la dynamique holomorphe.

Généralisations/variantes

SystĂšmes d'Ă©quations Ă  plusieurs variables

On peut aussi utiliser la mĂ©thode de Newton pour rĂ©soudre un systĂšme de n Ă©quations (non linĂ©aires) Ă  n inconnues x = (x1,...,xn), ce qui revient Ă  trouver un zĂ©ro d'une fonction F de dans , qui devra ĂȘtre diffĂ©rentiable. Dans la formulation donnĂ©e ci-dessus, il faut multiplier par l'inverse de la matrice jacobienne F '(xk) au lieu de diviser par f '(xk). Évidemment, pour Ă©conomiser du temps de calcul, on ne calculera pas l'inverse de la jacobienne, mais on rĂ©soudra le systĂšme d'Ă©quations linĂ©aires suivant

en l'inconnue xk+1 – xk. Encore une fois, cette mĂ©thode ne fonctionne que pour une valeur initiale x0 suffisamment proche d'un zĂ©ro de F.

Méthode de Newton approchée

Il arrive parfois que la dĂ©rivĂ©e (ou la matrice jacobienne pour un systĂšme d'Ă©quations Ă  plusieurs variables) de la fonction f soit coĂ»teuse Ă  calculer. La dĂ©rivĂ©e peut alors ĂȘtre approchĂ©e au moyen de diffĂ©rences finies. Par exemple, en approchant la dĂ©rivĂ©e f '(xk) par

on obtient la mĂ©thode de la sĂ©cante. La convergence de cette mĂ©thode n'est plus quadratique, mais reste sur-linĂ©aire (en fait, d'ordre φ = 1 + √5/2 ≈ 1,618).

MĂ©thode de Newton non lisse

Lorsque la fonction dont on cherche une racine est non-diffĂ©rentiable, mais seulement semi-lisse, la mĂ©thode de Newton ne gĂ©nĂšre pas nĂ©cessairement une suite {xk} convergente, mĂȘme si les itĂ©rĂ©s sont des points de diffĂ©rentiabilitĂ© de f, arbitrairement proches d'un zĂ©ro de F. Un contre-exemple est donnĂ© par Kummer (1988[8]).

Un algorithme analogue est encore possible en supposant un peu plus que la lipschitzianitĂ© de F, mais sa semi-lissitĂ©. L'algorithme de Newton pour une fonction f semi-lisse consiste alors Ă  gĂ©nĂ©rer une suite , oĂč le nouvel itĂ©rĂ© xk+1 est calculĂ© Ă  partir de l'itĂ©rĂ© courant xk par la rĂ©currence suivante

oĂč Jk est une jacobienne inversible du diffĂ©rentiel de Clarke ∂CF(xk), qui est supposĂ©e exister.

Comme la mĂ©thode de Newton classique, l'algorithme de Newton semi-lisse converge sous deux conditions. La premiĂšre spĂ©cifie que la fonction dont on cherche un zĂ©ro x* est suffisamment lisse : elle doit ĂȘtre semi-lisse. Il faut aussi qu'en ce zĂ©ro la fonction ait ses « pentes » qui ne s'annulent pas en x* ; ceci s'exprime par l'hypothĂšse de C-rĂ©gularitĂ© du zĂ©ro. Il s'agit aussi d'un rĂ©sultat de convergence locale, ce qui veut dire qu'il faut que le premier itĂ©rĂ© soit choisi suffisamment prĂšs d'un zĂ©ro satisfaisant les conditions ci-dessus pour que la convergence ait lieu.

Convergence locale de l'algorithme de Newton semi-lisse — Supposons que f soit semi-lisse en une solution C-rĂ©guliĂšre x* de l'Ă©quation f(x) = 0. Alors,

  • il existe un voisinage V de x* tel que si le premier itĂ©rĂ© x1 ∈ V, l'algorithme de Newton semi-lisse est bien dĂ©fini et gĂ©nĂšre une suite {xk} dans V, qui converge super-linĂ©airement vers x*,
  • la convergence est quadratique si f est fortement semi-lisse en x*.

Un état de l'art est donné par Izmailov et Solodov[9].

MĂ©thode de Newton par intervalles

Dans certains cas, il arrive que l'on veuille éviter la condition de proximité entre notre valeur de départ et le zéro de la fonction. Une solution est alors d'utiliser la méthode de Newton par intervalles[10] - [11].

On considĂšre , avec X un intervalle rĂ©el, et on suppose que l'on a une extension par intervalles F' de f ', c'est-Ă -dire une fonction F ' prenant en entrĂ©e un intervalle Y ⊆ X et renvoyant un intervalle F'(Y) tel que :

.

On suppose également que , donc en particulier f a au plus un zéro sur X. On peut maintenant définir l'opérateur :

pour tout intervalle y de centre m. On notera que l'hypothÚse sur F' implique que N(Y) est bien défini et est un intervalle (voir arithmétique d'intervalles pour plus de détails là dessus). On peut maintenant créer la suite d'intervalles suivante :

.

Le thĂ©orĂšme des accroissements finis certifie que, s'il y a un zĂ©ro de f dans Xk, alors il est encore dans Xk+1. De plus, l'hypothĂšse de positivitĂ© sur F' implique que la taille de Xk+1 est au plus la moitiĂ© de celle de Xk, donc la sĂ©quence converge vers le singleton {x*} , oĂč x* est le zĂ©ro de f sur X.

Annexes

Notes

  1. Joseph Louis Lagrange et Louis Poinsot, Traité de la résolution des équations numériques de tous les degrés.
  2. Dans Methodus fluxionum et serierum infinitorum selon J.-L. Chabert et al. (1994). Ypma (1995) renvoie aux pages 219-220 du volume II chez Whiteside (1967-1976).
  3. (en) Eric W. Weisstein, « Wallis's Constant », sur MathWorld.
  4. Voir Simpson (1740), pages 83-84, selon Ypma (1995).
  5. Voir Simpson (1740), page 82, selon Ypma (1995).
  6. (en) T. Simpson (1737), A New Treatise of Fluxions.
  7. (en) Arthur Cayley (1789). The Newton-Fourier imaginary problem.
  8. (en) B. Kummer (1988). Newton’s method for nondifferentiable functions. In (en) J. Guddat, B. Bank, H. Hollatz, P. Kall, D. Klatte, B. Kummer, K. Lommatzsch, L. Tammer, M. Vlach et K. Zimmerman, Advances in Mathematical Optimization, Berlin, Akademie-Verlag, 114–125 p..
  9. (en) A. F. Izmailov et M. V. Solodov, « Newton-Type Methods for Optimization and Variational Problems », Springer Series in Operations Research and Financial Engineering, Springer,‎ .
  10. (en) RE Moore, Methods and applications of interval analysis, vol. 2, Siam,
  11. (en) E. Hansen, « Interval forms of Newtons method », Computing, vol. 2, no 20,‎ , p. 153-163

Articles connexes

Liens externes

Références

  • (en) D. P. Bertsekas (1995), Nonlinear Programming. Athena Scientific. (ISBN 978-1-886529-14-4).
  • (en) J. F. Bonnans, J. Ch. Gilbert, C. LemarĂ©chal, C. SagastizĂĄbal (2006), Numerical Optimization - Theoretical and Practical Aspects [dĂ©tail des Ă©ditions].
  • J.-L. Chabert, É. Barbin, M. Guillemot, A. Michel-Pajus, J. Borowczyk, A. Djebbar, J.-C. Martzloff (1994). Histoire d’Algorithmes – Du Caillou Ă  la Puce. Regards sur la Science. Belin, Paris.
  • J.-P. Dedieu (2006). Points Fixes, ZĂ©ros et la MĂ©thode de Newton. MathĂ©matiques et Applications 54. Springer Verlag, Berlin.
  • (en) P. Deuflhard (2004). Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms. Springer Series in Computational Mathematics, Vol. 35. Springer, Berlin, (ISBN 3-540-21099-7).
  • (en) A. F. Izmailov, M. V. Solodov (2014). Newton-Type Methods for Optimization and Variational Problems. Springer Series in Operations Research and Financial Engineering. Springer.
  • (en) J. Nocedal, S. J. Wright (2006), Numerical Optimization, Springer. (ISBN 978-0-387-30303-1).
  • (en) J. M. Ortega, W. C. Rheinboldt (2000). Iterative Solution of Nonlinear Equations in Several Variables. Classics in Applied Mathematics. Society for Industrial and Applied Mathematics. (ISBN 0-89871-461-3).
  • (en) T. Simpson (1740). Essays on Several Curious and Useful Subjects in Speculative and Mix'd Mathematicks, Illustrated by a Variety of Examples. Londres.
  • (en) D. T. Whiteside, Ă©diteur (1967-1976) The Mathematical Papers of Isaac Newton, Volumes I-VII, Cambridge University Press, Cambridge.
  • (en) T. J. Ypma (1995). Historical development of the Newton-Raphson method. SIAM Review, 37, 531–551.
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.