Dimension finie
La méthode des multiplicateurs de Lagrange permet de trouver un optimum, sur la figure le point le plus élevé possible, tout en satisfaisant une contrainte, sur la figure un point de la ligne rouge.
On cherche Ă trouver l'extremum, un minimum ou un maximum, d'une fonction Ï de n variables Ă valeurs dans les nombres rĂ©els, ou encore d'un espace euclidien de dimension n, parmi les points respectant une contrainte, de type Ï(x) = 0 oĂč Ï est une fonction du mĂȘme ensemble de dĂ©part que Ï. La fonction Ï est Ă valeurs dans un espace euclidien de dimension m. Elle peut encore ĂȘtre vue comme m fonctions Ă valeurs rĂ©elles, dĂ©crivant m contraintes.
Si l'espace euclidien est de dimension 2 et si la fonction Ï est Ă valeurs dans â, correspondant Ă une contrainte mono-dimensionnelle, la situation s'illustre par une figure analogue Ă celle de droite. La question revient Ă rechercher le point situĂ© le plus haut, c'est-Ă -dire le maximum de Ï, dans l'ensemble des points rouges, c'est-Ă -dire ceux qui vĂ©rifient la contrainte. Le point recherchĂ© est celui oĂč la courbe rouge ne monte ni ne descend. En termes techniques, cela correspond Ă un point oĂč la diffĂ©rentielle de Ï possĂšde un noyau orthogonal au gradient de Ï en ce point. La mĂ©thode du multiplicateur de Lagrange offre une condition nĂ©cessaire. Les fonctions Ï et Ï sont diffĂ©rentiables et leurs diffĂ©rentielles continues ; on parle de fonction de classe C1. On considĂšre λ un vecteur pris dans l'ensemble d'arrivĂ©e de Ï et la fonction L dĂ©finie par :
Cette fonction est parfois appelée le lagrangien.
L'opĂ©rateur reprĂ©sentĂ© par un point est ici le produit scalaire. Si x0 est une solution recherchĂ©e, on montre qu'il existe un vecteur λ0 tel que la fonction L admet une diffĂ©rentielle nulle au point (x0, λ0). Les coordonnĂ©es du vecteur λ0[2] â ou parfois du vecteur opposĂ©[3] - [4] â sont appelĂ©es multiplicateurs de Lagrange. Cette technique permet de passer d'une question d'optimisation sous contrainte Ă une optimisation sans contrainte, celle de la fonction L, dans un espace de dimension n + m.
Exemple introductif
La nappe correspond à la surface du cylindre, la courbe bleue aux points de volume égal à v0, choisi dans la représentation égal à 1.
Soit v0 un nombre strictement positif. L'objectif est de trouver la portion de cylindre de rayon r et de hauteur h de surface minimale (couvercles compris) et de volume v0. Pour cela on définit deux fonctions, v et s qui à (r, h) associent respectivement le volume et la surface de la portion de cylindre. On dispose des égalités
La figure de droite reprĂ©sente la fonction s, qui Ă r et h associe la surface. La ligne bleue correspond aux points de volume Ă©gal Ă 1. L'objectif est de trouver le point bleu, de plus petite surface pour un volume Ă©gal Ă 1. La fonction s n'est autre que la fonction Ï du prĂ©ambule. La fonction Ï et la fonction L sont dĂ©finies par :
La mĂ©thode de Lagrange consiste Ă rechercher un point tel que la diffĂ©rentielle de L soit nulle. Sur un tel point, la dĂ©rivĂ©e partielle par rapport à λ est nulle, ce qui signifie que la fonction Ï est nulle, ou encore que la contrainte est respectĂ©e. Si l'on identifie s avec son approximation linĂ©aire tangente, son comportement sur la contrainte, aussi identifiĂ©e Ă son approximation linĂ©aire tangente, est aussi nĂ©cessairement nulle Ă partir de l'ordre 1. Ce comportement est illustrĂ© par la droite en vert sur la figure. Le long de cette droite, la fonction Ï est nulle, et le terme d'ordre 1 de la fonction s l'est alors nĂ©cessairement.
Il suffit, en conséquence, de calculer la différentielle de L, et plus précisément ses trois dérivées partielles, pour l'exemple choisi :
On trouve les valeurs suivantes :
Autrement dit :
- et , d'oĂč .
Cet exemple possÚde l'avantage d'une représentation graphique simple, guidant l'intuition. En revanche, la méthode du multiplicateur de Lagrange n'est pas nécessaire dans ce cas : on peut simplement exprimer la valeur de h pour que le volume du cylindre respecte la contrainte imposée au volume v0. On trouve :
En "injectant" cette contrainte dans l'équation décrivant l'aire, il vient :
et il suffit de trouver la valeur de r minimisant cette fonction pour trouver la solution.
De mĂȘme qu'avec le multiplicateur de Lagrange, on trouve :
DeuxiÚme exemple : l'isopérimétrie du triangle
Pour se convaincre de la pertinence de la méthode, on peut rechercher le triangle d'aire maximale et de périmÚtre p, choisi strictement positif. D'aprÚs la formule de Héron, si (x, y, z) est le triplet des longueurs des cÎtés du triangle, son aire A est égale à :
Il est plus simple de maximiser la fonction Ï qui associe Ă (x,y,z) quatre fois le carrĂ© de A. La contrainte est donnĂ©e par la fonction Ï qui associe au triangle la diffĂ©rence du pĂ©rimĂštre et de p :
Un triangle n'est dĂ©fini, pour un triplet (x, y, z), que si les trois coordonnĂ©es sont positives et si la somme de deux coordonnĂ©es est supĂ©rieure Ă la troisiĂšme. Soit D cet ensemble de points. Sur la frontiĂšre de D, la fonction Ï est nulle. On cherche un point de l'intĂ©rieur de D tel que Ï soit maximal dans l'ensemble des points d'image par Ï nulle. Comme l'intersection de l'image rĂ©ciproque de 0 par Ï et de D est un compact, il existe au moins un maximum. On dĂ©finit comme dans l'exemple prĂ©cĂ©dent la fonction L par :
On cherche x, y, z strictement positifs et λ tels que la différentielle de L soit nulle. Un calcul de dérivée partielle montre que ce quadruplet est solution du systÚme d'équations :
On vérifie alors que la seule solution est , correspondant au triangle équilatéral.
- Remarque
- L'objectif est ici d'illustrer la mĂ©thode du multiplicateur de Lagrange. On a trouvĂ© le maximum d'une fonction Ï dans l'intĂ©rieur de D, sous la contrainte dĂ©finie par Ï. Si l'objectif est uniquement de rĂ©soudre le problĂšme isopĂ©rimĂ©trique pour le triangle, une solution plus simple est donnĂ©e dans l'article sur l'isopĂ©rimĂ©trie.
Notations et interprétation géométrique
Soient E et F deux espaces vectoriels rĂ©els de dimensions respectives n et m avec n plus grand que m. Soit Ï une fonction de E dans â, que l'on cherche Ă minimiser : on cherche un point a tel que Ï(a) soit le plus petit possible. Soit Ï une fonction de E dans F, dĂ©finissant la contrainte. L'ensemble sur lequel on travaille est G, correspondant aux points x tels que Ï(x) = 0.
Si (e1, ⊠, en) est une base de E, chaque point x de E s'exprime comme une combinaison linéaire des éléments de la base :
Cette remarque permet de voir les fonctions Ï et Ï de deux maniĂšres. Elles peuvent ĂȘtre vues comme des fonctions d'une unique variable x de E, ce qui rend l'Ă©criture plus concise et favorise une comprĂ©hension plus simple, mais plus abstraite des mĂ©canismes en jeu. Les applications peuvent aussi ĂȘtre vues comme fonctions de n variables x1, ⊠, xn, ce qui prĂ©sente une rĂ©daction plus lourde mais plus aisĂ©e pour les calculs effectifs. L'espace F est de dimension m. Si (f1, ⊠, fm) est une base de F, la fonction Ï peut aussi ĂȘtre vue comme m fonctions de n variables :
ou encore
L'ensemble G peut ĂȘtre vu comme une unique contrainte exprimĂ©e par une fonction Ă valeurs dans F ou encore comme m contraintes exprimĂ©es par les Ă©galitĂ©s Ïj(x) = 0, Ă valeurs rĂ©elles.
Un corollaire du
théorÚme de Rolle indique que l'optimum est atteint en un point de différentielle nulle.
Le fondement thĂ©orique de la mĂ©thode du multiplicateur de Lagrange peut ĂȘtre vu comme analogue au
théorÚme de Rolle.
Les fonctions Ï et Ï sont de classe C1, ce qui signifie qu'elles sont diffĂ©rentiables, autrement dit elles admettent chacune une application linĂ©aire tangente en chaque point. Le terme C1 signifie aussi que les applications qui, Ă un point associent les diffĂ©rentielles, soit de Ï soit de Ï, sont continues.
L'optimum recherchĂ© vĂ©rifie une propriĂ©tĂ© analogue Ă celle du thĂ©orĂšme de Rolle. Un corollaire de ce thĂ©orĂšme, illustrĂ© Ă gauche, indique que l'optimum, un maximum ou un minimum, s'il se situe dans l'intervalle ouvert ]a, b[, possĂšde une tangente horizontale, ce qui signifie encore que sa diffĂ©rentielle est nulle. C'est un rĂ©sultat de cette nature qui est recherchĂ©. On peut le visualiser sur la figure de droite, si n et m sont respectivement Ă©gaux Ă 2 et Ă 1. On reprĂ©sente Ï (notĂ© f sur la figure de droite) en bleu par ses courbes de niveau, comme les gĂ©ographes. Les flĂšches reprĂ©sentent le gradient de la fonction Ï. La diffĂ©rentielle de Ï en un point est une application linĂ©aire de E dans â, c'est-Ă -dire une forme duale. Il est d'usage de considĂ©rer E comme un espace euclidien, de choisir la base de E orthonormale et d'identifier la diffĂ©rentielle avec le vecteur de E qui reprĂ©sente la forme duale. Dans ce cas, l'approximation linĂ©aire tangente s'Ă©crit :
La lettre o dĂ©signe un petit o selon la notation de Landau et le point entre le gradient de Ï et h symbolise le produit scalaire. Le vecteur gradient est orthogonal Ă la courbe de niveau, dans le sens des valeurs croissantes de Ï et de norme proportionnelle Ă la vitesse d'accroissement de Ï dans cette direction. La contrainte vĂ©rifie une propriĂ©tĂ© analogue puisqu'elle est aussi diffĂ©rentiable. L'ensemble Ă©tudiĂ© est celui des valeurs x telles que Ï(x) est nul. Si x0 est Ă©lĂ©ment de G, les points voisins de x0 dans G ont aussi une image nulle par Ï, autrement dit, l'espace tangent Ă G au point x0 est formĂ© par les accroissements h de x0 qui ont une image nulle par la diffĂ©rentielle de Ï. La direction de l'espace tangent est le noyau de l'application diffĂ©rentielle de Ï. Une analyse par les fonctions coordonnĂ©es Ïi exprime ce rĂ©sultat en indiquant que l'espace tangent est l'intersection des hyperplans orthogonaux des gradients des Ïi.
Une analyse au point optimal x0 recherchĂ© indique, en approximation du premier ordre, qu'un dĂ©placement h dans la direction de l'espace tangent Ă G ne peut pas accroĂźtre la valeur de Ï. Ceci signifie que le dĂ©placement h est nĂ©cessairement orthogonal au gradient de Ï en x0. C'est ainsi que se traduit le thĂ©orĂšme de Rolle, dans ce contexte. GĂ©omĂ©triquement, cela signifie que la courbe de niveau bleue et la ligne rouge sont tangentes au point recherchĂ©. Analytiquement cela se traduit par le fait que le noyau de la diffĂ©rentielle de Ï en x0 est orthogonal au gradient de Ï en ce point.
Une approche intuitive du théorÚme
Il est peut-ĂȘtre utile, Ă ce stade, de fournir une approche intuitive du thĂ©orĂšme, en se donnant un exemple ayant valeur gĂ©nĂ©rale. ConsidĂ©rons donc comme prĂ©cĂ©demment une fonction diffĂ©rentiable Ï(x, y, z) de â3 dans â , dont on se propose de trouver les extrema sous l'unique contrainte Ï(x,y,z) = 0, avec Ï: â3 â â diffĂ©rentiable.
On verra ensuite comment s'y prendre pour deux contraintes.
Rappelons d'abord que la diffĂ©rentielle de Ï en un point M de l'espace s'Ă©crit
- ,
soit en notant Ï' le vecteur
L'interprétation bien connue de ces relations est qu'un déplacement infinitésimal
de vecteur dM au point M induit une variation infinitĂ©simale de la fonction Ï, Ă©gale au produit scalaire de
Ï' (appelĂ© vecteur gradient de Ï) avec dM.
ConsidĂ©rons maintenant la contrainte Ï(x,y,z) = 0, qui dĂ©finit une surface S dans l'espace, tout au moins localement[5].
Il est clair que le problĂšme revient Ă trouver les points extremum de la restriction de Ï Ă S.
La diffĂ©rentielle de Ï en un point M de l'espace s'Ă©crit, comme prĂ©cĂ©demment,
Cette relation est en particulier vraie si le point M est sur S.
Mais supposons de plus qu'on astreigne le déplacement infinitésimal dM
Ă s'effectuer sur S ; alors puisque Ï est identiquement nulle sur S, il en est
de mĂȘme de sa variation infinitĂ©simale sur S, et dM devra donc vĂ©rifier la relation
Vu que dM est quelconque sur S, cela signifie que Ï'(M) est orthogonal Ă S au point M.
Maintenant, si la restriction de Ï Ă S est extrĂ©male au point M (ce que l'on cherche), alors pour tout dĂ©placement infinitĂ©simal dM en M s'effectuant sur S, la variation infinitĂ©simale correspondante de Ï devra ĂȘtre nulle: on peut se contenter de ressentir ce fait, ou bien de s'appuyer sur l'homologie avec les fonctions d'une seule variable rĂ©elle, ou encore de le justifier formellement en considĂ©rant des courbes paramĂ©trĂ©es sur S passant par
M et de vecteur dérivé en M proportionnel à dM[6].
Mathématiquement, cela signifie que
Ainsi, Ï'(M) doit ĂȘtre orthogonal Ă dM, tout comme l'est Ï'(M) d'aprĂšs ce qu'on a vu plus
haut. Il revient au mĂȘme de dire que Ï'(M) est colinĂ©aire Ă Ï'(M)[7], ou bien
On peut Ă©crire cette relation sous la forme
Cette Ă©quation, alliĂ©e avec l'Ă©quation de contrainte originale Ï(M) = 0,
constitue la méthode des multiplicateurs de Lagrange.
Dans le cas de deux contraintes Ï1(M) = 0 et Ï2(M) = 0,
on a une intersection de deux surfaces de contraintes, c'est-Ă -dire une courbe đ en gĂ©nĂ©ral.
Le problĂšme revient cette fois Ă chercher les extrema de la restriction de Ï Ă đ.
Le mĂȘme raisonnement que prĂ©cĂ©demment s'applique, mais dM sera cette fois astreint Ă appartenir Ă đ, c'est-Ă -dire Ă ĂȘtre orthogonal au sous-espace T engendrĂ© par les vecteurs Ï'1(M) et Ï'2(M).
Donc les points extremum seront les points M tels que Ï'(M) â T, ou bien
Comme précédemment, la méthode des multiplicateurs de Lagrange s'ensuit immédiatement.
Le mĂȘme raisonnement s'applique dans les espaces euclidiens de dimension n > 3,
ou la fonction objectif est soumise Ă au plus nâ1 Ă©quations de contraintes Ă n variables:
il suffit de remplacer la notion de "surface" par celle d'"hyperplan".
ThéorÚmes
Le problÚme à résoudre est de trouver le minimum suivant :
Les fonctions Ï et Ï ne sont pas nĂ©cessairement dĂ©finies sur tout E mais au moins sur des ouverts de E, oĂč elles sont supposĂ©es diffĂ©rentiables, avec DÏ(x0) surjective[8].
ThĂ©orĂšme des extrema liĂ©s â
Si le point x0 est un extremum local de Ï dans l'ensemble G, alors le noyau de la diffĂ©rentielle de Ï au point x0 est orthogonal au gradient de Ï en ce point.
Plus simplement : au point x0, le noyau de DÏ(x0) est inclus dans celui de DÏ(x0), c'est-Ă -dire, d'aprĂšs les propriĂ©tĂ©s des formes linĂ©aires : DÏ(x0) est une combinaison linĂ©aire de DÏ1(x0), ⊠, DÏm(x0), oĂč les Ïj sont les composantes de Ï dans une base de F (voir supra). Autrement dit[2] - [3] :
.
Cette formulation plus simple[9] met en évidence le multiplicateur. Si l'on souhaite la réécrire en termes de gradients, il est nécessaire d'équiper F du produit scalaire tel que sa base soit orthonormale, le symbole t signifie la transposée d'une application linéaire ; elle définit une application du dual de F, ici identifié à F dans le dual de E, encore identifié à E :
Corollaire 1 â
Si le point x0 est un extremum local de Ï dans l'ensemble G et si la diffĂ©rentielle de Ï au point x0 est surjective, il existe un vecteur λ0 de F tel que :
.
Sous forme de coordonnées, on obtient :
Un deuxiÚme corollaire est plus pragmatique, car il offre une méthode effective pour déterminer l'extremum. Il correspond à la méthode utilisée dans l'exemple introductif.
Corollaire 2 â
Si le point x0 est un extremum local de Ï dans l'ensemble G et si la diffĂ©rentielle de Ï au point x0 est surjective, alors il existe un vecteur λ0 de F tel que la fonction L de EĂF dans â admet un gradient nul en (x0, λ0)[10] :
Ces thĂ©orĂšmes possĂšdent quelques faiblesses, de mĂȘme nature que celle du thĂ©orĂšme de Rolle. La condition est nĂ©cessaire, mais pas suffisante. Un point de dĂ©rivĂ©e nulle pour Rolle ou vĂ©rifiant les hypothĂšses du thĂ©orĂšme du multiplicateur de Lagrange n'est pas nĂ©cessairement un maximum ou un minimum. Ensuite, mĂȘme si ce point est un extremum, il n'est que local. Si une solution x0 est trouvĂ©e, rien n'indique que cet extremum local est le meilleur. L'approximation linĂ©aire ne prĂ©cise pas si cet optimum est un maximum ou un minimum. Enfin, comme pour le cas du thĂ©orĂšme de Rolle, si les domaines de dĂ©finition ne sont pas ouverts, il est possible qu'un point frontiĂšre soit un optimum qui ne vĂ©rifie pas le thĂ©orĂšme. Ainsi, sur la figure de gauche, f(a) et f(b) sont des minima mais la dĂ©rivĂ©e n'est nulle ni en a, ni en b.
Il existe deux mĂ©thodes cĂ©lĂšbres pour dĂ©montrer les rĂ©sultats de Lagrange. La premiĂšre est souvent appelĂ©e mĂ©thode des pĂ©nalitĂ©s[12], elle consiste Ă considĂ©rer une suite (Ïk) dĂ©finie de la maniĂšre suivante :
La suite des minima de ces fonctions tend vers x0.
L'autre méthode[13] utilise le théorÚme des fonctions implicites.
C'est un dérivé de cette méthode qui est utilisé ici. Le théorÚme n'est pas utilisé, mais les inégalités à la base de la démonstration sont présentes dans la preuve.
- Cas oĂč Ï est une fonction affine :
La dĂ©monstration de ce cas particulier n'est pas nĂ©cessaire pour le cas gĂ©nĂ©ral, en revanche, elle permet de comprendre la logique utilisĂ©e et fixe les notations. Soit x1 un point de E tel que la diffĂ©rentielle de Ï possĂšde un noyau qui n'est pas dans l'orthogonal du gradient de Ï. On montre que x1 n'est pas un extremum. La contraposĂ©e de ce rĂ©sultat permet de conclure.
Par hypothĂšse, il existe un vecteur k1 Ă©lĂ©ment du noyau de la diffĂ©rentielle de Ï au point x1 (qui est d'ailleurs la mĂȘme en chaque point car Ï est une application affine) et qui n'est pas orthogonal au gradient. On choisit k1 de norme 1 et de sens tel que le produit scalaire de ce vecteur avec le gradient soit strictement positif. On note α ce produit scalaire. Si s est un rĂ©el positif, l'Ă©galitĂ© dĂ©finissant le gradient, appliquĂ©e au vecteur sk1 est
Si s est choisi suffisamment petit, alors o(s) peut ĂȘtre choisi plus petit, en valeur absolue, que n'importe quelle constante strictement positive que multiplie s, par exemple : sα/2. De maniĂšre formelle :
Le fait que l'image par Ï de x1 + sk1 soit un Ă©lĂ©ment de G, ainsi que la majoration prĂ©cĂ©dente, montrent que x1 ne peut ĂȘtre un maximum local. En choisissant s nĂ©gatif, on montre que x1 ne peut pas non plus ĂȘtre un minimum local.
Dans le cas gĂ©nĂ©ral, on ne peut supposer que x1 + sk1 soit Ă©lĂ©ment de G. La situation est illustrĂ©e sur la figure de droite. L'ensemble G est reprĂ©sentĂ© en bleu, le gradient de Ï en rouge et la droite dirigĂ©e par k1 en vert. Pour une valeur de s suffisamment petite, on construit un vecteur k, Ă©gal Ă sk1 et proche de G. Une technique analogue Ă celle du thĂ©orĂšme des fonctions implicites permet de trouver un point x2, suffisamment proche de x1 + k pour que le raisonnement prĂ©cĂ©dent puisse s'appliquer avec peu de modifications. La technique consiste Ă Ă©tablir quatre inĂ©galitĂ©s qui montrent le rĂ©sultat recherchĂ©.
- PremiÚre inégalité :
- Elle consiste à utiliser la définition du gradient au point x1 mais, cette fois-ci, valable pour tout vecteur de norme suffisamment petite :
Par rapport au cas particulier affine, la constante est choisie un peu diffĂ©remment, elle est maintenant Ă©gale à α/8. La zone sur laquelle la majoration est vĂ©rifiĂ©e est un peu modifiĂ©e, elle correspond maintenant aux vecteurs de normes plus petites que 2ÎŒ1. Les raisons techniques qui poussent Ă ces modifications apparaissent Ă la conclusion de cette dĂ©monstration.
- DeuxiÚme inégalité :
- La deuxiÚme inégalité permet de borner la norme du vecteur, illustré en bleu ciel et qu'il faut ajouter à x1 + sk1 pour retrouver le point de G qui montre que x1 n'est pas un maximum local. L'objectif est de montrer qu'il existe un réel strictement positif m tel que
- Ici, le symbole Bx1 dĂ©signe la boule de centre x1 et de rayon 1. Pour Ă©tablir ce rĂ©sultat, on utilise deux propriĂ©tĂ©s des compacts. Une fonction continue l'est uniformĂ©ment sur un compact, ensuite elle atteint sa borne infĂ©rieure. La diffĂ©rentielle de Ï en un point quelconque est continue, comme d'ailleurs toute application linĂ©aire en dimension finie. ComposĂ©e avec la norme, aussi continue, elle atteint sa borne infĂ©rieure sur l'intersection de l'orthogonal de son noyau et de la sphĂšre unitĂ©. Cette intersection est en effet compacte. On appelle f la fonction qui Ă une application linĂ©aire de E dans F associe cette borne infĂ©rieure. Par construction elle ne peut prendre de valeur nulle. On considĂšre ensuite la fonction g, qui Ă x Ă©lĂ©ment de E associe l'image par f de la diffĂ©rentielle de Ï au point x. Une fois sa continuitĂ© sur la boule fermĂ©e de centre x1 et de rayon 1 dĂ©montrĂ©e, on sait que cette fonction atteint son minimum m. La majoration (2) dĂ©finit ce minimum.
- Pour Ă©tablir l'inĂ©galitĂ© (2), il suffit donc dĂ©montrer la continuitĂ© de g. L'application qui Ă x associe la diffĂ©rentielle de Ï au point x est continue par hypothĂšse. Elle est donc uniformĂ©ment continue sur la boule de centre x1 et de rayon 1 :
- Soit v1 (resp. v2) un vecteur unitaire tel que
- L'espace des applications linéaires de E dans F est muni de la norme qui associe à une application la borne supérieure des normes de son image de la boule unité. Comme les points y1 et y2 sont choisis à une distance inférieure à l'un de l'autre, on dispose de la majoration
- Cette majoration, ainsi que la mĂȘme appliquĂ©e Ă y2, dĂ©montre la continuitĂ© recherchĂ©e pour conclure la preuve de la majoration (2) :
- TroisiÚme inégalité :
- On dispose d'une majoration comparable Ă (1), mais cette fois appliquĂ©e Ă Ï et utilisant la continuitĂ© uniforme. Il existe un rĂ©el strictement positif ÎŒ2 tel que, si Ξ dĂ©signe l'angle entre le gradient de Ï au point x1 et k1 :
- QuatriÚme inégalité :
- La fonction DÏ, qui au point x associe la diffĂ©rentielle de Ï au point x est continue, en particulier au point x1, ce qui montre que
Une fois les quatre inĂ©galitĂ©s Ă©tablies, il devient possible de dĂ©finir les vecteurs h et k et de conclure. Soit s un rĂ©el strictement strictement positif et plus petit que ÎŒ1, ÎŒ2, ÎŒ3 et que 1/2, on dĂ©finit le vecteur k de la figure comme Ă©tant Ă©gal Ă sk1. Soit x2 le vecteur le plus proche de x + k et Ă©lĂ©ment de G et h le vecteur x2 â x1. Enfin, l1 dĂ©signe le vecteur unitaire colinĂ©aire Ă h â k et de mĂȘme sens ; c'est le vecteur illustrĂ© en bleu ciel sur la figure. Le rĂ©el positif t est tel que tl1 soit Ă©gal Ă h â k. Le choix du vecteur k est tel que t est suffisamment petit pour conclure.
- Conclusion :
- Le point tl1 est le plus petit vecteur de E tel que x1 + sk1 + tl1 est un élément de G. Autrement dit :
- La majoration (3), appliquée au point x2, se traduit par :
- De plus, par dĂ©finition de k1, la diffĂ©rentielle en x1 de Ï est nulle sur k1. On en dĂ©duit, d'aprĂšs la majoration (4) :
- Le point tl1 est le plus petit vecteur de E tel que x1 + sk1 + tl1 est un élément de G. On remarque que x1 est un élément de G. En conséquence, x1 + sk1 est aussi un élément de G et tl1 est de norme plus petite que sk1, ce qui revient à dire que t est plus petit que s, donc :
- Le vecteur l1 est orthogonal au noyau de DÏ au point x2. En effet, le point x2 est le plus proche de x2 â tl1 dans G. Si p est un vecteur du noyau, x2 + up est plus loin de x2 â tl1 que ne l'est x2 ; ici, u dĂ©signe un nombre rĂ©el :
- ce qui montre que
- Le produit scalaire de l1 et p est nul, ce qui montre bien que l1 est orthogonal au noyau de DÏ au point x2. Le point x2 est Ă©lĂ©ment de la boule de rayon 1 et centre x1. La majoration (2) montre que
- On peut maintenant appliquer la majoration (1) :
- et
Le point x2 est un Ă©lĂ©ment de G ayant une image par Ï strictement plus grande que x1, ce qui montre que x1 n'est pas un maximum local. On montre de mĂȘme que x1 n'est pas non plus un minimum local, ce qui termine la dĂ©monstration.
- Il existe un vecteur λ0 de F tel que la somme de l'image de λ0 par la transposĂ©e de la diffĂ©rentielle de Ï au point x0 et du gradient de Ï en ce point soit nulle :
C'est une consĂ©quence directe du rĂ©sultat prĂ©cĂ©dent et des propriĂ©tĂ©s de la transposition. Remarquons tout d'abord que l'image de la transposĂ©e d'une application linĂ©aire est un sous-espace vectoriel inclus dans l'orthogonal du noyau. Pour s'en convaincre, montrons qu'un Ă©lĂ©ment v de l'image de la transposĂ©e de la diffĂ©rentielle de Ï au point x0, d'antĂ©cĂ©dent λ, est orthogonal Ă tout Ă©lĂ©ment w du noyau de la diffĂ©rentielle :
Montrons maintenant que l'orthogonal du noyau de la diffĂ©rentielle possĂšde la mĂȘme dimension que l'image de la transposĂ©e. L'application diffĂ©rentielle est surjective, son image est de dimension m, la transposĂ©e ne modifie pas le rang d'une application linĂ©aire, l'image de sa transposĂ©e est donc aussi de dimension m. La somme des dimensions de l'image et du noyau est Ă©gale Ă celle de l'espace vectoriel de dĂ©part, ici E de dimension n. Comme l'image est de dimension m, le noyau est de dimension n - m. L'orthogonal du noyau est donc de dimension m. Pour rĂ©sumer, l'orthogonal du noyau de la diffĂ©rentielle contient l'image de sa transposĂ©e et est de mĂȘme dimension, ce qui montre l'Ă©galitĂ© des deux sous-espaces vectoriels. Le gradient de Ï au point x0 est dans l'orthogonal au noyau de la diffĂ©rentielle, il est donc dans l'image de sa transposĂ©e, ce qui montre l'existence du vecteur λ0.
- Il existe un vecteur λ0 de F tel que la fonction L de EĂF dans â admet un gradient nul en (x0, λ0) :
Pour cela, calculons l'image de (u, ÎŒ), un point de EĂF par la diffĂ©rentielle de L au point (x0, λ0), λ0 Ă©tant le vecteur de F dĂ©fini lors de la dĂ©monstration prĂ©cĂ©dente.
La définition de λ0 montre que
Le gradient recherché est bien nul au point étudié.
Ăcriture du problĂšme
Si l'Ă©criture condensĂ©e permet de mieux comprendre la structure du thĂ©orĂšme, les notations dĂ©veloppĂ©es sont plus utiles pour une rĂ©solution effective. Dans la pratique, on considĂšre souvent une fonction Ï de ân dans â et m fonctions Ïj, avec j variant de 1 Ă m, aussi de ân dans â. L'entier m est nĂ©cessairement plus petit que n pour pouvoir appliquer les thĂ©orĂšmes du paragraphe prĂ©cĂ©dent. On cherche Ă trouver un n-uplet (a1, ⊠, an) tel que
Pour cela, on dĂ©finit la fonction L de ân+m dans â par :
Le deuxiÚme corollaire indique une condition nécessaire pour élucider le problÚme d'optimisation (1). Le n-uplet (a1, ⊠, an) est une solution de (1) seulement s'il existe un m-uplet (α1, ⊠, αm) tel que le (n + m)-uplet (a1, ⊠, an, α1, ⊠, αm) soit solution des n + m équations :
Cette mĂ©thode peut ĂȘtre gĂ©nĂ©ralisĂ©e aux problĂšmes d'optimisation incluant des contraintes d'inĂ©galitĂ©s (ou non linĂ©aires) en utilisant les conditions de Kuhn-Tucker.
Mais également sur des fonctions discrÚtes à maximiser ou minimiser sous contraintes, moyennant un changement d'interprétation, en utilisant la méthode des multiplicateurs d'Everett (ou de Lagrange généralisés), plus volontiers appelée méthode des pénalités.
Application : inégalité arithmético-géométrique
La mĂ©thode du multiplicateur de Lagrange permet de dĂ©montrer l'inĂ©galitĂ© arithmĂ©tico-gĂ©omĂ©trique[14]. On dĂ©finit les applications Ï et Ï de â+n dans â par :
On remarque que l'ensemble G, composĂ© des n-uplets de coordonnĂ©es positives et de somme Ă©gale Ă s est un compact de ân. Sur ce compact la fonction Ï est continue, et donc elle admet nĂ©cessairement un maximum. Les deux fonctions Ï et Ï sont bien de classe C1, il est donc possible d'utiliser le multiplicateur de Lagrange pour trouver ce maximum. Pour cela, on considĂšre la fonction L :
Une solution vérifie les équations :
On en dĂ©duit l'existence d'une unique solution, obtenue pour tous les xi Ă©gaux Ă s/n = x et λ Ă©gal Ă â(s/n)nâ1, ce qui s'exprime, en remplaçant s par sa valeur :
La moyenne géométrique est inférieure à la moyenne arithmétique, l'égalité n'ayant lieu que si les xi sont tous égaux.
Le multiplicateur de Lagrange offre une démonstration alternative de l'inégalité arithmético-géométrique.
Espace fonctionnel
La méthode se généralise aux espaces fonctionnels. Un exemple est donné par la question de la chaßnette, qui revient à rechercher la position que prend, au repos, une chaßnette attachée à ses deux extrémités. L'optimisation correspond à la position offrant un potentiel minimal, la contrainte est donnée par la position des extrémités et la longueur de la chaßnette, supposée fixe. Cette méthode permet de trouver des plus courts chemins sous contrainte, ou encore des géodésiques. Le principe de Fermat ou celui de moindre action permet de résoudre de nombreuses questions à l'aide de cette méthode.
Exemple introductif : la chaĂźnette
Le
viaduc de Garabit possÚde une arche dont la géométrie est celle d'une chaßnette.
ConsidĂ©rons donc une chaĂźnette soumise Ă la gravitĂ© et recherchons son Ă©quilibre statique. La chaĂźnette est de longueur a et l'on suppose qu'elle est accrochĂ©e Ă deux points d'abscisses ât0 et t0 et d'ordonnĂ©e nulle en ces deux points. Si son ordonnĂ©e est notĂ©e x, elle suit une courbe y = x(t) sur l'intervalle [ât0, t0], dont on se propose de calculer l'Ă©quation.
Dire qu'elle est Ă l'Ă©quilibre revient Ă dire que son potentiel Ί est minimal, oĂč :
Ici, α désigne une constante physique, en l'occurrence le produit de la gravitation terrestre g par la masse linéique de la chaßnette, supposée constante. La formule donnant la longueur d'un arc en fonction d'un paramétrage est donnée dans l'article Longueur d'un arc.
La chaĂźnette n'est pas supposĂ©e ĂȘtre Ă©lastique, elle vĂ©rifie donc la contrainte Κ, indiquant que sa longueur l0 n'est pas modifiĂ©e :
Si C1K(I) dĂ©signe l'ensemble des fonctions de [ât0, t0] dans â, dĂ©rivables et de dĂ©rivĂ©es continues, nulles en ât0 et t0, le problĂšme revient Ă rechercher la fonction x0 telle que
La similitude avec la situation prĂ©cĂ©dente est flagrante. Pour pouvoir appliquer des multiplicateurs de Lagrange, il faut donner un sens aux gradients de Ί et Κ. Dans le cas oĂč il existe deux fonctions de classe C2 de â3 dans â, notĂ©es Ï et Ï, telles que
L'Ă©quation d'Euler-Lagrange affirme que
Dans le cas particulier oĂč les fonctions Ï et Ï sont des fonctions de deux variables et ne dĂ©pendent pas de t, on obtient la formulation de Beltrami (cf. l'article « Ăquation d'Euler-Lagrange ») :
Dire que les deux gradients sont colinéaires revient à dire qu'il existe un réel λ, le multiplicateur de Lagrange, tel que
La résolution de cette équation différentielle est une chaßnette. La méthode du multiplicateur de Lagrange permet bien de résoudre la question posée[15].
Everett : cas des fonctions non continues, non dérivables
Hugh Everett généralise la méthode aux fonctions non dérivables, souvent choisies convexes. Pour une résolution effective, il devient nécessaire de disposer d'un algorithme déterminant l'optimum (ou les optima) d'une fonction. Dans le cas non dérivable, on peut utiliser une heuristique adéquate ou encore une méthode de Monte-Carlo.
Il faut ensuite réviser pour l'itération suivante les multiplicateurs (ou « pénalités ») de façon appropriée, et c'est là que se situe l'apport essentiel d'Everett : il mémorise les jeux de multiplicateurs utilisées lors des deux derniÚres itérations, et sépare en trois les résultats pour chaque contrainte. Selon que sur les deux derniÚres itérations il y a eu rapprochement de l'objectif, ou encadrement, ou encore éloignement (à cause de l'effet des autres multiplicateurs), chaque multiplicateur est ajusté pour l'itération suivante d'une façon qui garantit la convergence si une relation entre les trois ajustements, qu'il fournit, est observée.
Espace de Sobolev
L'exemple précédent montre que le contexte de l'équation d'Euler-Lagrange n'est pas loin de celui du multiplicateur de Lagrange. Si l'ensemble de départ de la fonction x(t) recherchée est un intervalle réel I ouvert et borné et l'ensemble d'arrivée E l'espace vectoriel euclidien, la généralisation est relativement aisée.
On suppose l'existence d'une fonction Ί Ă minimiser, son ensemble de dĂ©part est un espace fonctionnel, c'est-Ă -dire un espace vectoriel de fonctions, de I dans E et son ensemble d'arrivĂ©e â. La fonction Ί est construite de la maniĂšre suivante :
Le point sur le x indique la fonction gradient, qui Ă t associe le gradient de x au point t.
La fonction Ï est une fonction de âĂE2 dans â de classe C2. L'optimisation est sous contrainte, donnĂ©e sous une forme analogue Ă la prĂ©cĂ©dente. On suppose l'existence d'une fonction Κ de âĂE2 dans F, un espace euclidien. La fonction Κ est encore dĂ©finie Ă l'aide d'une fonction Ï de classe C2 de IĂE2, mais cette fois dans un espace euclidien F :
L'ensemble G est composé de fonctions deux fois dérivables de I dans E et dont l'image par Κ est nulle. On suppose de plus que les valeurs des fonctions de G aux bornes de I sont fixes et, quitte à opérer une translation, on peut toujours supposer, sans perte de généralité, que ces fonctions sont nulles aux bornes de I.
La seule tùche un peu délicate est de définir l'espace vectoriel W2,2(I, E) sur lequel opÚrent Ί et Κ. Pour définir un équivalent de gradient, cet espace comporte nécessairement un produit scalaire. Si l'on souhaite établir des théorÚmes équivalents aux précédents, les fonctions dérivée et dérivée seconde sont définies et l'espace est complet. Un espace muni d'un produit scalaire et complet est un Hilbert. Sa géométrie est, de fait, suffisamment riche pour étendre les résultats précédents.
On note D l'espace des fonctions de I, Ă valeur dans E, de classe Câ et Ă support compact et D* son dual topologique. L'espace D est muni de la norme de la borne supĂ©rieure et l'espace D* est celui des distributions. Ce premier couple n'est pas encore satisfaisant car D est « trop petit » et D* « trop gros » pour permettre de dĂ©finir un bon produit scalaire, Ă l'origine d'une gĂ©omĂ©trie aussi simple que celle d'un Hilbert.
L'espace D* contient l'espace de Hilbert L2(I, E) des fonctions de carrĂ© intĂ©grable. En effet une fonction f de L2(I, E) agit sur D par le produit scalaire ăâ, âăL dĂ©fini par l'intĂ©grale de Lebesgue :
C'est dans L2(I, E) que nous cherchons le bon espace. Dans cet espace, l'intégration par parties permet de définir la dérivée de la fonction f de L2(I). Comme g est à support compact et que I est ouvert, aux bornes de I, la fonction g est nulle. Si f est dérivable au sens classique du terme, on bénéficie des égalités :
Si la distribution dĂ©rivĂ©e de f est encore d'un Ă©lĂ©ment de L2(I, E), on dit qu'elle est dĂ©rivable au sens de Sobolev. Si cette dĂ©rivĂ©e est encore dĂ©rivable au sens prĂ©cĂ©dent, on dit qu'elle est deux fois dĂ©rivable au sens de Sobolev. On note W2,2(I, E) le sous-espace de L2(I, E) Ă©quipĂ© du produit scalaire ăâ, âăW suivant :
Les intégrales sont bien définies car elles correspondent au produit de deux éléments de L2(I, E). Il est ensuite simple de vérifier que l'espace est bien complet[16]. Enfin, si f est une fonction dérivable au sens des distributions, il existe un représentant continu de f[17]. Ainsi, tout élément de W2,2(I, E) admet un représentant continu et dont la dérivée admet aussi un représentant continu.
Ăquation d'Euler-Lagrange
La difficultĂ© est maintenant d'exprimer le gradient des fonctions Ί et Κ. L'Ă©quation d'Euler-Lagrange cherche dans un premier temps Ă trouver des fonctions de classe C2 qui minimisent Ί. L'espace vectoriel sous-jacent est celui des fonctions d'un intervalle bornĂ© et de classe C2 et nulles aux bornes de l'intervalle. Sur cet espace, le calcul du gradient de Ί n'est guĂšre complexe, il donne aussi une idĂ©e de la solution ainsi que de la mĂ©thode pour y parvenir. En revanche, ce calcul est insuffisant dans le cas prĂ©sent. Avec le « bon » produit scalaire, l'espace des fonctions de classe C2 n'est pas complet, ce qui empĂȘche de disposer de la bonne gĂ©omĂ©trie permettant de dĂ©montrer la mĂ©thode du multiplicateur de Lagrange.
L'objectif est de généraliser un peu la démonstration pour permettre de disposer de l'égalité du gradient dans l'espace complet W2,2(I, E). Dans un premier temps, exprimons l'égalité qui définit la différentielle de Ί en un point x, qui représente une fonction de W2,2(I, E) :
L'application DΊx est une application linĂ©aire continue de W2,2(I, E) dans â, c'est-Ă -dire un Ă©lĂ©ment du dual topologique de W2,2(I, E), que le produit scalaire permet d'identifier Ă W2,2(I, E). L'Ă©galitĂ© prĂ©cĂ©dente devient :
Autrement dit, le gradient de Ί au point x est une fonction de L2(I, E) dans â. De fait, ce gradient s'exprime Ă l'aide de l'Ă©quation d'Euler-Lagrange :
Le gradient de Ί au point x est la fonction de I dans E, définie par
Si la fonction Ï est en gĂ©nĂ©ral choisie au sens usuel de la dĂ©rivation, la fonction x(t) est une fonction de W2,2(I, E). Le symbole d/dt doit ĂȘtre pris au sens de la dĂ©rivĂ©e d'une distribution, qui n'est ici nĂ©cessairement une fonction de carrĂ© intĂ©grable, dĂ©finie presque partout.
Pour Κ, la logique est absolument identique, mais cette fois-ci, la fonction est Ă valeurs dans F. En consĂ©quence, la dĂ©rivĂ©e partielle de Ï par rapport Ă sa deuxiĂšme ou troisiĂšme variable n'est plus une application linĂ©aire de E dans â mais de E dans F. Ainsi, la diffĂ©rentielle de Κ au point, une fonction x de I dans E, est une application de I dans l'espace L(E, F) des applications linĂ©aires de E dans F. La logique reste la mĂȘme.
La différentielle de Κ au point x est la fonction de I dans L(E, F) définie par
DĂ©monstration
- L'application Ί est différentiable au point x, si x est une fonction de W2,2(I, E) nulle aux bornes de I :
Cette proposition revient Ă montrer que
Soit Δ un rĂ©el strictement positif. La fonction x et sa dĂ©rivĂ©e possĂšde un reprĂ©sentant continu, dont les valeurs aux bornes de l'intervalle I sont nulles. En consĂ©quence l'image de I par x et par sa dĂ©rivĂ©e est sont des compacts de E. Soit H le produit cartĂ©sien de I, x(I) et dx/dt(I). Le produit de trois compacts est encore un compact. La fonction diffĂ©rentielle de Ï sur ce compact est uniformĂ©ment continue. On en dĂ©duit que les dĂ©rivĂ©e partielles Ă l'ordre 1 sont bornĂ©es par une valeur, notĂ©e M1 ; on en dĂ©duit aussi, si a et b dĂ©signent les bornes de I :
De plus, sur le compact H, la valeur absolue de Ï et la norme de ses trois dĂ©rivĂ©es partielles sont majorĂ©es par une constante M, car Ï est continue. Si la norme de h dans W2,2(I, E) est plus petite que ÎŒ2, il existe un ensemble IÎŒ de I de mesure plus grande que b â a â ΔΌ2/8M sur lequel h et sa dĂ©rivĂ©e ne dĂ©passent pas ÎŒ. La majoration (2) montre que
Sur le complĂ©mentaire de IÎŒ dans I, comme la fonction Ï ne dĂ©passe pas M en valeur absolue et comme le complĂ©mentaire est de mesure infĂ©rieure Ă Î”ÎŒ2/8M, on obtient :
En sommant les deux derniÚres majorations, on trouve bien la majoration (1) qui montre la différentiabilité de Ί.
- Le gradient de Ί au point x est donné par l'équation de Lagrange :
Une fois la proposition prĂ©cĂ©dente dĂ©montrĂ©e, le reste du calcul est le mĂȘme que celui de l'article Ăquation d'Euler-Lagrange. Le calcul consiste Ă exprimer diffĂ©remment le gradient de Ί au point x :
Le fait que la fonction h soit nulle aux bornes de I et une intégration par parties montrent que
ce qui permet de déduire que
et dĂ©montre ainsi la proposition. Les calculs sont exactement les mĂȘmes pour la fonction Κ.
ThéorÚmes
Ce paragraphe est trÚs proche du précédent dans le cas de la dimension finie. Le problÚme à résoudre est de trouver le minimum suivant :
ThĂ©orĂšme du multiplicateur de Lagrange â
Si le point x0 est un extremum local de Ί dans l'ensemble G, alors le noyau de la différentielle de Κ au point x0 est orthogonal au gradient de Ί en ce point.
On obtient les mĂȘmes corollaires, que l'on peut Ă©crire :
Corollaire â
Si le point x0 est un extremum local de Ί dans l'ensemble G et si la diffĂ©rentielle de Κ au point x0 est surjective, alors il existe un vecteur λ0 de F tel que la fonction L de W2,2(I, E)ĂF dans â admet un gradient nul en (x0, λ0) :
Cette Ă©quation s'Ă©crit encore :
Le signe d/dt doit ĂȘtre pris au sens de la dĂ©rivĂ©e des distributions. On obtient une solution faible, c'est-Ă -dire une fonction x dĂ©finie presque partout et dĂ©rivable dans un sens faible. En revanche, si une fonction x de classe C2 est solution du problĂšme de minimisation, comme ses dĂ©rivĂ©es premiĂšres et secondes sont des reprĂ©sentants de ses dĂ©rivĂ©es au sens faible, l'Ă©quation prĂ©cĂ©dente est encore vĂ©rifiĂ©e.
DĂ©monstrations
La dĂ©monstration est proche de la prĂ©cĂ©dente, nĂ©anmoins elle doit ĂȘtre adaptĂ©e au passage d'un espace euclidien Ă un hilbertien :
- Cas oĂč Κ est une fonction affine :
La dĂ©monstration prĂ©cĂ©dente n'utilise pas la dimension finie. Elle s'applique donc encore de la mĂȘme maniĂšre.
Une partie peut ĂȘtre reprise intĂ©gralement.
- PremiÚre inégalité :
- Elle consiste à utiliser la définition du gradient au point x1 mais, cette fois-ci, valable pour tout vecteur de norme suffisamment petite, qui n'utilise pas la dimension finie :
- DeuxiÚme inégalité :
- La deuxiÚme inégalité est démontrée, dans la démonstration précédente, à l'aide de la dimension finie. Ici, on restreint nos ambitions pour uniquement montrer l'existence de deux nombres réels strictement positifs m et r tels que
La démonstration reste néanmoins un peu analogue. Soit x un point de la boule de centre x1 et de rayon 1. L'image de la différentielle de Κ au point x et un espace vectoriel de dimension finie, le noyau est de codimension finie et son orthogonal de dimension finie. L'intersection de cet orthogonal avec la sphÚre unité est un compact, ce qui permet de définir les fonctions f et g comme pour le cas de la dimension finie. La continuité de g montre l'implication (2).
L'application qui à tout élément x de W2,2(I, E) associe DΚx est continue par hypothÚse, ce qui se traduit par :
Soit v1 (resp. v) un point de l'intersection de la sphÚre unité et de l'orthogonal du noyau de DΚ au point x1 (resp. x), tel que
La continuité de la différentielle montre :
Les mĂȘmes majorations montrent que
Ce qui montre la continuité de g et par voie de conséquence la majoration (2) : il suffit de choisir m comme l'inverse de la valeur g(x1).
- TroisiÚme et quatriÚme inégalités :
La troisiÚme inégalité ne fait pas appel à la dimension finie. On la rappelle dans le nouveau contexte :
Il en est de mĂȘme pour la quatriĂšme inĂ©galitĂ© :
- Conclusion :
La conclusion est la mĂȘme : il suffit maintenant de choisir ÎŒ non seulement plus petit que ÎŒ1, ÎŒ2 et ÎŒ3 mais aussi plus petit que r.
Application : ThéorÚme isopérimétrique
On recherche la surface de plus grande aire, ayant une frontiĂšre de longueur Ă©gale Ă 2Ï. On remarque que la surface est nĂ©cessairement convexe, d'intĂ©rieur non vide. On considĂšre une droite coupant la surface en deux. Cette droite est utilisĂ©e comme axe d'un repĂšre orthonormal, dont les abscisses sont notĂ©es par la lettre t et les ordonnĂ©es par x. La frontiĂšre supĂ©rieure est paramĂ©trable en une courbe x(t) et, si le repĂšre est bien choisi, on peut prendre comme abscisse minimale âa et maximale a. On recherche alors une courbe x, dĂ©finie entre âa et a tel que l'aire A soit maximale :
On sait de plus que la demi-longueur de la frontiĂšre est Ă©gale Ă Ï :
La recherche de la surface se traite aussi avec le multiplicateur de Lagrange. La mĂȘme astuce que celle utilisĂ©e dans l'exemple introductif montre, avec les notations usuelles :
On en déduit l'existence de valeurs λ et k telles que
En notant u = x â k, on obtient :
On trouve l'équation d'un demi-cercle de rayon λ ; la valeur λ est égale à 1 et k à 0[18].