AccueilđŸ‡«đŸ‡·Chercher

Multiplicateur de Lagrange

En mathématiques, et plus particuliÚrement en analyse, la méthode des multiplicateurs de Lagrange permet de trouver les points stationnaires (maximum, minimum
) d'une fonction dérivable d'une ou plusieurs variables, sous contraintes[1].

Dimension finie

La méthode des multiplicateurs de Lagrange permet de trouver un optimum, sur la figure le point le plus élevé possible, tout en satisfaisant une contrainte, sur la figure un point de la ligne rouge.

On cherche Ă  trouver l'extremum, un minimum ou un maximum, d'une fonction φ de n variables Ă  valeurs dans les nombres rĂ©els, ou encore d'un espace euclidien de dimension n, parmi les points respectant une contrainte, de type ψ(x) = 0 oĂč ψ est une fonction du mĂȘme ensemble de dĂ©part que φ. La fonction ψ est Ă  valeurs dans un espace euclidien de dimension m. Elle peut encore ĂȘtre vue comme m fonctions Ă  valeurs rĂ©elles, dĂ©crivant m contraintes.

Si l'espace euclidien est de dimension 2 et si la fonction ψ est Ă  valeurs dans ℝ, correspondant Ă  une contrainte mono-dimensionnelle, la situation s'illustre par une figure analogue Ă  celle de droite. La question revient Ă  rechercher le point situĂ© le plus haut, c'est-Ă -dire le maximum de φ, dans l'ensemble des points rouges, c'est-Ă -dire ceux qui vĂ©rifient la contrainte. Le point recherchĂ© est celui oĂč la courbe rouge ne monte ni ne descend. En termes techniques, cela correspond Ă  un point oĂč la diffĂ©rentielle de ψ possĂšde un noyau orthogonal au gradient de φ en ce point. La mĂ©thode du multiplicateur de Lagrange offre une condition nĂ©cessaire. Les fonctions φ et ψ sont diffĂ©rentiables et leurs diffĂ©rentielles continues ; on parle de fonction de classe C1. On considĂšre λ un vecteur pris dans l'ensemble d'arrivĂ©e de ψ et la fonction L dĂ©finie par :

Cette fonction est parfois appelée le lagrangien.

L'opĂ©rateur reprĂ©sentĂ© par un point est ici le produit scalaire. Si x0 est une solution recherchĂ©e, on montre qu'il existe un vecteur λ0 tel que la fonction L admet une diffĂ©rentielle nulle au point (x0, λ0). Les coordonnĂ©es du vecteur λ0[2] — ou parfois du vecteur opposĂ©[3] - [4] — sont appelĂ©es multiplicateurs de Lagrange. Cette technique permet de passer d'une question d'optimisation sous contrainte Ă  une optimisation sans contrainte, celle de la fonction L, dans un espace de dimension n + m.

Exemple introductif

La nappe correspond à la surface du cylindre, la courbe bleue aux points de volume égal à v0, choisi dans la représentation égal à 1.

Soit v0 un nombre strictement positif. L'objectif est de trouver la portion de cylindre de rayon r et de hauteur h de surface minimale (couvercles compris) et de volume v0. Pour cela on définit deux fonctions, v et s qui à (r, h) associent respectivement le volume et la surface de la portion de cylindre. On dispose des égalités

La figure de droite reprĂ©sente la fonction s, qui Ă  r et h associe la surface. La ligne bleue correspond aux points de volume Ă©gal Ă  1. L'objectif est de trouver le point bleu, de plus petite surface pour un volume Ă©gal Ă  1. La fonction s n'est autre que la fonction φ du prĂ©ambule. La fonction ψ et la fonction L sont dĂ©finies par :

La mĂ©thode de Lagrange consiste Ă  rechercher un point tel que la diffĂ©rentielle de L soit nulle. Sur un tel point, la dĂ©rivĂ©e partielle par rapport Ă  λ est nulle, ce qui signifie que la fonction ψ est nulle, ou encore que la contrainte est respectĂ©e. Si l'on identifie s avec son approximation linĂ©aire tangente, son comportement sur la contrainte, aussi identifiĂ©e Ă  son approximation linĂ©aire tangente, est aussi nĂ©cessairement nulle Ă  partir de l'ordre 1. Ce comportement est illustrĂ© par la droite en vert sur la figure. Le long de cette droite, la fonction ψ est nulle, et le terme d'ordre 1 de la fonction s l'est alors nĂ©cessairement.

Il suffit, en conséquence, de calculer la différentielle de L, et plus précisément ses trois dérivées partielles, pour l'exemple choisi :

On trouve les valeurs suivantes :

Autrement dit :

et , d'oĂč .

Cet exemple possÚde l'avantage d'une représentation graphique simple, guidant l'intuition. En revanche, la méthode du multiplicateur de Lagrange n'est pas nécessaire dans ce cas : on peut simplement exprimer la valeur de h pour que le volume du cylindre respecte la contrainte imposée au volume v0. On trouve :

En "injectant" cette contrainte dans l'équation décrivant l'aire, il vient :

et il suffit de trouver la valeur de r minimisant cette fonction pour trouver la solution. De mĂȘme qu'avec le multiplicateur de Lagrange, on trouve :

DeuxiÚme exemple : l'isopérimétrie du triangle

Pour se convaincre de la pertinence de la méthode, on peut rechercher le triangle d'aire maximale et de périmÚtre p, choisi strictement positif. D'aprÚs la formule de Héron, si (x, y, z) est le triplet des longueurs des cÎtés du triangle, son aire A est égale à :

Il est plus simple de maximiser la fonction φ qui associe Ă  (x,y,z) quatre fois le carrĂ© de A. La contrainte est donnĂ©e par la fonction ψ qui associe au triangle la diffĂ©rence du pĂ©rimĂštre et de p :

Un triangle n'est dĂ©fini, pour un triplet (x, y, z), que si les trois coordonnĂ©es sont positives et si la somme de deux coordonnĂ©es est supĂ©rieure Ă  la troisiĂšme. Soit D cet ensemble de points. Sur la frontiĂšre de D, la fonction φ est nulle. On cherche un point de l'intĂ©rieur de D tel que φ soit maximal dans l'ensemble des points d'image par ψ nulle. Comme l'intersection de l'image rĂ©ciproque de 0 par ψ et de D est un compact, il existe au moins un maximum. On dĂ©finit comme dans l'exemple prĂ©cĂ©dent la fonction L par :

On cherche x, y, z strictement positifs et λ tels que la différentielle de L soit nulle. Un calcul de dérivée partielle montre que ce quadruplet est solution du systÚme d'équations :

On vérifie alors que la seule solution est , correspondant au triangle équilatéral.

Remarque
L'objectif est ici d'illustrer la mĂ©thode du multiplicateur de Lagrange. On a trouvĂ© le maximum d'une fonction φ dans l'intĂ©rieur de D, sous la contrainte dĂ©finie par ψ. Si l'objectif est uniquement de rĂ©soudre le problĂšme isopĂ©rimĂ©trique pour le triangle, une solution plus simple est donnĂ©e dans l'article sur l'isopĂ©rimĂ©trie.

Notations et interprétation géométrique

Soient E et F deux espaces vectoriels rĂ©els de dimensions respectives n et m avec n plus grand que m. Soit φ une fonction de E dans ℝ, que l'on cherche Ă  minimiser : on cherche un point a tel que φ(a) soit le plus petit possible. Soit ψ une fonction de E dans F, dĂ©finissant la contrainte. L'ensemble sur lequel on travaille est G, correspondant aux points x tels que ψ(x) = 0.

Si (e1, 
 , en) est une base de E, chaque point x de E s'exprime comme une combinaison linéaire des éléments de la base :

Cette remarque permet de voir les fonctions φ et ψ de deux maniĂšres. Elles peuvent ĂȘtre vues comme des fonctions d'une unique variable x de E, ce qui rend l'Ă©criture plus concise et favorise une comprĂ©hension plus simple, mais plus abstraite des mĂ©canismes en jeu. Les applications peuvent aussi ĂȘtre vues comme fonctions de n variables x1, 
 , xn, ce qui prĂ©sente une rĂ©daction plus lourde mais plus aisĂ©e pour les calculs effectifs. L'espace F est de dimension m. Si (f1, 
 , fm) est une base de F, la fonction ψ peut aussi ĂȘtre vue comme m fonctions de n variables :

ou encore

L'ensemble G peut ĂȘtre vu comme une unique contrainte exprimĂ©e par une fonction Ă  valeurs dans F ou encore comme m contraintes exprimĂ©es par les Ă©galitĂ©s ψj(x) = 0, Ă  valeurs rĂ©elles.

Un corollaire du théorÚme de Rolle indique que l'optimum est atteint en un point de différentielle nulle.
Le fondement thĂ©orique de la mĂ©thode du multiplicateur de Lagrange peut ĂȘtre vu comme analogue au thĂ©orĂšme de Rolle.

Les fonctions φ et ψ sont de classe C1, ce qui signifie qu'elles sont diffĂ©rentiables, autrement dit elles admettent chacune une application linĂ©aire tangente en chaque point. Le terme C1 signifie aussi que les applications qui, Ă  un point associent les diffĂ©rentielles, soit de φ soit de ψ, sont continues.

L'optimum recherchĂ© vĂ©rifie une propriĂ©tĂ© analogue Ă  celle du thĂ©orĂšme de Rolle. Un corollaire de ce thĂ©orĂšme, illustrĂ© Ă  gauche, indique que l'optimum, un maximum ou un minimum, s'il se situe dans l'intervalle ouvert ]a, b[, possĂšde une tangente horizontale, ce qui signifie encore que sa diffĂ©rentielle est nulle. C'est un rĂ©sultat de cette nature qui est recherchĂ©. On peut le visualiser sur la figure de droite, si n et m sont respectivement Ă©gaux Ă  2 et Ă  1. On reprĂ©sente φ (notĂ© f sur la figure de droite) en bleu par ses courbes de niveau, comme les gĂ©ographes. Les flĂšches reprĂ©sentent le gradient de la fonction φ. La diffĂ©rentielle de φ en un point est une application linĂ©aire de E dans ℝ, c'est-Ă -dire une forme duale. Il est d'usage de considĂ©rer E comme un espace euclidien, de choisir la base de E orthonormale et d'identifier la diffĂ©rentielle avec le vecteur de E qui reprĂ©sente la forme duale. Dans ce cas, l'approximation linĂ©aire tangente s'Ă©crit :

La lettre o dĂ©signe un petit o selon la notation de Landau et le point entre le gradient de φ et h symbolise le produit scalaire. Le vecteur gradient est orthogonal Ă  la courbe de niveau, dans le sens des valeurs croissantes de φ et de norme proportionnelle Ă  la vitesse d'accroissement de φ dans cette direction. La contrainte vĂ©rifie une propriĂ©tĂ© analogue puisqu'elle est aussi diffĂ©rentiable. L'ensemble Ă©tudiĂ© est celui des valeurs x telles que ψ(x) est nul. Si x0 est Ă©lĂ©ment de G, les points voisins de x0 dans G ont aussi une image nulle par ψ, autrement dit, l'espace tangent Ă  G au point x0 est formĂ© par les accroissements h de x0 qui ont une image nulle par la diffĂ©rentielle de ψ. La direction de l'espace tangent est le noyau de l'application diffĂ©rentielle de ψ. Une analyse par les fonctions coordonnĂ©es ψi exprime ce rĂ©sultat en indiquant que l'espace tangent est l'intersection des hyperplans orthogonaux des gradients des ψi.

Une analyse au point optimal x0 recherchĂ© indique, en approximation du premier ordre, qu'un dĂ©placement h dans la direction de l'espace tangent Ă  G ne peut pas accroĂźtre la valeur de φ. Ceci signifie que le dĂ©placement h est nĂ©cessairement orthogonal au gradient de φ en x0. C'est ainsi que se traduit le thĂ©orĂšme de Rolle, dans ce contexte. GĂ©omĂ©triquement, cela signifie que la courbe de niveau bleue et la ligne rouge sont tangentes au point recherchĂ©. Analytiquement cela se traduit par le fait que le noyau de la diffĂ©rentielle de ψ en x0 est orthogonal au gradient de φ en ce point.

Une approche intuitive du théorÚme

Il est peut-ĂȘtre utile, Ă  ce stade, de fournir une approche intuitive du thĂ©orĂšme, en se donnant un exemple ayant valeur gĂ©nĂ©rale. ConsidĂ©rons donc comme prĂ©cĂ©demment une fonction diffĂ©rentiable φ(x, y, z) de ℝ3 dans ℝ , dont on se propose de trouver les extrema sous l'unique contrainte ψ(x,y,z) = 0, avec ψ: ℝ3 → ℝ diffĂ©rentiable. On verra ensuite comment s'y prendre pour deux contraintes.

Rappelons d'abord que la diffĂ©rentielle de φ en un point M de l'espace s'Ă©crit

,

soit en notant φ' le vecteur

L'interprĂ©tation bien connue de ces relations est qu'un dĂ©placement infinitĂ©simal de vecteur dM au point M induit une variation infinitĂ©simale de la fonction φ, Ă©gale au produit scalaire de φ' (appelĂ© vecteur gradient de φ) avec dM.

ConsidĂ©rons maintenant la contrainte ψ(x,y,z) = 0, qui dĂ©finit une surface S dans l'espace, tout au moins localement[5]. Il est clair que le problĂšme revient Ă  trouver les points extremum de la restriction de φ Ă  S. La diffĂ©rentielle de ψ en un point M de l'espace s'Ă©crit, comme prĂ©cĂ©demment,

Cette relation est en particulier vraie si le point M est sur S. Mais supposons de plus qu'on astreigne le dĂ©placement infinitĂ©simal dM Ă  s'effectuer sur S ; alors puisque ψ est identiquement nulle sur S, il en est de mĂȘme de sa variation infinitĂ©simale sur S, et dM devra donc vĂ©rifier la relation

Vu que dM est quelconque sur S, cela signifie que ψ'(M) est orthogonal Ă  S au point M.

Maintenant, si la restriction de φ Ă  S est extrĂ©male au point M (ce que l'on cherche), alors pour tout dĂ©placement infinitĂ©simal dM en M s'effectuant sur S, la variation infinitĂ©simale correspondante de φ devra ĂȘtre nulle: on peut se contenter de ressentir ce fait, ou bien de s'appuyer sur l'homologie avec les fonctions d'une seule variable rĂ©elle, ou encore de le justifier formellement en considĂ©rant des courbes paramĂ©trĂ©es sur S passant par M et de vecteur dĂ©rivĂ© en M proportionnel Ă  dM[6].

Mathématiquement, cela signifie que

Ainsi, φ'(M) doit ĂȘtre orthogonal Ă  dM, tout comme l'est ψ'(M) d'aprĂšs ce qu'on a vu plus haut. Il revient au mĂȘme de dire que φ'(M) est colinĂ©aire Ă  ψ'(M)[7], ou bien

On peut Ă©crire cette relation sous la forme

Cette Ă©quation, alliĂ©e avec l'Ă©quation de contrainte originale ψ(M) = 0, constitue la mĂ©thode des multiplicateurs de Lagrange.

Dans le cas de deux contraintes ψ1(M) = 0 et ψ2(M) = 0, on a une intersection de deux surfaces de contraintes, c'est-Ă -dire une courbe 𝒞 en gĂ©nĂ©ral. Le problĂšme revient cette fois Ă  chercher les extrema de la restriction de φ Ă  𝒞. Le mĂȘme raisonnement que prĂ©cĂ©demment s'applique, mais dM sera cette fois astreint Ă  appartenir Ă  𝒞, c'est-Ă -dire Ă  ĂȘtre orthogonal au sous-espace T engendrĂ© par les vecteurs ψ'1(M) et ψ'2(M). Donc les points extremum seront les points M tels que φ'(M) ∈ T, ou bien

Comme précédemment, la méthode des multiplicateurs de Lagrange s'ensuit immédiatement.

Le mĂȘme raisonnement s'applique dans les espaces euclidiens de dimension n > 3, ou la fonction objectif est soumise Ă  au plus n–1 Ă©quations de contraintes Ă  n variables: il suffit de remplacer la notion de "surface" par celle d'"hyperplan".

ThéorÚmes

Le problÚme à résoudre est de trouver le minimum suivant :

Les fonctions φ et ψ ne sont pas nĂ©cessairement dĂ©finies sur tout E mais au moins sur des ouverts de E, oĂč elles sont supposĂ©es diffĂ©rentiables, avec Dψ(x0) surjective[8].

ThĂ©orĂšme des extrema liĂ©s — Si le point x0 est un extremum local de φ dans l'ensemble G, alors le noyau de la diffĂ©rentielle de ψ au point x0 est orthogonal au gradient de φ en ce point.

Plus simplement : au point x0, le noyau de Dψ(x0) est inclus dans celui de Dφ(x0), c'est-Ă -dire, d'aprĂšs les propriĂ©tĂ©s des formes linĂ©aires : Dφ(x0) est une combinaison linĂ©aire de Dψ1(x0), 
 , Dψm(x0), oĂč les ψj sont les composantes de ψ dans une base de F (voir supra). Autrement dit[2] - [3] :

.

Cette formulation plus simple[9] met en évidence le multiplicateur. Si l'on souhaite la réécrire en termes de gradients, il est nécessaire d'équiper F du produit scalaire tel que sa base soit orthonormale, le symbole t signifie la transposée d'une application linéaire ; elle définit une application du dual de F, ici identifié à F dans le dual de E, encore identifié à E :

Corollaire 1 — Si le point x0 est un extremum local de φ dans l'ensemble G et si la diffĂ©rentielle de ψ au point x0 est surjective, il existe un vecteur λ0 de F tel que :

.

Sous forme de coordonnées, on obtient :

Un deuxiÚme corollaire est plus pragmatique, car il offre une méthode effective pour déterminer l'extremum. Il correspond à la méthode utilisée dans l'exemple introductif.

Corollaire 2 — Si le point x0 est un extremum local de φ dans l'ensemble G et si la diffĂ©rentielle de ψ au point x0 est surjective, alors il existe un vecteur λ0 de F tel que la fonction L de E×F dans ℝ admet un gradient nul en (x0, λ0)[10] :

Ces thĂ©orĂšmes possĂšdent quelques faiblesses, de mĂȘme nature que celle du thĂ©orĂšme de Rolle. La condition est nĂ©cessaire, mais pas suffisante. Un point de dĂ©rivĂ©e nulle pour Rolle ou vĂ©rifiant les hypothĂšses du thĂ©orĂšme du multiplicateur de Lagrange n'est pas nĂ©cessairement un maximum ou un minimum. Ensuite, mĂȘme si ce point est un extremum, il n'est que local. Si une solution x0 est trouvĂ©e, rien n'indique que cet extremum local est le meilleur. L'approximation linĂ©aire ne prĂ©cise pas si cet optimum est un maximum ou un minimum. Enfin, comme pour le cas du thĂ©orĂšme de Rolle, si les domaines de dĂ©finition ne sont pas ouverts, il est possible qu'un point frontiĂšre soit un optimum qui ne vĂ©rifie pas le thĂ©orĂšme. Ainsi, sur la figure de gauche, f(a) et f(b) sont des minima mais la dĂ©rivĂ©e n'est nulle ni en a, ni en b.

Écriture du problùme

Si l'Ă©criture condensĂ©e permet de mieux comprendre la structure du thĂ©orĂšme, les notations dĂ©veloppĂ©es sont plus utiles pour une rĂ©solution effective. Dans la pratique, on considĂšre souvent une fonction φ de ℝn dans ℝ et m fonctions ψj, avec j variant de 1 Ă  m, aussi de ℝn dans ℝ. L'entier m est nĂ©cessairement plus petit que n pour pouvoir appliquer les thĂ©orĂšmes du paragraphe prĂ©cĂ©dent. On cherche Ă  trouver un n-uplet (a1, 
 , an) tel que

Pour cela, on dĂ©finit la fonction L de ℝn+m dans ℝ par :

Le deuxiĂšme corollaire indique une condition nĂ©cessaire pour Ă©lucider le problĂšme d'optimisation (1). Le n-uplet (a1, 
 , an) est une solution de (1) seulement s'il existe un m-uplet (α1, 
 , αm) tel que le (n + m)-uplet (a1, 
 , an, α1, 
 , αm) soit solution des n + m Ă©quations :

Cette mĂ©thode peut ĂȘtre gĂ©nĂ©ralisĂ©e aux problĂšmes d'optimisation incluant des contraintes d'inĂ©galitĂ©s (ou non linĂ©aires) en utilisant les conditions de Kuhn-Tucker. Mais Ă©galement sur des fonctions discrĂštes Ă  maximiser ou minimiser sous contraintes, moyennant un changement d'interprĂ©tation, en utilisant la mĂ©thode des multiplicateurs d'Everett (ou de Lagrange gĂ©nĂ©ralisĂ©s), plus volontiers appelĂ©e mĂ©thode des pĂ©nalitĂ©s.

Application : inégalité arithmético-géométrique

La mĂ©thode du multiplicateur de Lagrange permet de dĂ©montrer l'inĂ©galitĂ© arithmĂ©tico-gĂ©omĂ©trique[14]. On dĂ©finit les applications φ et ψ de ℝ+n dans ℝ par :

On remarque que l'ensemble G, composĂ© des n-uplets de coordonnĂ©es positives et de somme Ă©gale Ă  s est un compact de ℝn. Sur ce compact la fonction φ est continue, et donc elle admet nĂ©cessairement un maximum. Les deux fonctions φ et ψ sont bien de classe C1, il est donc possible d'utiliser le multiplicateur de Lagrange pour trouver ce maximum. Pour cela, on considĂšre la fonction L :

Une solution vérifie les équations :

On en dĂ©duit l'existence d'une unique solution, obtenue pour tous les xi Ă©gaux Ă  s/n = x et λ Ă©gal Ă  –(s/n)n–1, ce qui s'exprime, en remplaçant s par sa valeur :

La moyenne géométrique est inférieure à la moyenne arithmétique, l'égalité n'ayant lieu que si les xi sont tous égaux.

Le multiplicateur de Lagrange offre une démonstration alternative de l'inégalité arithmético-géométrique.

Espace fonctionnel

La méthode se généralise aux espaces fonctionnels. Un exemple est donné par la question de la chaßnette, qui revient à rechercher la position que prend, au repos, une chaßnette attachée à ses deux extrémités. L'optimisation correspond à la position offrant un potentiel minimal, la contrainte est donnée par la position des extrémités et la longueur de la chaßnette, supposée fixe. Cette méthode permet de trouver des plus courts chemins sous contrainte, ou encore des géodésiques. Le principe de Fermat ou celui de moindre action permet de résoudre de nombreuses questions à l'aide de cette méthode.

Exemple introductif : la chaĂźnette

Le viaduc de Garabit possÚde une arche dont la géométrie est celle d'une chaßnette.

ConsidĂ©rons donc une chaĂźnette soumise Ă  la gravitĂ© et recherchons son Ă©quilibre statique. La chaĂźnette est de longueur a et l'on suppose qu'elle est accrochĂ©e Ă  deux points d'abscisses –t0 et t0 et d'ordonnĂ©e nulle en ces deux points. Si son ordonnĂ©e est notĂ©e x, elle suit une courbe y = x(t) sur l'intervalle [–t0, t0], dont on se propose de calculer l'Ă©quation.

Dire qu'elle est Ă  l'Ă©quilibre revient Ă  dire que son potentiel Ί est minimal, oĂč :

Ici, α désigne une constante physique, en l'occurrence le produit de la gravitation terrestre g par la masse linéique de la chaßnette, supposée constante. La formule donnant la longueur d'un arc en fonction d'un paramétrage est donnée dans l'article Longueur d'un arc.

La chaĂźnette n'est pas supposĂ©e ĂȘtre Ă©lastique, elle vĂ©rifie donc la contrainte Κ, indiquant que sa longueur l0 n'est pas modifiĂ©e :

Si C1K(I) dĂ©signe l'ensemble des fonctions de [–t0, t0] dans ℝ, dĂ©rivables et de dĂ©rivĂ©es continues, nulles en –t0 et t0, le problĂšme revient Ă  rechercher la fonction x0 telle que

La similitude avec la situation prĂ©cĂ©dente est flagrante. Pour pouvoir appliquer des multiplicateurs de Lagrange, il faut donner un sens aux gradients de Ί et Κ. Dans le cas oĂč il existe deux fonctions de classe C2 de ℝ3 dans ℝ, notĂ©es φ et ψ, telles que

L'Ă©quation d'Euler-Lagrange affirme que

Dans le cas particulier oĂč les fonctions φ et ψ sont des fonctions de deux variables et ne dĂ©pendent pas de t, on obtient la formulation de Beltrami (cf. l'article « Équation d'Euler-Lagrange ») :

Dire que les deux gradients sont colinéaires revient à dire qu'il existe un réel λ, le multiplicateur de Lagrange, tel que

La résolution de cette équation différentielle est une chaßnette. La méthode du multiplicateur de Lagrange permet bien de résoudre la question posée[15].

Everett : cas des fonctions non continues, non dérivables

Hugh Everett généralise la méthode aux fonctions non dérivables, souvent choisies convexes. Pour une résolution effective, il devient nécessaire de disposer d'un algorithme déterminant l'optimum (ou les optima) d'une fonction. Dans le cas non dérivable, on peut utiliser une heuristique adéquate ou encore une méthode de Monte-Carlo.

Il faut ensuite réviser pour l'itération suivante les multiplicateurs (ou « pénalités ») de façon appropriée, et c'est là que se situe l'apport essentiel d'Everett : il mémorise les jeux de multiplicateurs utilisées lors des deux derniÚres itérations, et sépare en trois les résultats pour chaque contrainte. Selon que sur les deux derniÚres itérations il y a eu rapprochement de l'objectif, ou encadrement, ou encore éloignement (à cause de l'effet des autres multiplicateurs), chaque multiplicateur est ajusté pour l'itération suivante d'une façon qui garantit la convergence si une relation entre les trois ajustements, qu'il fournit, est observée.

Espace de Sobolev

L'exemple précédent montre que le contexte de l'équation d'Euler-Lagrange n'est pas loin de celui du multiplicateur de Lagrange. Si l'ensemble de départ de la fonction x(t) recherchée est un intervalle réel I ouvert et borné et l'ensemble d'arrivée E l'espace vectoriel euclidien, la généralisation est relativement aisée.

On suppose l'existence d'une fonction Ί Ă  minimiser, son ensemble de dĂ©part est un espace fonctionnel, c'est-Ă -dire un espace vectoriel de fonctions, de I dans E et son ensemble d'arrivĂ©e ℝ. La fonction Ί est construite de la maniĂšre suivante :

Le point sur le x indique la fonction gradient, qui Ă  t associe le gradient de x au point t.

La fonction φ est une fonction de ℝ×E2 dans ℝ de classe C2. L'optimisation est sous contrainte, donnĂ©e sous une forme analogue Ă  la prĂ©cĂ©dente. On suppose l'existence d'une fonction Κ de ℝ×E2 dans F, un espace euclidien. La fonction Κ est encore dĂ©finie Ă  l'aide d'une fonction ψ de classe C2 de I×E2, mais cette fois dans un espace euclidien F :

L'ensemble G est composé de fonctions deux fois dérivables de I dans E et dont l'image par Κ est nulle. On suppose de plus que les valeurs des fonctions de G aux bornes de I sont fixes et, quitte à opérer une translation, on peut toujours supposer, sans perte de généralité, que ces fonctions sont nulles aux bornes de I.

La seule tùche un peu délicate est de définir l'espace vectoriel W2,2(I, E) sur lequel opÚrent Ί et Κ. Pour définir un équivalent de gradient, cet espace comporte nécessairement un produit scalaire. Si l'on souhaite établir des théorÚmes équivalents aux précédents, les fonctions dérivée et dérivée seconde sont définies et l'espace est complet. Un espace muni d'un produit scalaire et complet est un Hilbert. Sa géométrie est, de fait, suffisamment riche pour étendre les résultats précédents.

On note D l'espace des fonctions de I, Ă  valeur dans E, de classe C∞ et Ă  support compact et D* son dual topologique. L'espace D est muni de la norme de la borne supĂ©rieure et l'espace D* est celui des distributions. Ce premier couple n'est pas encore satisfaisant car D est « trop petit » et D* « trop gros » pour permettre de dĂ©finir un bon produit scalaire, Ă  l'origine d'une gĂ©omĂ©trie aussi simple que celle d'un Hilbert.

L'espace D* contient l'espace de Hilbert L2(I, E) des fonctions de carrĂ© intĂ©grable. En effet une fonction f de L2(I, E) agit sur D par le produit scalaire 〈∙, ∙〉L dĂ©fini par l'intĂ©grale de Lebesgue :

C'est dans L2(I, E) que nous cherchons le bon espace. Dans cet espace, l'intégration par parties permet de définir la dérivée de la fonction f de L2(I). Comme g est à support compact et que I est ouvert, aux bornes de I, la fonction g est nulle. Si f est dérivable au sens classique du terme, on bénéficie des égalités :

Si la distribution dĂ©rivĂ©e de f est encore d'un Ă©lĂ©ment de L2(I, E), on dit qu'elle est dĂ©rivable au sens de Sobolev. Si cette dĂ©rivĂ©e est encore dĂ©rivable au sens prĂ©cĂ©dent, on dit qu'elle est deux fois dĂ©rivable au sens de Sobolev. On note W2,2(I, E) le sous-espace de L2(I, E) Ă©quipĂ© du produit scalaire 〈∙, ∙〉W suivant :

Les intégrales sont bien définies car elles correspondent au produit de deux éléments de L2(I, E). Il est ensuite simple de vérifier que l'espace est bien complet[16]. Enfin, si f est une fonction dérivable au sens des distributions, il existe un représentant continu de f[17]. Ainsi, tout élément de W2,2(I, E) admet un représentant continu et dont la dérivée admet aussi un représentant continu.

Équation d'Euler-Lagrange

La difficultĂ© est maintenant d'exprimer le gradient des fonctions Ί et Κ. L'Ă©quation d'Euler-Lagrange cherche dans un premier temps Ă  trouver des fonctions de classe C2 qui minimisent Ί. L'espace vectoriel sous-jacent est celui des fonctions d'un intervalle bornĂ© et de classe C2 et nulles aux bornes de l'intervalle. Sur cet espace, le calcul du gradient de Ί n'est guĂšre complexe, il donne aussi une idĂ©e de la solution ainsi que de la mĂ©thode pour y parvenir. En revanche, ce calcul est insuffisant dans le cas prĂ©sent. Avec le « bon » produit scalaire, l'espace des fonctions de classe C2 n'est pas complet, ce qui empĂȘche de disposer de la bonne gĂ©omĂ©trie permettant de dĂ©montrer la mĂ©thode du multiplicateur de Lagrange.

L'objectif est de généraliser un peu la démonstration pour permettre de disposer de l'égalité du gradient dans l'espace complet W2,2(I, E). Dans un premier temps, exprimons l'égalité qui définit la différentielle de Ί en un point x, qui représente une fonction de W2,2(I, E) :

L'application DΊx est une application linĂ©aire continue de W2,2(I, E) dans ℝ, c'est-Ă -dire un Ă©lĂ©ment du dual topologique de W2,2(I, E), que le produit scalaire permet d'identifier Ă  W2,2(I, E). L'Ă©galitĂ© prĂ©cĂ©dente devient :

Autrement dit, le gradient de Ί au point x est une fonction de L2(I, E) dans ℝ. De fait, ce gradient s'exprime Ă  l'aide de l'Ă©quation d'Euler-Lagrange :

Le gradient de Ί au point x est la fonction de I dans E, définie par

Si la fonction φ est en gĂ©nĂ©ral choisie au sens usuel de la dĂ©rivation, la fonction x(t) est une fonction de W2,2(I, E). Le symbole d/dt doit ĂȘtre pris au sens de la dĂ©rivĂ©e d'une distribution, qui n'est ici nĂ©cessairement une fonction de carrĂ© intĂ©grable, dĂ©finie presque partout.

Pour Κ, la logique est absolument identique, mais cette fois-ci, la fonction est Ă  valeurs dans F. En consĂ©quence, la dĂ©rivĂ©e partielle de ψ par rapport Ă  sa deuxiĂšme ou troisiĂšme variable n'est plus une application linĂ©aire de E dans ℝ mais de E dans F. Ainsi, la diffĂ©rentielle de Κ au point, une fonction x de I dans E, est une application de I dans l'espace L(E, F) des applications linĂ©aires de E dans F. La logique reste la mĂȘme.

La différentielle de Κ au point x est la fonction de I dans L(E, F) définie par

ThéorÚmes

Ce paragraphe est trÚs proche du précédent dans le cas de la dimension finie. Le problÚme à résoudre est de trouver le minimum suivant :

ThĂ©orĂšme du multiplicateur de Lagrange — Si le point x0 est un extremum local de Ί dans l'ensemble G, alors le noyau de la diffĂ©rentielle de Κ au point x0 est orthogonal au gradient de Ί en ce point.

On obtient les mĂȘmes corollaires, que l'on peut Ă©crire :

Corollaire — Si le point x0 est un extremum local de Ί dans l'ensemble G et si la diffĂ©rentielle de Κ au point x0 est surjective, alors il existe un vecteur λ0 de F tel que la fonction L de W2,2(I, E)×F dans ℝ admet un gradient nul en (x0, λ0) :

Cette Ă©quation s'Ă©crit encore :

Le signe d/dt doit ĂȘtre pris au sens de la dĂ©rivĂ©e des distributions. On obtient une solution faible, c'est-Ă -dire une fonction x dĂ©finie presque partout et dĂ©rivable dans un sens faible. En revanche, si une fonction x de classe C2 est solution du problĂšme de minimisation, comme ses dĂ©rivĂ©es premiĂšres et secondes sont des reprĂ©sentants de ses dĂ©rivĂ©es au sens faible, l'Ă©quation prĂ©cĂ©dente est encore vĂ©rifiĂ©e.

Application : ThéorÚme isopérimétrique

En répartissant uniformément la courbure de la frontiÚre on obtient l'optimal isopérimétrique.

On recherche la surface de plus grande aire, ayant une frontiĂšre de longueur Ă©gale Ă  2π. On remarque que la surface est nĂ©cessairement convexe, d'intĂ©rieur non vide. On considĂšre une droite coupant la surface en deux. Cette droite est utilisĂ©e comme axe d'un repĂšre orthonormal, dont les abscisses sont notĂ©es par la lettre t et les ordonnĂ©es par x. La frontiĂšre supĂ©rieure est paramĂ©trable en une courbe x(t) et, si le repĂšre est bien choisi, on peut prendre comme abscisse minimale –a et maximale a. On recherche alors une courbe x, dĂ©finie entre –a et a tel que l'aire A soit maximale :

On sait de plus que la demi-longueur de la frontiĂšre est Ă©gale Ă  π :

La recherche de la surface se traite aussi avec le multiplicateur de Lagrange. La mĂȘme astuce que celle utilisĂ©e dans l'exemple introductif montre, avec les notations usuelles :

On en déduit l'existence de valeurs λ et k telles que

En notant u = x – k, on obtient :

On trouve l'équation d'un demi-cercle de rayon λ ; la valeur λ est égale à 1 et k à 0[18].

Notes et références

  1. Joseph-Louis Lagrange, « ManiÚre plus simple et plus générale de faire usage de la formule de l'équilibre donnée dans la section deuxiÚme », dans Mécanique analytique, t. 1 (lire en ligne), p. 77-112.
  2. GrĂ©goire Allaire, Analyse numĂ©rique et optimisation, Ă©d. École polytechnique, (lire en ligne), p. 311.
  3. François Laudenbach, Calcul diffĂ©rentiel et intĂ©gral, Ă©d. École polytechnique, (lire en ligne), p. 89-90.
  4. Extrema liés - Multiplicateurs de Lagrange sur bibmath.net.
  5. Si l'on veut Ă©crire ce raisonnement sous forme rigoureuse, c'est lĂ  qu'intervient le thĂ©orĂšme des fonctions implicites et l'hypothĂšse que la diffĂ©rentielle de ψ ne s'annule pas. Il suffit ensuite de remplacer les dĂ©placements dM par des courbes paramĂ©trĂ©es s'appuyant sur la surface et passant par M.
  6. Si f(t) est une telle fonction, avec f(t0) = M, on a dM = df(t0) = f'(t0)dt. Comme φ(f(t)) est extrĂ©male en t0, sa dĂ©rivĂ©e s'annule en t0, donc φ'(f(t0)).f'(t0) = 0, ou de façon Ă©quivalente, φ'(M).dM = 0 comme prĂ©vu.
  7. En supposant toutefois ψ'(M) non nul, ce qui est le cas en gĂ©nĂ©ral. Aux points M oĂč ψ est singuliĂšre, il faudra recourir aux infiniments petits d'ordre 2.
  8. Raphaël Danchin, « Cours de Calcul différentiel en dimension finie », sur perso.math.u-pem.fr, , p. 45.
  9. ÉnoncĂ©e par D. Hoareau, « Cauchy-Schwarz par le calcul diffĂ©rentiel », sur megamaths, dans le cas particulier m = 1.
  10. On trouve ce corollaire dans (en) D. Klein, Lagrange Multipliers without Permanent Scarring, UC Berkeley.
  11. Pour une démonstration plus standard et plus courte, voir par exemple Sylvie Benzoni-Gavage, Calcul différentiel et équations différentielles, Dunod, , 2e éd. (lire en ligne), p. 105-106, ou « Extrema liés » sur Wikiversité.
  12. Voir par exemple M. Bierlaire, Introduction à l'optimisation différentiable, PPUR, (présentation en ligne, lire en ligne), ?.
  13. Elle est explicitée dans Hoareau 2003 dans le cas m = 1.
  14. Cet exemple est extrait de X. Gourdon, Analyse, Les maths en tĂȘte : MathĂ©matiques pour MP*, Ellipses, 2e Ă©d., 2008 (ISBN 2729837590).
  15. Cet exemple est traité dans C. Barreteau, Calcul des variations, ESPCI.
  16. Pour plus de détails voir L. Andry, Les espaces de Sobolev, EPFL.
  17. Haïm Brezis, Analyse fonctionnelle : théorie et applications [détail des éditions], p. 122, théorÚme VIII.2.
  18. Ce calcul est présenté, par exemple sur S. Mehl, Didon, Carthage, calcul des variations et multiplicateur de Lagrange, ChronoMath.

Voir aussi

Articles connexes

Bibliographie

  • (en) William P. Ziemer, Weakly differentiable functions : Sobolev spaces and functions of bounded variation, New York/Berlin/Paris etc., Springer, , 308 p. (ISBN 0-387-97017-7)
  • (en) B. D. Craven, « A generalization of Lagrange multipliers », Bull. Austral. Math. Soc., vol. 3,‎ , p. 353-362 (lire en ligne)
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.