AccueilđŸ‡«đŸ‡·Chercher

Dualité (optimisation)

En thĂ©orie de l'optimisation, la dualitĂ© ou principe de dualitĂ© dĂ©signe le principe selon lequel les problĂšmes d'optimisation peuvent ĂȘtre vus de deux perspectives, le problĂšme primal ou le problĂšme dual, et la solution du problĂšme dual donne une borne infĂ©rieure Ă  la solution du problĂšme (de minimisation) primal[1]. Cependant, en gĂ©nĂ©ral les valeurs optimales des problĂšmes primal et dual ne sont pas forcĂ©ment Ă©gales : cette diffĂ©rence est appelĂ©e saut de dualitĂ©. Pour les problĂšmes en optimisation convexe, ce saut est nul sous contraintes.

ProblĂšme dual

Le terme de problĂšme dual renvoie gĂ©nĂ©ralement au problĂšme dual de Lagrange mais d'autres existent – comme le problĂšme dual de Wolfe ou de Fenchel. Le problĂšme dual de Lagrange est obtenu en Ă©crivant le Lagrangien d'un problĂšme de minimisation avec des multiplicateurs de Lagrange positifs pour ajouter les contraintes Ă  la fonction objectif puis en rĂ©solvant sur les variables primales qui minimisent la fonction objectif originale. Cette solution donne les variables primales comme fonctions des multiplicateurs de Lagrange, appelĂ©s variables duales, et le nouveau problĂšme consiste Ă  maximiser la fonction objectif sur les variables duales sont les contraintes dĂ©rivĂ©es sur ces variables duales (comptant au minimum les contraintes non nĂ©gatives).

En gĂ©nĂ©ral, avec deux paires d'espaces localement convexes sĂ©parĂ©s (X , X*) et (Y , Y*) et la fonction F : X → ℝ âˆȘ {+∞} , on peut dĂ©finir le problĂšme primal ainsi : dĂ©terminer vĂ©rifiant Ainsi, si existe, est le minimum de la fonction f et l'infimum (plus grand minorant) de la fonction est atteint.

S'il y a des contraintes, on peut modifier la fonction objectif f en avec Icontraintes une fonction convenable sur X qui atteint son minimum, Ă©gal Ă  0, quand les contraintes sont satisfaites, ce qui permet de prouver que . Cette derniĂšre condition est trivialement, mais pas toujours de façon idĂ©ale, satisfaite pour la fonction indicatrice (i.e. Icontraintes(x) = 0 avec x satisfaisant les contraintes et Icontraintes(x) = +∞ sinon). On Ă©tend alors en une fonction de perturbation F : X × Y → ℝ âˆȘ {+∞} telle que [2].

Le saut de dualité est la différence entre les deux termes de l'inégalité

oĂč F* est le conjuguĂ© convexe sur les deux variables et sup dĂ©signe le supremum (plus petit majorant)[2] - [3] - [4].

Saut de dualité

Le saut de dualitĂ© dĂ©signe la diffĂ©rence entre les valeurs prises par les problĂšmes primal et dual aux points solutions. Si d* est la valeur optimale duale et p* est la valeur primale optimale, le saut de dualitĂ© vaut p* – d*. Cette valeur est toujours positive ou nulle, et ne s'annule que si et seulement si les conditions de dualitĂ© forte sont vĂ©rifiĂ©es ; sinon, le saut est strictement positif et on parle de dualitĂ© faible[5].

En optimisation numérique, un autre saut de dualité est évoqué : la différence des valeurs entre une solution duale et la valeur d'une solution primale admissible mais sous-optimale. Ce saut alternatif quantifie la différence entre la valeur d'un itéré admissible mais sous-optimal pour le problÚme primal et la valeur du problÚme dual ; la valeur du problÚme dual est, sous conditions de régularité, égale à la valeur de relaxation convexe du problÚme primal : la relaxation convexe est le problÚme levé en remplaçant un ensemble admissible non convexe par son enveloppe convexe fermée et en remplaçant une fonction non convexe par sa fermeture convexe, ainsi la fonction a l'épigraphe qui est l'enveloppe convexe fermée de la fonction objectif primale d'origine[6] - [7] - [8] - [9] - [10] - [11] - [12] - [13] - [14] - [15] - [16].

Cas linéaire

Les problÚmes d'optimisation linéaire sont des problÚmes d'optimisation dans lesquels la fonction objectif et les contraintes sont toutes linéaires. Dans le problÚme primal, la fonction objectif est une combinaison linéaire de n variables. Il y a m contraintes, qui chacune place une majoration sur une combinaison linéaire des n variables. Le but est de maximiser la valeur de la fonction objectif soumise aux contraintes. Une solution sera alors un vecteur de n valeurs qui atteint le maximum possible pour la fonction objectif.

Dans le problÚme dual, la fonction objectif est une combinaison linéaire des m valeurs qui sont limites sur les m contraintes pour le problÚme primal. Il y a donc n contraintes duales, chacune plaçant une minoration sur une combinaison linéaire des m variables duales.

Relation entre les problĂšmes primal et dual

Dans le cas linéaire, pour le problÚme primal, pour chaque point sous-optimal satisfaisant toutes les contraintes, il y a une direction ou sous-espace de directions à déplacer qui augmente la valeur de la fonction objectif. Déplacer dans une de ces directions est supposé supprimer une erreur entre la solution candidate et une ou plusieurs contraintes. Une valeur non admissible de la solution candidate provoque un excÚs sur une ou plusieurs contraintes.

Dans le problÚme dual, le vecteur dual multiplie les contraintes qui déterminent les positions des contraintes dans le primal. Faire varier le vecteur dual dans le problÚme dual est équivalent à revoir les majorants du problÚme primal. Le plus petit majorant est recherché. Ainsi, le vecteur dual est minimisé de façon à diminuer la marge entre les positions candidates des contraintes et le véritable optimum. Une valeur non admissible du vecteur dual est une qui serait trop basse. Elle place les positions candidates d'une ou plusieurs contraintes dans une position qui exclut l'optimum recherché.

Cas non linéaire

En optimisation non linéaire, les contraintes ne sont pas nécessairement linéaires. Certaines idées directrices restent applicables.

Pour assurer que le maximum global d'un problÚme non linéaire soit facilement identifié, la formulation du problÚme demande souvent que les fonctions soient convexes et des ensembles faiblement compacts.

C'est ce qu'on retrouve à travers les conditions de Karush-Kuhn-Tucker. Elles donnent des conditions nécessaires pour identifier des optima locaux de problÚmes d'optimisation non linéaire. Il y a des conditions supplémentaires (qualifications de contrainte) qui sont nécessaires de sorte qu'il sera possible de définir la direction vers une solution optimale. Cette solution optimale sera un optimum local, pas forcément global.

Principe de Lagrange fort : dualité de Lagrange

Soit un problÚme d'optimisation non linéaire dans sa forme standard

dans le domaine non vide, le lagrangien est défini par

Les vecteurs λ et Îœ sont appelĂ©s variables duales ou vecteurs multiplicateurs de Lagrange associĂ©s au problĂšme. La fonction duale de Lagrange est dĂ©finie par :

La fonction duale g est concave, mĂȘme si le problĂšme initial n'est pas convexe, car c'est l'infimum ponctuel de fonctions affines. La fonction duale a des bornes infĂ©rieures sur la valeur optimale p* du problĂšme initial ; pour tout λ ≄ 0 et tout Îœ, on a g(λ , Îœ) ≀ p*.

Si une contrainte telle que la condition de Slater est vérifiée et que le problÚme original est convexe, on a alors une dualité forte :

.

ProblĂšmes convexes

Pour un problÚme de minimisation convexe avec contraintes d'inégalité,

on peut utiliser plusieurs versions du problĂšme dual :

ProblĂšme dual de Lagrange

oĂč la fonction objectif est la fonction duale de Lagrange. Sachant que les fonctions f et g1, ..., gm sont continĂ»ment dĂ©rivables, l'infimum est le point oĂč le gradient s'annule.

ProblĂšme dual de Wolfe

Ce problĂšme peut ĂȘtre difficile Ă  rĂ©soudre numĂ©riquement car la fonction objectif n'est pas concave en tout point (u,x). De mĂȘme, la contrainte d'Ă©galitĂ© est non linĂ©aire en gĂ©nĂ©ral, ainsi le problĂšme dual de Wolfe est typiquement un problĂšme d'optimisation non convexe. Dans tous les cas, on a une dualitĂ© faible[17].

ProblĂšme dual de Fenchel

Pour un problĂšme de minimisation

le problĂšme dual de Fenchel s'Ă©crit :

oĂč f * et les g*
j
désignent les conjuguées de Fenchel-Legendre respectives de f et gj :

Cette approche est notamment utilisée dans les algorithmes de lissage pour le traitement du signal et le traitement d'image[18].

Dans la littérature, il en est réguliÚrement fait mention sous le nom de dualité de Fenchel-Rockafellar. Pour plus de détails, voir la page Wikipédia anglaise : Fenchel's duality theorem.

Histoire

Selon George Dantzig, le théorÚme de dualité pour l'optimisation linéaire a été conjecturé par John von Neumann immédiatement aprÚs que Dantzig a présenté les problÚmes d'optimisation linéaire. Von Neumann note qu'il utilise l'information de sa théorie des jeux, et suppose qu'un jeu matriciel à deux personnes à somme nulle est équivalent à un problÚme d'optimisation linéaire. Des preuves rigoureuses ont d'abord été publiés en 1948 par Albert W. Tucker et son groupe (préambule de Dantzig à Nering et Tucker, 1993).

Voir aussi

Notes

  1. (en) Stephen P. Boyd et Lieven Vandenberghe, Convex Optimization, Cambridge University Press, , 716 p. (ISBN 978-0-521-83378-3, lire en ligne [PDF]), p. 216
  2. (en) Radu Ioan BoĆŁ, Gert Wanka et Sorin-Mihai Grad, Duality in Vector Optimization, Springer, (ISBN 978-3-642-02885-4)
  3. (en) Ernö Robert Csetnek, Overcoming the failure of the classical generalized interior-point regularity conditions in convex optimization. Applications of the duality theory to enlargements of maximal monotone operators, Logos Verlag Berlin GmbH, , 110 p. (ISBN 978-3-8325-2503-3, lire en ligne)
  4. (en) Constantin Zălinescu, Convex analysis in general vector spaces, River Edge, NJ, World Scientific PublishingCo.,Inc., , 106–113 p. (ISBN 981-238-067-1, MR 1921556), « J »
  5. (en) Jonathan Borwein et Qiji Zhu, Techniques of Variational Analysis, Springer, , 362 p. (ISBN 978-1-4419-2026-3)
  6. (en) Ravindra K. Ahuja, Thomas L. Magnanti et James B. Orlin, Network Flows : Theory, Algorithms and Applications, Englewood Cliffs (N. J.), Prentice Hall, , 846 p. (ISBN 0-13-617549-X)
  7. (en) Dimitri Bertsekas, Angelia Nedic et Asuman Ozdaglar, Convex Analysis and Optimization, Athena Scientific, (ISBN 1-886529-45-0)
  8. (en) Dimitri P. Bertsekas, Nonlinear Programming, Belmont, Mass., Athena Scientific, , 777 p. (ISBN 1-886529-00-0)
  9. (en) Dimitri P. Bertsekas, Convex Optimization Theory, Athena Scientific, , 246 p. (ISBN 978-1-886529-31-1)
  10. Jean-Frédéric Bonnans, Jean-Charles Gilbert, Claude Lemaréchal et Claudia A. Sagastizåbal, Optimisation Numérique : Aspects théoriques et pratiques, Berlin, Springer-Verlag, , xiv+490 (ISBN 978-3-540-63183-5, DOI 10.1007/978-3-540-35447-5, MR 2265882, lire en ligne)
  11. (en) Jean-Baptiste Hiriart-Urruty et Claude Lemaréchal, Convex Analysis and Minimization Algorithms I : Fundamentals, vol. 305, Berlin, Springer-Verlag, , xviii+417 (ISBN 3-540-56850-6, MR 1261420, lire en ligne)
  12. (en) Jean-Baptiste Hiriart-Urruty et Claude Lemaréchal, Convex Analysis and Minimization Algorithms II : Advanced Theory and Bundle Methods, vol. 306, Berlin, Springer-Verlag, , xviii+346 (ISBN 3-540-56852-2, MR 1295240, lire en ligne)
  13. Leon S. Lasdon, Optimization theory for large systems, Mineola, New York, Dover Publications, Inc., (1re Ă©d. Reprint of the 1970 Macmillan), xiii+523 (ISBN 978-0-486-41999-2, MR 1888251, lire en ligne)
  14. (en) Claude LemarĂ©chal, Computational combinatorial optimization: Papers from the Spring School held in Schloß Dagstuhl, May 15–19, 2000, vol. 2241, Berlin, Springer-Verlag, coll. « Lecture Notes in Computer Science (LNCS) », , 112–156 p. (ISBN 3-540-42877-1, DOI 10.1007/3-540-45586-8_4, MR 1900016), « Lagrangian relaxation »
  15. (en) Michel Minoux (Egon Balas (forward); Steven Vajda (trans) from the (1983 Paris: Dunod) French), Mathematical programming : Theory and algorithms, Chichester, A Wiley-Interscience Publication. John Wiley & Sons, Ltd., , xxviii+489 (ISBN 0-471-90170-9, MR 868279)
  16. Jeremy F. Shapiro, Mathematical programming : Structures and algorithms, New York, Wiley-Interscience John Wiley & Sons, , xvi+388 (ISBN 0-471-77886-9, MR 544669)
  17. Arthur M. Geoffrion, « Duality in Nonlinear Programming: A Simplified Applications-Oriented Development », SIAM Review, vol. 13, no 1,‎ , p. 1–37 (DOI 10.1137/1013001, JSTOR 2028848)
  18. (en) A. Chambolle et T. Pock., « A first-order primal-dual splitting algorithm for convex problems with applications to imaging », Journal of Mathematical Imaging and Vision, vol. 1, no 40,‎ , p. 120–145

Références

Ouvrages

  • (en) Ahuja, Ravindra K.; Magnanti, Thomas L.; and Orlin, James B., Network Flows : Theory, Algorithms and Applications, Englewood Cliffs (N. J.), Prentice Hall, , 846 p. (ISBN 0-13-617549-X)
  • Dimitri Bertsekas, Angelia Nedic et Asuman Ozdaglar, Convex Analysis and Optimization, Athena Scientific, (ISBN 1-886529-45-0)
  • (en) Dimitri P. Bertsekas, Nonlinear Programming, Belmont, Mass., Athena Scientific, , 2nd Ă©d., 777 p. (ISBN 1-886529-00-0)
  • Dimitri P. Bertsekas, Convex Optimization Theory, Athena Scientific, , 246 p. (ISBN 978-1-886529-31-1)
  • J. FrĂ©dĂ©ric Bonnans, J. Charles Gilbert, Claude LemarĂ©chal et Claudia A. SagastizĂĄbal, Numerical optimization: Theoretical and practical aspects, Berlin, Springer-Verlag, coll. « Universitext », , xiv+490 (ISBN 3-540-35445-X, DOI 10.1007/978-3-540-35447-5, MR 2265882, lire en ligne)
  • (en) William J. Cook, William H. Cunningham, William R. Pulleyblank et Alexander Schrijver, Combinatorial Optimization, New York/Chichester/Weinheim etc., John Wiley & Sons, , 1st Ă©d., 355 p. (ISBN 0-471-55894-X)
  • George B. Dantzig, Linear Programming and Extensions, Princeton, NJ, Princeton University Press,
  • (en) Jean-Baptiste Hiriart-Urruty et Claude LemarĂ©chal, Convex analysis and minimization algorithms, Volume I: Fundamentals, vol. 305, Berlin, Springer-Verlag, coll. « Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences] », , xviii+417 (ISBN 3-540-56850-6, MR 1261420, lire en ligne)
  • (en) Jean-Baptiste Hiriart-Urruty et Claude LemarĂ©chal, Convex analysis and minimization algorithms, Volume II: Advanced theory and bundle methods, vol. 306, Berlin, Springer-Verlag, coll. « Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences] », , xviii+346 (ISBN 3-540-56852-2, MR 1295240, lire en ligne), « 14 Duality for Practitioners »
  • Leon S. Lasdon, Optimization theory for large systems, Mineola, New York, Dover Publications, Inc., (1re Ă©d. Reprint of the 1970 Macmillan), xiii+523 (ISBN 978-0-486-41999-2, MR 1888251, lire en ligne)
  • (en) Eugene Lawler, Combinatorial Optimization : Networks and Matroids, Mineola (N.Y.), Dover, , 117–120 p. (ISBN 0-486-41453-1, lire en ligne), « 4.5. Combinatorial Implications of Max-Flow Min-Cut Theorem, 4.6. Linear Programming Interpretation of Max-Flow Min-Cut Theorem »
  • (en) Claude LemarĂ©chal, Computational combinatorial optimization: Papers from the Spring School held in Schloß Dagstuhl, May 15–19, 2000, vol. 2241, Berlin, Springer-Verlag, coll. « Lecture Notes in Computer Science (LNCS) », , 112–156 p. (ISBN 3-540-42877-1, DOI 10.1007/3-540-45586-8_4, MR 1900016), « Lagrangian relaxation »
  • (en) Michel Minoux (Egon Balas (forward); Steven Vajda (trans) from the (1983 Paris: Dunod) French), Mathematical programming : Theory and algorithms, Chichester, A Wiley-Interscience Publication. John Wiley & Sons, Ltd., , xxviii+489 (ISBN 0-471-90170-9, MR 868279)
  • Evar D. Nering et Albert W. Tucker, Linear Programming and Related Problems, Boston, MA, Academic Press, , 584 p. (ISBN 978-0-12-515440-6, lire en ligne)
  • (en) Christos H. Papadimitriou et Kenneth Steiglitz, Combinatorial Optimization : Algorithms and Complexity, Mineola (N.Y.), Dover, , Unabridged Ă©d., 496 p. (ISBN 0-486-40258-4, lire en ligne)
  • Andrzej RuszczyƄski, Nonlinear Optimization, Princeton, NJ, Princeton University Press, , xii+454 (ISBN 978-0-691-11915-1, MR 2199043, lire en ligne)

Articles

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.