Accueil🇫🇷Chercher

Saut de dualité

En théorie de l'optimisation, le saut de dualité est la différence entre les solutions primale et duale.

Définitions

On considère un problème d'optimisation

Si d* est la valeur optimale duale et p* la valeur optimale primale alors le saut de dualité vaut p* - d*. Cette valeur est toujours positive (pour les problèmes de minimisation) et s'annule si et seulement si la dualité forte est vérifiée, sinon on parle de dualité faible[1].

En général, pour deux paires d'espaces localement convexes séparés et , en posant , on peut écrire le problème primal comme

Pour un problème sous contraintes, on peut corriger f par f + Icontraintes avec I est la fonction indicatrice de l'espace des contraintes. Soit alors une fonction de perturbation telle que . Le saut de dualité est alors donné par

avec F* la fonction conjuguée selon les deux variables[2] - [3] - [4].

En optimisation calculatoire, un autre "saut de dualité" est souvent évoqué, qui est la différence de valeurs entre toute solution duale et la valeur d'un itéré réalisable mais sous-optimal du problème primal. Ce "saut de dualité" quantifie la discrépance entre la valeur d'un itéré courant réalisable mais sous-optimal du problème primal et la valeur du problème dual ; cette dernière est, sous des conditions de régularité, égale à la valeur de la relaxation convexe du problème primal : la relaxation convexe est le problème apparaissant en remplaçant un ensemble non convexe réalisable avec son enveloppe convexe fermée et une fonction non convexe par sa fermeture convexe, soit la fonction dont l'épigraphe est l'enveloppe convexe fermée de la fonction objectif primale originale[5] - [6] - [7] - [8] - [9] - [10] - [11] - [12] - [13].

Exemples

Programmation linéaire sur espace non convexe

On considère le problème de minimisation

Le maximum est atteint en p* =f(1,0,0) = 7. Par la méthode de la relaxation lagrangienne, on définit le lagrangien

à partir duquel on construit le problème dual

Références

  1. Jonathan Borwein et Qiji Zhu, Techniques of Variational Analysis, Springer, (ISBN 978-1-4419-2026-3)
  2. Radu Ioan Boţ, Gert Wanka et Sorin-Mihai Grad, Duality in Vector Optimization, Springer, (ISBN 978-3-642-02885-4)
  3. Ernö Robert Csetnek, Overcoming the failure of the classical generalized interior-point regularity conditions in convex optimization. Applications of the duality theory to enlargements of maximal monotone operators, Logos Verlag Berlin GmbH, (ISBN 978-3-8325-2503-3)
  4. C. Zălinescu, Convex analysis in general vector spaces, River Edge, NJ, World Scientific Publishing Co. Inc, , 106–113 (ISBN 981-238-067-1, MR 1921556, lire en ligne Accès limité)
  5. Ravindra K. Ahuja, Thomas L. Magnanti et James B. Orlin, Network Flows: Theory, Algorithms and Applications, Prentice Hall, (ISBN 0-13-617549-X)
  6. Dimitri P. Bertsekas, Nonlinear Programming, Athena Scientific, , 2nd éd. (ISBN 1-886529-00-0)
  7. J. Frédéric Bonnans, J. Charles Gilbert, Claude Lemaréchal et Claudia A. Sagastizábal, Numerical optimization: Theoretical and practical aspects, Berlin, Springer-Verlag, coll. « Universitext », , Second revised ed. of translation of 1997 French éd., xiv+490 (ISBN 3-540-35445-X, DOI 10.1007/978-3-540-35447-5, MR 2265882, lire en ligne)
  8. Jean-Baptiste Hiriart-Urruty et Claude Lemaréchal, Convex analysis and minimization algorithms, Volume I: Fundamentals, vol. 305, Berlin, Springer-Verlag, coll. « Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences] », , xviii+417 (ISBN 3-540-56850-6, MR 1261420)
  9. Jean-Baptiste Hiriart-Urruty et Claude Lemaréchal, Convex analysis and minimization algorithms, Volume II: Advanced theory and bundle methods, vol. 306, Berlin, Springer-Verlag, coll. « Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences] », , xviii+346 (ISBN 3-540-56852-2, DOI 10.1007/978-3-662-06409-2_4, MR 1295240), « XII. Abstract Duality for Practitioners »
  10. Leon S. Lasdon, Optimization theory for large systems, Mineola, New York, Dover Publications, Inc., (1re éd. Reprint of the 1970 Macmillan), xiii+523 (ISBN 978-0-486-41999-2, MR 1888251)
  11. Claude Lemaréchal et Naddef, Denis, Computational combinatorial optimization: Papers from the Spring School held in Schloß Dagstuhl, May 15–19, 2000, vol. 2241, Berlin, Springer-Verlag, coll. « Lecture Notes in Computer Science (LNCS) », , 112–156 p. (ISBN 3-540-42877-1, DOI 10.1007/3-540-45586-8_4, MR 1900016), « Lagrangian relaxation »
  12. Minoux, Michel., Programmation mathématique : théorie et algorithmes, Editions Technique & Documentation, (ISBN 978-2-7430-1000-3, OCLC 261201111, MR 2571910)
  13. Jeremy F. Shapiro, Mathematical programming: Structures and algorithms, New York, Wiley-Interscience [John Wiley & Sons], , xvi+388 (ISBN 0-471-77886-9, MR 544669, lire en ligne)
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.