PĂ©nalisation (optimisation)
En optimisation mathématique, la pénalisation est une technique permettant d'analyser et de résoudre analytiquement ou numériquement des problÚmes d'optimisation avec contraintes. Elle consiste à transformer le problÚme avec contraintes en un problÚme (cas de la pénalisation exacte) ou des problÚmes (cas de la pénalisation inexacte) d'optimisation sans contrainte ; le sens précis de cette phrase apparaßtra plus loin.
C'est un outil à la fois théorique et algorithmique.
- En théorie, on peut l'utiliser pour démontrer l'existence de solution des problÚmes d'optimisation avec contraintes, en étudier les propriétés, établir des conditions d'optimalité, etc.
- En algorithmique, cette approche permet de rĂ©soudre des problĂšmes avec contraintes en n'utilisant que des mĂ©thodes de l'optimisation sans contrainte ; cependant, Ă moins que l'on ne spĂ©cifie l'algorithme de maniĂšre raffinĂ©e (comme dans les algorithmes de points intĂ©rieurs en optimisation linĂ©aire, quadratique et semi-dĂ©finie positive â qui peuvent ĂȘtre interprĂ©tĂ©s comme des algorithmes de pĂ©nalisation), c'est un peu la «mĂ©thode du pauvre», permettant d'obtenir des rĂ©sultats peu prĂ©cis mais avec peu d'effort.
Principes
DĂ©finition
Considérons le problÚme d'optimisation avec contrainte suivant
oĂč est une partie d'un ensemble et est une fonction dĂ©finie sur pouvant prendre des valeurs infinies. La pĂ©nalisation (sous entendu de la contrainte ) est une technique qui remplace le problĂšme par un ou des problĂšmes sans contrainte de la forme
oĂč est la fonction dĂ©finie en par
Dans cette expression, est en général un réel positif à ajuster, appelé facteur de pénalisation, et
est une fonction à spécifier, appelée fonction de pénalisation.
à ce niveau de généralité, rien ne permet de dire que les problÚmes et ont un lien entre eux ; cela dépend de la fonction de pénalisation et du facteur de pénalisation. De maniÚre à rendre l'approche plus concrÚte, donnons quelques exemples.
Fonction indicatrice
Si l'on est familier avec les fonctions pouvant prendre la valeur , on comprendra aisément qu'une fonction de pénalisation naturelle pour est la fonction indicatrice de :
Dans cette pĂ©nalisation, le facteur ne joue aucun rĂŽle (il multiplie zĂ©ro ou l'infini). Par ailleurs, les problĂšmes et sont alors Ă©quivalents, dans le sens oĂč ils ont les mĂȘmes solutions et les mĂȘmes valeurs optimales. On l'utilise souvent dans certains dĂ©veloppements thĂ©oriques pour prendre en compte simultanĂ©ment les problĂšmes avec () et sans () contraintes. NumĂ©riquement, cette pĂ©nalisation n'est guĂšre utile, car si l'itĂ©rĂ© courant est en dehors de l'adhĂ©rence de l'ensemble admissible, l'examen de dans le voisinage de cet itĂ©rĂ© ( y est Ă©gale Ă ) n'apportera pas d'information sur la direction Ă prendre pour trouver un point admissible.
Pénalisation de contraintes de positivité
ConsidĂ©rons d'abord le cas oĂč et l'ensemble est dĂ©fini par une contrainte de positivitĂ© :
est l'orthant positif de . La pénalisation logarithmique consiste à prendre comme fonction de pénalisation :
Cette pénalisation a été introduite par l'économiste Ragnar Frisch en 1955[1]. Il s'agit d'une pénalisation inexacte intérieure. Elle peut se généraliser, dans un sens bien précis (et compliqué), à des ensembles convexes (presque) arbitraires, via la notion de fonction auto-concordante (en).
Pénalisation de contraintes d'égalité
ConsidĂ©rons maintenant le cas oĂč l'ensemble est dĂ©fini par une contrainte d'Ă©galitĂ©
oĂč est une fonction Ă valeurs dans un espace normĂ© , dont la norme est notĂ©e . Les deux fonctions et , dĂ©finies ci-dessous par leurs valeurs en , sont des fonctions de pĂ©nalisation que l'on rencontre souvent :
La fonction est mieux adaptée à un espace de Hilbert ; elle porte le nom de pénalisation quadratique. Ces deux fonctions de pénalisation conduisent à des propriétés trÚs différentes : la premiÚre donne lieu à une pénalisation exacte, la seconde à une pénalisation inexacte extérieure.
Pénalisation de contraintes d'inégalité
ConsidĂ©rons Ă prĂ©sent le cas oĂč l'ensemble est dĂ©fini par des contraintes d'inĂ©galitĂ©
oĂč ( entier) et l'inĂ©galitĂ© se lit composante par composante : , ..., . Les deux fonctions et , dĂ©finies ci-dessous par leurs valeurs en , sont des fonctions de pĂ©nalisation que l'on utilise souvent :
oĂč est une norme arbitraire sur , est la norme euclidienne de et est pour le vecteur de dont la composante est . Comme ci-dessus, la pĂ©nalisation donne lieu Ă une pĂ©nalisation exacte, tandis que correspond Ă une pĂ©nalisation inexacte extĂ©rieure. Cette derniĂšre porte le nom de pĂ©nalisation quadratique.
Pénalisation de contraintes générales
Plus gĂ©nĂ©ralement, supposons que soit un ensemble convexe d'un espace normĂ© et que soit une fonction. On considĂšre ici le cas oĂč l'ensemble est dĂ©fini par
On retrouve les exemples précédents lorsque et est l'orthant négatif . Les généralisations à ce cadre des fonctions de pénalisation ou , d'une part, et ou , d'autre part, sont les fonctions suivantes
oĂč est la distance de Ă l'ensemble . Ici aussi, la pĂ©nalisation donne lieu Ă une pĂ©nalisation exacte, tandis que correspond Ă une pĂ©nalisation inexacte extĂ©rieure.
PĂ©nalisations exacte et inexacte
La notion de pĂ©nalisation exacte est trĂšs utile, bien qu'elle ne soit pas trĂšs prĂ©cise ; plutĂŽt, elle requiert des prĂ©cisions supplĂ©mentaires dans les rĂ©sultats qui la mentionne. Le concept est attachĂ© au lien que l'on dĂ©sire Ă©tablir entre les problĂšmes et dĂ©finis ci-dessus. Une dĂ©finition pourrait ĂȘtre la suivante.
PĂ©nalisation exacte â On dit que la pĂ©nalisation rĂ©alisĂ©e dans est exacte si les solutions de sont solutions de . On dit que la pĂ©nalisation est inexacte dans le cas contraire.
Cette définition ne dit pas ce que l'on entend par solution : est-ce un minimum global, local, un point-stationnaire ? Aussi, faut-il que cette correspondance ait lieu entre toutes les solutions de et de ou pour une seule d'entre elles ? Les résultats qui affirment qu'une pénalisation est exacte précisent les réponses à ces questions. Ils précisent aussi les valeurs que doit prendre le facteur de pénalisation pour que la propriété d'exactitude soit vraie. Il arrive aussi que les solutions de soient solutions de , mais cette propriété est plus rare, à moins que l'on ne sélectionne parmi les solutions de , celles qui sont admissibles pour , c'est-à -dire qui sont dans l'ensemble admissible .
Lorsque la pénalisation est exacte, le lien entre les problÚmes d'optimisation et est clair : ces problÚmes ont des solutions en commun. DÚs lors, si l'on veut résoudre le problÚme avec contrainte , il suffit parfois de résoudre le problÚme sans contrainte . Cette propriété remarquable est contrebalancée par le fait qu'une fonction de pénalisation exacte est souvent non-différentiable (c'est le cas des fonctions de pénalisation , et données en exemples ci-dessus) ou contient des paramÚtres qui ne sont pas facilement calculables (comme un multiplicateur optimal dans le lagrangien augmenté).
Lorsque la pénalisation est inexacte, le lien entre les problÚmes d'optimisation et n'est pas nécessairement absent. Si la pénalisation est bien construite, le lien s'obtient asymptotiquement, en faisant tendre le paramÚtre de pénalisation vers une valeur limite, zéro ou l'infini. Numériquement, la résolution d'un problÚme d'optimisation par pénalisation inexacte se fera par la résolution d'une suite de problÚmes d'optimisation sans contrainte, en faisant tendre le paramÚtre de pénalisation vers sa limite. La nécessité de résoudre des problÚmes d'optimisation pour plusieurs valeurs de repose sur les raisons suivantes :
- il ne suffit pas de donner à sa valeur limite; si , il n'y a plus de terme de pénalisation dans , si bien que l'on ne tient plus compte des contraintes ; si , n'est pas bien définie ;
- il ne suffit pas de prendre un unique paramÚtre de pénalisation proche de sa valeur limite (proche de zéro ou trÚs grand), car on ne peut pas dire a priori, si cela conduira à une solution approchée de acceptable ;
- lorsque le paramÚtre de pénalisation est proche de sa valeur limite, le problÚme est en général mal conditionné, si bien qu'il est numériquement difficile d'obtenir de la précision sur les minimiseurs de , à moins que le point de départ du processus de minimisation soit déjà proche d'un tel minimiseur ; il est donc judicieux de se rapprocher d'une solution de sans trop s'écarter du chemin défini par les minimiseurs des problÚmes (méthode de suivi de chemin).
Pénalisations extérieure et intérieure
Une pĂ©nalisation inexacte peut ĂȘtre extĂ©rieure ou intĂ©rieure.
Dans une pénalisation extérieure, la fonction de pénalisation est nulle sur, et uniquement sur, l'ensemble admissible . à l'extérieur de cet ensemble, prend des valeurs strictement positives. Comme on cherche à minimiser , cette pénalisation force le minimiseur à se rapprocher de l'ensemble admissible, d'autant plus que le facteur de pénalisation est grand. Dans cette approche, la fonction pénalise donc la violation des contraintes, d'autant plus que son argument est éloigné de l'ensemble admissible ; lorsque cet ensemble est défini par des contraintes fonctionnelles, cet éloignement est mesuré par la valeur de ces contraintes fonctionnelles. Dans cette technique de pénalisation, les minimiseurs de sont en général extérieurs à l'ensemble admissible et on fait tendre vers pour trouver une solution de à partir de celles de . Les fonctions , et données en exemples ci-dessus sont des fonctions de pénalisation extérieure.
Dans une pénalisation intérieure, ...
PĂ©nalisations inexactes
PĂ©nalisation du lagrangien
Annexes
Note
- (en) R. Frisch (1955, mai). The logarithmic potential method for convex programming with particular application to the dynamics of planning for national development. Memorandum, Institut dâĂconomie, UniversitĂ© dâOslo, Oslo, NorvĂšge.
Article connexe
Lien externe
- J. Ch. Gilbert, ĂlĂ©ments d'Optimisation DiffĂ©rentiable â ThĂ©orie et Algorithmes, syllabus de cours Ă l'ENSTA ParisTech, Paris.
Références
- (en) D. P. Bertsekas (1995), Nonlinear Programming. Athena Scientific. (ISBN 978-1-886529-14-4).
- (en) J. F. Bonnans, J. Ch. Gilbert, C. Lemaréchal, C. Sagastizåbal (2006), Numerical Optimization - Theoretical and Numerical Aspects [détail des éditions].
- (en) J. Nocedal, S. J. Wright (2006), Numerical Optimization, Springer. (ISBN 978-0-387-30303-1).