AccueilđŸ‡«đŸ‡·Chercher

PĂ©nalisation (optimisation)

En optimisation mathématique, la pénalisation est une technique permettant d'analyser et de résoudre analytiquement ou numériquement des problÚmes d'optimisation avec contraintes. Elle consiste à transformer le problÚme avec contraintes en un problÚme (cas de la pénalisation exacte) ou des problÚmes (cas de la pénalisation inexacte) d'optimisation sans contrainte ; le sens précis de cette phrase apparaßtra plus loin.

C'est un outil à la fois théorique et algorithmique.

  • En thĂ©orie, on peut l'utiliser pour dĂ©montrer l'existence de solution des problĂšmes d'optimisation avec contraintes, en Ă©tudier les propriĂ©tĂ©s, Ă©tablir des conditions d'optimalitĂ©, etc.
  • En algorithmique, cette approche permet de rĂ©soudre des problĂšmes avec contraintes en n'utilisant que des mĂ©thodes de l'optimisation sans contrainte ; cependant, Ă  moins que l'on ne spĂ©cifie l'algorithme de maniĂšre raffinĂ©e (comme dans les algorithmes de points intĂ©rieurs en optimisation linĂ©aire, quadratique et semi-dĂ©finie positive — qui peuvent ĂȘtre interprĂ©tĂ©s comme des algorithmes de pĂ©nalisation), c'est un peu la «mĂ©thode du pauvre», permettant d'obtenir des rĂ©sultats peu prĂ©cis mais avec peu d'effort.

Principes

DĂ©finition

Considérons le problÚme d'optimisation avec contrainte suivant

oĂč est une partie d'un ensemble et est une fonction dĂ©finie sur pouvant prendre des valeurs infinies. La pĂ©nalisation (sous entendu de la contrainte ) est une technique qui remplace le problĂšme par un ou des problĂšmes sans contrainte de la forme

oĂč est la fonction dĂ©finie en par

Dans cette expression, est en général un réel positif à ajuster, appelé facteur de pénalisation, et

est une fonction à spécifier, appelée fonction de pénalisation.

À ce niveau de gĂ©nĂ©ralitĂ©, rien ne permet de dire que les problĂšmes et ont un lien entre eux ; cela dĂ©pend de la fonction de pĂ©nalisation et du facteur de pĂ©nalisation. De maniĂšre Ă  rendre l'approche plus concrĂšte, donnons quelques exemples.

Fonction indicatrice

Si l'on est familier avec les fonctions pouvant prendre la valeur , on comprendra aisément qu'une fonction de pénalisation naturelle pour est la fonction indicatrice de :

Dans cette pĂ©nalisation, le facteur ne joue aucun rĂŽle (il multiplie zĂ©ro ou l'infini). Par ailleurs, les problĂšmes et sont alors Ă©quivalents, dans le sens oĂč ils ont les mĂȘmes solutions et les mĂȘmes valeurs optimales. On l'utilise souvent dans certains dĂ©veloppements thĂ©oriques pour prendre en compte simultanĂ©ment les problĂšmes avec () et sans () contraintes. NumĂ©riquement, cette pĂ©nalisation n'est guĂšre utile, car si l'itĂ©rĂ© courant est en dehors de l'adhĂ©rence de l'ensemble admissible, l'examen de dans le voisinage de cet itĂ©rĂ© ( y est Ă©gale Ă  ) n'apportera pas d'information sur la direction Ă  prendre pour trouver un point admissible.

Pénalisation de contraintes de positivité

ConsidĂ©rons d'abord le cas oĂč et l'ensemble est dĂ©fini par une contrainte de positivitĂ© :

est l'orthant positif de . La pénalisation logarithmique consiste à prendre comme fonction de pénalisation :

Cette pénalisation a été introduite par l'économiste Ragnar Frisch en 1955[1]. Il s'agit d'une pénalisation inexacte intérieure. Elle peut se généraliser, dans un sens bien précis (et compliqué), à des ensembles convexes (presque) arbitraires, via la notion de fonction auto-concordante (en).

Pénalisation de contraintes d'égalité

ConsidĂ©rons maintenant le cas oĂč l'ensemble est dĂ©fini par une contrainte d'Ă©galitĂ©

oĂč est une fonction Ă  valeurs dans un espace normĂ© , dont la norme est notĂ©e . Les deux fonctions et , dĂ©finies ci-dessous par leurs valeurs en , sont des fonctions de pĂ©nalisation que l'on rencontre souvent :

La fonction est mieux adaptée à un espace de Hilbert ; elle porte le nom de pénalisation quadratique. Ces deux fonctions de pénalisation conduisent à des propriétés trÚs différentes : la premiÚre donne lieu à une pénalisation exacte, la seconde à une pénalisation inexacte extérieure.

Pénalisation de contraintes d'inégalité

ConsidĂ©rons Ă  prĂ©sent le cas oĂč l'ensemble est dĂ©fini par des contraintes d'inĂ©galitĂ©

oĂč ( entier) et l'inĂ©galitĂ© se lit composante par composante : , ..., . Les deux fonctions et , dĂ©finies ci-dessous par leurs valeurs en , sont des fonctions de pĂ©nalisation que l'on utilise souvent :

oĂč est une norme arbitraire sur , est la norme euclidienne de et est pour le vecteur de dont la composante est . Comme ci-dessus, la pĂ©nalisation donne lieu Ă  une pĂ©nalisation exacte, tandis que correspond Ă  une pĂ©nalisation inexacte extĂ©rieure. Cette derniĂšre porte le nom de pĂ©nalisation quadratique.

Pénalisation de contraintes générales

Plus gĂ©nĂ©ralement, supposons que soit un ensemble convexe d'un espace normĂ© et que soit une fonction. On considĂšre ici le cas oĂč l'ensemble est dĂ©fini par

On retrouve les exemples précédents lorsque et est l'orthant négatif . Les généralisations à ce cadre des fonctions de pénalisation ou , d'une part, et ou , d'autre part, sont les fonctions suivantes

oĂč est la distance de Ă  l'ensemble . Ici aussi, la pĂ©nalisation donne lieu Ă  une pĂ©nalisation exacte, tandis que correspond Ă  une pĂ©nalisation inexacte extĂ©rieure.

PĂ©nalisations exacte et inexacte

La notion de pĂ©nalisation exacte est trĂšs utile, bien qu'elle ne soit pas trĂšs prĂ©cise ; plutĂŽt, elle requiert des prĂ©cisions supplĂ©mentaires dans les rĂ©sultats qui la mentionne. Le concept est attachĂ© au lien que l'on dĂ©sire Ă©tablir entre les problĂšmes et dĂ©finis ci-dessus. Une dĂ©finition pourrait ĂȘtre la suivante.

PĂ©nalisation exacte — On dit que la pĂ©nalisation rĂ©alisĂ©e dans est exacte si les solutions de sont solutions de . On dit que la pĂ©nalisation est inexacte dans le cas contraire.

Cette définition ne dit pas ce que l'on entend par solution : est-ce un minimum global, local, un point-stationnaire ? Aussi, faut-il que cette correspondance ait lieu entre toutes les solutions de et de ou pour une seule d'entre elles ? Les résultats qui affirment qu'une pénalisation est exacte précisent les réponses à ces questions. Ils précisent aussi les valeurs que doit prendre le facteur de pénalisation pour que la propriété d'exactitude soit vraie. Il arrive aussi que les solutions de soient solutions de , mais cette propriété est plus rare, à moins que l'on ne sélectionne parmi les solutions de , celles qui sont admissibles pour , c'est-à-dire qui sont dans l'ensemble admissible .

Lorsque la pénalisation est exacte, le lien entre les problÚmes d'optimisation et est clair : ces problÚmes ont des solutions en commun. DÚs lors, si l'on veut résoudre le problÚme avec contrainte , il suffit parfois de résoudre le problÚme sans contrainte . Cette propriété remarquable est contrebalancée par le fait qu'une fonction de pénalisation exacte est souvent non-différentiable (c'est le cas des fonctions de pénalisation , et données en exemples ci-dessus) ou contient des paramÚtres qui ne sont pas facilement calculables (comme un multiplicateur optimal dans le lagrangien augmenté).

Lorsque la pénalisation est inexacte, le lien entre les problÚmes d'optimisation et n'est pas nécessairement absent. Si la pénalisation est bien construite, le lien s'obtient asymptotiquement, en faisant tendre le paramÚtre de pénalisation vers une valeur limite, zéro ou l'infini. Numériquement, la résolution d'un problÚme d'optimisation par pénalisation inexacte se fera par la résolution d'une suite de problÚmes d'optimisation sans contrainte, en faisant tendre le paramÚtre de pénalisation vers sa limite. La nécessité de résoudre des problÚmes d'optimisation pour plusieurs valeurs de repose sur les raisons suivantes :

  • il ne suffit pas de donner Ă  sa valeur limite; si , il n'y a plus de terme de pĂ©nalisation dans , si bien que l'on ne tient plus compte des contraintes ; si , n'est pas bien dĂ©finie ;
  • il ne suffit pas de prendre un unique paramĂštre de pĂ©nalisation proche de sa valeur limite (proche de zĂ©ro ou trĂšs grand), car on ne peut pas dire a priori, si cela conduira Ă  une solution approchĂ©e de acceptable ;
  • lorsque le paramĂštre de pĂ©nalisation est proche de sa valeur limite, le problĂšme est en gĂ©nĂ©ral mal conditionnĂ©, si bien qu'il est numĂ©riquement difficile d'obtenir de la prĂ©cision sur les minimiseurs de , Ă  moins que le point de dĂ©part du processus de minimisation soit dĂ©jĂ  proche d'un tel minimiseur ; il est donc judicieux de se rapprocher d'une solution de sans trop s'Ă©carter du chemin dĂ©fini par les minimiseurs des problĂšmes (mĂ©thode de suivi de chemin).

Pénalisations extérieure et intérieure

Une pĂ©nalisation inexacte peut ĂȘtre extĂ©rieure ou intĂ©rieure.

Dans une pĂ©nalisation extĂ©rieure, la fonction de pĂ©nalisation est nulle sur, et uniquement sur, l'ensemble admissible . À l'extĂ©rieur de cet ensemble, prend des valeurs strictement positives. Comme on cherche Ă  minimiser , cette pĂ©nalisation force le minimiseur Ă  se rapprocher de l'ensemble admissible, d'autant plus que le facteur de pĂ©nalisation est grand. Dans cette approche, la fonction pĂ©nalise donc la violation des contraintes, d'autant plus que son argument est Ă©loignĂ© de l'ensemble admissible ; lorsque cet ensemble est dĂ©fini par des contraintes fonctionnelles, cet Ă©loignement est mesurĂ© par la valeur de ces contraintes fonctionnelles. Dans cette technique de pĂ©nalisation, les minimiseurs de sont en gĂ©nĂ©ral extĂ©rieurs Ă  l'ensemble admissible et on fait tendre vers pour trouver une solution de Ă  partir de celles de . Les fonctions , et donnĂ©es en exemples ci-dessus sont des fonctions de pĂ©nalisation extĂ©rieure.

Dans une pénalisation intérieure, ...

PĂ©nalisations inexactes

PĂ©nalisation du lagrangien

Annexes

Note

  1. (en) R. Frisch (1955, mai). The logarithmic potential method for convex programming with particular application to the dynamics of planning for national development. Memorandum, Institut d’Économie, UniversitĂ© d’Oslo, Oslo, NorvĂšge.

Article connexe

Lien externe

Références

  • (en) D. P. Bertsekas (1995), Nonlinear Programming. Athena Scientific. (ISBN 978-1-886529-14-4).
  • (en) J. F. Bonnans, J. Ch. Gilbert, C. LemarĂ©chal, C. SagastizĂĄbal (2006), Numerical Optimization - Theoretical and Numerical Aspects [dĂ©tail des Ă©ditions].
  • (en) J. Nocedal, S. J. Wright (2006), Numerical Optimization, Springer. (ISBN 978-0-387-30303-1).
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.