Accueil🇫🇷Chercher

Algorithme proximal (optimisation)

En analyse numérique et plus précisément en optimisation mathématique, l'algorithme proximal (ou algorithme du point proximal) est un algorithme itératif de calcul d'un minimum d'une fonction convexe semi-continue inférieurement propre. Si la fonction n'est pas quadratique, chaque itération requiert la minimisation d'une fonction non linéaire fortement convexe. L'algorithme peut être vu comme une méthode de gradient implicite.

Certains algorithmes peuvent être interprétés comme des algorithmes proximaux. Il en est ainsi de la méthode des multiplicateurs (ou algorithme du lagrangien augmenté). Cette lecture permet alors d'en établir des propriétés de convergence, déduites de celles de l'algorithme proximal.

Le problème

Soient un espace de Hilbert, dont le produit scalaire est noté et la norme associée est notée , et une fonction convexe semi-continue inférieurement propre. On s'intéresse au problème de trouver un minimum de , c'est-à-dire un point tel que

Le problème revient à trouver une solution de l'inclusion

est le sous-différentiel de en , parce que cette inclusion est une condition nécessaire et suffisante d'optimalité du problème de minimisation. On montre que, sous les propriétés énoncées de , est un opérateur monotone maximal[1], ce qui permet de voir le problème comme un cas particulier de recherche de zéro d'opérateur monotone maximal et de voir l'algorithme proximal en optimisation comme un cas particulier de l'algorithme proximal pour la recherche de zéro de tels opérateurs.

L'algorithme

L'algorithme est en partie fondé sur le fait que, lorsque est convexe fermée propre et , la fonction

est fortement convexe, de module , fermée propre et a donc un minimiseur unique. Dans la description de l'algorithme ci-dessous, on note

Algorithme proximal On se donne un itéré initial . L'algorithme proximal définit une suite d'itérés , en calculant à partir de par

est un nombre réel pouvant être modifié à chaque itération.

Exprimé autrement, le calcul du nouvel itéré consiste à trouver l'unique solution de l'inclusion

ce qui s'écrit aussi

L'algorithme peut donc être vu comme une méthode de sous-gradient implicite (dans le sens où le sous-gradient est évalué au nouveau point – inconnu – et non pas en l'itéré courant ) avec pas . On voit aussi que chaque itération requiert la résolution d'un problème d'optimisation non linéaire (à moins que ne soit quadratique).

Pour expliquer le principe contre-intuitif de l'algorithme, puisque pour minimiser , il faut qu'à chaque itération, l'algorithme proximal minimise la fonction qui semble bien être aussi compliquée que , on peut remarquer les points suivants.

  1. La fonction à minimiser (à chaque itération, ne l'oublions pas) peut être plus attrayante que , du fait de sa forte convexité. Pour certains algorithmes, cette propriété est une aubaine, permettant d'accélérer leur convergence et de mieux la contrôler. Cette fonction a aussi un minimum unique, ce qui n'est pas nécessairement le cas de .
  2. Certains algorithmes de dualité peuvent être interprétés comme des algorithmes proximaux. Ces algorithmes de dualité s'appliquent en fait à des fonctions dont l'évaluation résulte de la minimisation d'une fonction (le lagrangien) et il n'est pas plus coûteux d'évaluer que de minimiser , qui revient à minimiser une autre fonction (le lagrangien augmenté). Ces algorithmes de dualité ont donc tout leur sens. Leur interprétation en termes d'algorithme proximal permet alors d'en obtenir des propriétés difficiles à mettre en évidence autrement.
  3. Observons que si et est séparable, c'est-à-dire si elle s'écrit comme suit



    où les sont de petites parties de l'ensemble des indices , il en est de même de . C'est une propriété intéressante lorsqu'on cherche à résoudre de grands problèmes par des techniques de décomposition.
  4. L'algorithme proximal a un effet stabilisant. Lorsque a plusieurs minimiseurs, l'algorithme génère une suite convergeant vers l'un d'entre eux. L'algorithme proximal est parfois utilisé pour stabiliser des algorithmes qui ne convergeraient pas sans modification lorsque le problème considéré devient singulier.

Résolution approchée

Le calcul de l'itéré suivant par est souvent coûteux en temps de calcul. Dès lors, l'on se contente souvent d'un calcul approché conservant toutefois les propriétés de convergence de l'algorithme idéal. On peut aussi arguer que ce calcul ne peut être réalisé exactement en arithmétique flottante. Différents critères ont donc été proposés pour déterminer ce qu'est une résolution approchée acceptable.

Critères d'arrêt de Rockafellar

Rockafellar (1976a) propose de se contenter d'un vérifiant

Ce critère requiert la connaissance complète du sous-différentiel , ce qui est rarement aisé. Cependant, si l'on connait un élément , le critère pourra être renforcé en y remplaçant par puisque .

On a le résultat de convergence faible suivant[2].

Convergence faible On suppose que est propre convexe fermée. On considère l'algorithme proximal avec le critère d'arrêt (R1) et uniformément positif. On note la suite générée par l'algorithme. Alors

  1. si n'a pas de minimiseur, n'est pas bornée,
  2. si a un minimiseur, converge faiblement vers un minimiseur de , (convergence forte dans ) et

Rockafellar (1976a) propose aussi un critère plus exigeant, celui dans lequel on requiert le calcul d'un vérifiant

On peut faire pour ce critère, la même remarque que celle faite pour le critère (R1), concernant le calcul du sous-différentiel .

On a alors le résultat de convergence forte suivant[3]. On y impose que soit localement radialement lipschitzienne de module en zéro, ce qui signifie que

D'autres expressions de cette propriété sont données dans le résultat, en termes de et de sa conjuguée .

Convergence forte On suppose que est propre convexe fermée, qu'elle a un unique minimiseur et que, pour une constante , elle vérifie l'une des propriétés équivalentes suivantes :

  • est localement radialement lipschitzienne en zéro de module ,
  • pour voisin de , on a ,
  • pour voisin de , on a .

On considère l'algorithme proximal avec le critère d'arrêt (R2) et des paramètres uniformément positifs. On suppose que la suite générée est bornée. Alors converge fortement et linéairement vers :

avec .

On note que si , alors et , ce qui implique qu'alors la suite converge superlinéairement vers .

Annexes

Notes

  1. La monotonie maximale du sous-différentiel d'une fonction convexe fermée propre est due à Minty (1964) et Moreau (1965).
  2. Théorème 4 chez Rockafellar (1976a).
  3. Réunion du théorème 2 et de la proposition 7 chez Rockafellar (1976a).

Lien externe

Bibliographie

  • (en) G.J. Minty (1964). On the monotonicity of the gradient of a convex function. Pacific Journal of Mathematics, 14, 243–247.
  • J.J. Moreau (1965). Proximité et dualité dans un espace hilbertien. Bulletin de la Société Mathématique de France, 93, 273–299.
  • (en) R.T. Rockafellar (1976a). Monotone operators and the proximal point algorithm. SIAM Journal on Control and Optimization, 14, 877–898.
  • (en) R.T. Rockafellar (1976b). Augmented Lagrangians and applications of the proximal point algorithm in convex programming. Mathematics of Operations Research, 1, 97-116.
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.