AccueilđŸ‡«đŸ‡·Chercher

Algorithme proximal

En analyse numérique, l'algorithme proximal (ou algorithme du point proximal) est un algorithme itératif de calcul d'un zéro d'un opérateur monotone maximal. Si cet opérateur est non linéaire, chaque itération requiert la résolution d'un problÚme non linéaire.

Lorsqu'on l'applique Ă  l'optimisation convexe, l'algorithme peut ĂȘtre vu comme une mĂ©thode de sous-gradient implicite.

Certains algorithmes peuvent ĂȘtre interprĂ©tĂ©s comme des algorithmes proximaux — il en est ainsi de l'algorithme du lagrangien augmentĂ© (ou mĂ©thode des multiplicateurs) — ce qui permet d'en Ă©tablir des propriĂ©tĂ©s de convergence.

Le problĂšme

ÉnoncĂ©

Soient un espace de Hilbert, dont le produit scalaire est noté et la norme associée est notée , et un opérateur monotone maximal (le signe signale qu'il s'agit d'une multifonction). On s'intéresse au problÚme de trouver un zéro de , c'est-à-dire un point tel que l'ensemble contienne zéro :

Lorsque est univoque, le problĂšme devient celui de trouver une solution de l'Ă©quation .

Exemples

Optimisation

Le problÚme d'optimisation qui consiste à minimiser une fonction convexe fermée propre sur un espace de Hilbert revient à résoudre l'inclusion , c'est-à-dire à trouver un zéro de son sous-différentiel , qui est un opérateur monotone maximal[1]. Cette observation est à la base de l'algorithme proximal primal en optimisation. On peut aussi introduire un algorithme proximal dual en utilisant le sous-différentiel concave de la fonction duale et un algorithme proximal primal-dual en utilisant le sous-différentiel convexe-concave du lagrangien[2]. Les algorithmes proximaux en optimisation sont présentés ailleurs.

Inéquation variationnelle

Soient un espace de Hilbert dont le produit scalaire est noté , un convexe fermé non vide de et un opérateur univoque monotone (non nécessairement maximal) hémi-continu contenant dans son domaine. On considÚre le problÚme qui consiste à trouver un point vérifiant

Ce problÚme s'écrit sous la forme en utilisant l'opérateur suivant

oĂč est le cĂŽne normal Ă  en (si , est vide et donc aussi ). On montre que, sous les hypothĂšses Ă©noncĂ©es sur et , est monotone maximal[3]. Les algorithmes proximaux pour la rĂ©solution d'inĂ©quations variationnelles sont prĂ©sentĂ©s ailleurs.

L'algorithme

L'algorithme est en partie fondé sur le fait que, lorsque est monotone maximal et , l'opérateur

est non expansif (donc univoque) et de domaine [4].

Algorithme proximal — On se donne un itĂ©rĂ© initial . L'algorithme proximal dĂ©finit une suite d'itĂ©rĂ©s , en calculant Ă  partir de par

oĂč est un nombre rĂ©el pouvant ĂȘtre modifiĂ© Ă  chaque itĂ©ration.

Exprimé autrement, le calcul de l'itéré consiste à trouver l'unique solution de

En toute gĂ©nĂ©ralitĂ©, cette opĂ©ration est non linĂ©aire (Ă  moins que ne soit linĂ©aire). Cette Ă©quation montre aussi que, mĂȘme si , les itĂ©rĂ©s suivants sont dans le domaine de .

On peut s'interroger sur la pertinence de l'algorithme proximal. En effet, pour rĂ©soudre le problĂšme original (non linĂ©aire) , on est amenĂ© Ă  rĂ©soudre une suite de problĂšmes auxiliaires (non linĂ©aires) , qui sont apparemment aussi difficiles Ă  rĂ©soudre que le problĂšme original. Cette critique, en apparence rĂ©dhibitoire, doit ĂȘtre relativisĂ©e Ă  la lumiĂšre des remarques suivantes.

  1. L'univocité et le domaine étendu de l'opérateur , propriétés non nécessairement partagées par , rendent souvent les problÚmes auxiliaires plus aisés à résoudre que le problÚme original.
  2. Certains algorithmes (méthode des multiplicateurs, techniques de décomposition) s'écrivent naturellement sous la forme d'un algorithme proximal. Celui-ci est alors une interprétation de l'algorithme permettant d'en analyser les propriétés, en particulier la convergence.

Résolution approchée

Le calcul de l'itĂ©rĂ© suivant par est souvent coĂ»teux en temps de calcul. DĂšs lors, l'on se contente souvent d'un calcul approchĂ© conservant toutefois les propriĂ©tĂ©s de convergence de l'algorithme idĂ©al. On peut aussi arguer que ce calcul ne peut ĂȘtre rĂ©alisĂ© exactement en arithmĂ©tique flottante. DiffĂ©rents critĂšres ont donc Ă©tĂ© proposĂ©s pour dĂ©terminer ce qu'est une rĂ©solution approchĂ©e acceptable.

CritĂšres d'arrĂȘt de Rockafellar

Rockafellar (1976a) propose de se contenter d'un vérifiant

Ce critĂšre n'est pas implĂ©mentable puisqu'il requiert le calcul de , que l'on veut justement Ă©viter (si est facilement calculable, autant l'utiliser). Son intĂ©rĂȘt est donc essentiellement thĂ©orique. Cependant comme on peut montrer que pour tout , on a

ce critÚre sera vérifié si satisfait le critÚre parfois implémentable suivant

Ce critĂšre requiert la connaissance complĂšte de , ce qui n'est pas toujours le cas (que l'on songe au cas oĂč est le sous-diffĂ©rentiel d'une fonction convexe non quadratique en ).

On a le résultat de convergence faible suivant[5].

Convergence faible — On suppose que est monotone maximal. On considĂšre l'algorithme proximal avec l'un des critĂšres d'arrĂȘt (R1a) ou (R1b) et des paramĂštres uniformĂ©ment positifs. On note la suite gĂ©nĂ©rĂ©e par l'algorithme. Alors

  1. si n'a pas de zéro, n'est pas bornée,
  2. si a un zéro, converge faiblement vers un zéro de et (convergence forte dans ).

Rockafellar (1976a) propose aussi un critÚre plus exigeant, celui dans lequel on requiert le calcul d'un vérifiant

Ce critÚre n'est pas non plus implémentable puisqu'il requiert le calcul de mais, par l'estimation de donnée ci-dessus, il est satisfait si l'on requiert à de satisfaire le critÚre parfois implémentable suivant

Ce critĂšre requiert la connaissance complĂšte de , ce qui n'est pas toujours le cas.

On a alors le résultat de convergence forte suivant[6]. On y impose que soit localement radialement lipschitzienne de module en zéro, ce qui signifie que

L'hypothĂšse d'unicitĂ© des zĂ©ros de peut ĂȘtre soulevĂ©e, soit en acceptant plusieurs zĂ©ros[7], soit aucun[8].

Convergence forte — On considĂšre l'algorithme proximal avec l'un des critĂšres d'arrĂȘt (R2a) ou (R2b) et des paramĂštres uniformĂ©ment positifs. Supposons que soit monotone maximal et que soit localement radialement lipschitzienne en zĂ©ro de module (cette derniĂšre condition requiert que ait un unique zĂ©ro ). On suppose que la suite gĂ©nĂ©rĂ©e est bornĂ©e. Alors converge fortement et linĂ©airement vers :

oĂč avec .

On note que si , alors et , ce qui implique qu'alors la suite converge superlinéairement vers .

Autre critĂšre d'arrĂȘt

Les critĂšres d'arrĂȘt de Rockafellar ont l'inconvĂ©nient de dĂ©pendre d'une suite donnĂ©e a priori, indĂ©pendante de l'observation des itĂ©rĂ©s gĂ©nĂ©rĂ©s. D'autres critĂšres n'ayant pas cet inconvĂ©nient ont Ă©tĂ© proposĂ©s, comme celui de Solodov et Svaiter (1999).

Annexes

Notes

  1. La monotonie maximale du sous-différentiel d'une fonction convexe fermée propre est due à Minty (1964) et Moreau (1965).
  2. Voir Rockafellar (1976b).
  3. La monotonie maximale de l'opérateur servant à définir un problÚme d'inéquations variationnelles a été démontrée par Rockafellar (1970).
  4. Voir Minty (1962).
  5. ThéorÚme 1 chez Rockafellar (1976a).
  6. ThéorÚme 2 chez Rockafellar (1976a). C'est apparemment le premier résultat de convergence forte pour l'algorithme proximal.
  7. Voir Luque (1984)
  8. Voir Bruck et Reich (1977), Reich (1977), Spingarn (1987).

Article connexe

Bibliographie

  • (en) R.E. Bruck, S. Reich (1977), Nonexpansive projections and resolvents of accretive operators in Banach spaces, Houston Journal of Mathematics, 3, 459–470.
  • (en) G.J. Minty (1962). Monotone (nonlinear) operators in Hilbert space. Duke Mathematical Journal, 29, 341-346.
  • (en) G.J. Minty (1964). On the monotonicity of the gradient of a convex function. Pacific Journal of Mathematics, 14, 243–247.
  • J.J. Moreau (1965). ProximitĂ© et dualitĂ© dans un espace hilbertien. Bulletin de la SociĂ©tĂ© MathĂ©matique de France, 93, 273–299.
  • (en) S. Reich (1977). On infinite products of resolvents. Rend. Classe Sci. Fis. Mat. e Nat. Accad. Naz. Lincei Ser. VIII, LXIII, Fasc. 5.
  • (en) R.T. Rockafellar (1970). On the maximality of sums of nonlinear monotone operators. Translations of the American Mathematical Society, 149, 75-88.
  • (en) R.T. Rockafellar (1976a). Monotone operators and the proximal point algorithm. SIAM Journal on Control and Optimization, 14, 877–898.
  • (en) R.T. Rockafellar (1976b). Augmented Lagrangians and applications of the proximal point algorithm in convex programming. Mathematics of Operations Research, 1, 97-116.
  • (en) M.V. Solodov, B.F. Svaiter (1999). A hybrid approximate extragradient-proximal point algorithm using the enlargement of a maximal monotone operator. Set-Valued Analysis, 7, 323-345.
  • (en) J.E. Spingarn (1983). Partial inverse of a monotone operator. Applied Mathematics and Optimization, 10, 247–265.
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.