Optimisation aléatoire
L'optimisation alĂ©atoire (OA) est une famille de mĂ©thodes d'optimisation numĂ©rique qui ne nĂ©cessite pas de connaĂźtre le gradient du problĂšme pour ĂȘtre utilisĂ©e, comme dans le cas de fonctions non continues ou non diffĂ©rentiables. Ces mĂ©thodes sont aussi connues sous le nom de recherche directe, mĂ©thodes sans dĂ©rivation ou mĂ©thodes boĂźte noire.
Le nom d'optimisation aléatoire (random optimization) est attribué à Matyas[1], qui présenta une analyse mathématique de base des méthodes. L'optimisation aléatoire consiste en des déplacements itératifs vers de meilleures positions dans l'espace de recherche, positions déterminées selon une distribution normale autour de la position courante.
Algorithme
Soit la fonction devant ĂȘtre minimisĂ©e. Soit la position courante dans l'espace de recherche. L'algorithme d'optimisation alĂ©atoire de base peut ĂȘtre dĂ©crit comme suit :
- initialiser par une position au hasard dans l'espace ;
- tant que la condition d'arrĂȘt n'est pas vĂ©rifiĂ©e (c'est-Ă -dire jusqu'Ă ĂȘtre suffisamment proche de la solution recherchĂ©e), rĂ©pĂ©ter :
- créer une nouvelle position en ajoutant à un vecteur aléatoire distribué normalement,
- si , se déplacer vers la nouvelle position : ,
- fin de l'algorithme, est la solution recherchée.
Convergence et variantes
Matyas a montrĂ© que la forme basique de l'OA converge vers l'optimum d'une fonction unimodale simple en utilisant une preuve par limite : la convergence vers l'optimum est garantie aprĂšs un nombre virtuellement infini d'itĂ©rations. Cependant, cette preuve n'est pas utile en pratique, oĂč seul un nombre fini d'itĂ©rations peut ĂȘtre exĂ©cutĂ©. En fait, une telle preuve par limite montre aussi qu'un Ă©chantillonnage alĂ©atoire de l'espace de recherche mĂšne inĂ©vitablement Ă un choix d'Ă©chantillon arbitrairement proche de l'optimum.
Des analyses mathématiques conduites par Baba[2] ainsi que Solis et Wets[3] ont établi que la convergence vers une région approchant l'optimum est inévitable sous certaines conditions faibles, pour des variantes de l'OA utilisant d'autres lois de probabilité pour l'échantillonnage. Une estimation du nombre d'itérations nécessaire pour approcher l'optimum est donnée par Dorea[4]. Ces analyses ont été critiquées par Sarma[5] via des tests empiriques, en utilisant les variantes de Baba et Dorea sur deux problÚmes pratiques : l'optimum est atteint trÚs lentement, et les méthodes se sont révélées incapables de trouver une solution convenable à moins de démarrer le processus d'un point déjà proche de l'optimum.
Voir aussi
Références
- (en) Cet article est partiellement ou en totalitĂ© issu de lâarticle de WikipĂ©dia en anglais intitulĂ© « Random optimization » (voir la liste des auteurs).
- (en) J. Matyas, « Random optimization », Automation and Remote Control, vol. 26, no 2,â , p. 246â253
- (en) N. Baba, « Convergence of a random optimization method for constrained optimization problems », Journal of Optimization Theory and Applications, vol. 33, no 4,â , p. 451â461
- (en) F.J. Solis et R.J-B. Wets, « Minimization by random search techniques », Mathematics of Operation Research, vol. 6, no 1,â , p. 19â30
- (en) C.C.Y. Dorea, « Expected number of steps of a random optimization method », Journal of Optimization Theory and Applications, vol. 39, no 3,â , p. 165â171
- (en) M.S. Sarma, « On the convergence of the Baba and Dorea random optimization methods », Journal of Optimization Theory and Applications, vol. 66, no 2,â , p. 337â343