Recherche arborescente Monte-Carlo
En informatique, et plus précisément en intelligence artificielle, la recherche arborescente Monte Carlo ou Monte Carlo tree search (MCTS) est un algorithme de recherche heuristique utilisé dans le cadre de la prise de décision. Il est notamment employé dans les jeux. On peut citer son implémentation dans le jeu vidéo Total War: Rome II avec son mode campagne IA haut-niveau[1] et les récents programmes informatiques de Go[2], suivis par les échecs et shogi[3], ainsi que les jeux vidéo en temps réel et les jeux à information incomplÚte tels que le poker[4].
Principe
L'algorithme MCTS est un algorithme qui explore l'arbre des possibles. La racine est la configuration initiale du jeu. Chaque nĆud est une configuration et ses enfants sont les configurations suivantes. MCTS conserve en mĂ©moire un arbre qui correspond aux nĆuds dĂ©jĂ explorĂ©s de l'arbre des possibles. Une feuille de cet arbre (un nĆud n'ayant pas d'enfants) est soit une configuration finale (i.e. on sait si un des joueurs a gagnĂ©, ou s'il y a match nul), soit un nĆud dont aucun enfant n'a encore Ă©tĂ© explorĂ©. Dans chaque nĆud, on stocke deux nombres : le nombre de simulations gagnantes, et le nombre total de simulations. Chaque Ă©tape est composĂ©e de quatre phases[5].
- SĂ©lection. Depuis la racine, on sĂ©lectionne successivement des enfants jusqu'Ă atteindre une feuille. Dans cette phase, le choix des enfants est guidĂ© par un compromis entre exploitation (aller vers un enfant qui a Ă©tĂ© prouvĂ© comme prometteur) et exploration (aller visiter un autre enfant, qui a l'air moins prometteur mais qui pourrait l'ĂȘtre davantage). Dans l'exemple donnĂ© dans la figure, on choisit la feuille de gauche (de profondeur 3).
- Expansion: si cette feuille n'est pas finale, créer un enfant (ou plusieurs) en utilisant les rÚgles du jeu et choisir l'un des enfants. Sur l'exemple, on ajoute cet enfant, marqué 0/0.
- Simulation: simuler une exécution d'une partie au hasard depuis cet enfant, jusqu'à atteindre une configuration finale.
- RĂ©tropropagation (Backpropagation): utiliser le rĂ©sultat de la partie au hasard et mettre Ă jour les informations sur la branche en partant du nĆud enfant vers la racine. Sur l'exemple, la partie Ă©tait perdante pour blanc. On incrĂ©mente donc uniquement le nombre de simulations totales sur la branche pour les nĆuds blancs et on incrĂ©mente le nombre de simulations gagnĂ©es et le nombre de simulations totales pour les noirs sur la branche : 0/0 devient 0/1, 3/3 devient 4/4, 5/6 devient 5/7, 7/10 devient 8/11, et 12/21 devient 12/22. Si la partie avait Ă©tĂ© gagnante :0/0 serait devenu 1/1, 3/3 serait devenu 3/4, 5/6 serait devenu 6/7, 7/10 serait devenu 7/11, et 12/21 serait devenu 13/22.
Exploitation et exploration
La difficultĂ© principale est dans la phase de sĂ©lection. Il faut choisir un enfant et maintenir un compromis entre l'exploitation des choix qui ont l'air prometteurs et l'exploration des nĆuds Ă partir desquels peu de simulations ont Ă©tĂ© rĂ©alisĂ©es. La premiĂšre formule pour ce compromis entre exploitation et exploration, qui s'appelle UCT (Upper Confidence Bound 1 applied to Trees) Ă©tait introduit par Levente Kocsis (en) et Csaba SzepesvĂĄri (en)[6]. UCT est basĂ©e sur la formule UCB1 de Auer, Cesa-Bianchi et Fischer[7] et l'algorithme AMS (Adaptive Multi-stage Sampling) a Ă©tĂ© appliquĂ© Ă la dĂ©cision multi-Ă©tage par Chang, Fu, Hu, et Marcus[8]. Kocsis et SzepesvĂĄri recommandent de choisir le successeur i, en chaque nĆud de l'arbre, pour lequel l'expression a la valeur maximale. Dans cette formule :
- w est le nombre de parties gagnées marqué dans le successeur i
- n est le nombre de fois oĂč le successeur i a Ă©tĂ© visitĂ©
- N est le nombre de fois oĂč le nĆud, pĂšre de i, a Ă©tĂ© visitĂ©
- c est le paramĂštre d'exploration â en thĂ©orie Ă©gal Ă , en pratique, choisi expĂ©rimentalement.
La premiÚre partie de la formule, correspond à l'exploitation ; la fraction est grande pour les successeurs qui ont eu beaucoup de succÚs jusque là . La seconde partie correspond à l'exploration ; elle est grande pour des successeurs qui n'ont été impliqués que dans peu de simulations.
Les implémentations plus modernes de MCTS sont basées sur une variante de UCT, cf. les travaux de Chang et al.[8] - [9] (2005) à Operations Research (en).
Références
- « Monte-Carlo Tree Search in TOTAL WAR: ROME IIâs Campaign AI », sur AI Game Dev (consultĂ© le )
- David Silver, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre, George van den Driessche, Julian Schrittwieser, Ioannis Antonoglou, Veda Panneershelvam, Marc Lanctot, Sander Dieleman, Dominik Grewe, John Nham, Nal Kalchbrenner, Ilya Sutskever, Timothy Lillicrap, Madeleine Leach, Koray Kavukcuoglu, Thore Graepel et Demis Hassabis, « Mastering the game of Go with deep neural networks and tree search », Nature, vol. 529, no 7587,â , p. 484â489 (ISSN 0028-0836, PMID 26819042, DOI 10.1038/nature16961, Bibcode 2016Natur.529..484S, lire en ligne , consultĂ© le ).
- (en) D. Silver, « Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm », .
- Jonathan Rubin et Ian Watson, « Computer poker: A review », Artificial Intelligence, vol. 175, nos 5â6,â , p. 958â987 (DOI 10.1016/j.artint.2010.12.005, lire en ligne)
- G.M.J.B. Chaslot, M.H.M. Winands, J.W.H.M. Uiterwijk, H.J. van den Herik et B. Bouzy, « Progressive Strategies for Monte-Carlo Tree Search », New Mathematics and Natural Computation, vol. 4, no 3,â , p. 343â359 (DOI 10.1142/s1793005708001094, lire en ligne)
- (en) Levente Kocsis et Csaba Szepesvåri « Bandit based Monte-Carlo Planning » (DOI 10.1007/11871842_29, CiteSeerx 10.1.1.102.1296)
âMachine Learning: ECML 2006, 17th European Conference on Machine Learning (Berlin, 18â22 septembre 2006)
â « (ibid.) », dans Johannes FĂŒrnkranz, Tobias Scheffer et Myra Spiliopoulou (Ă©ds.), [...] Proceedings, vol. 4212, Springer, coll. « Lecture Notes in Computer Science », (ISBN 3-540-45375-X), p. 282â293 - Peter Auer, NicolĂČ Cesa-Bianchi et Paul Fischer, « Finite-time Analysis of the Multiarmed Bandit Problem »(Archive.org âą Wikiwix âą Archive.is âą Google âą Que faire ?), (DOI 10.1023/a:1013689704352), p. 235â256.
- Hyeong Soo Chang, Michael C. Fu, Jiaqiao Hu et Steven I. Marcus, « An Adaptive Sampling Algorithm for Solving Markov Decision Processes », Operations Research, vol. 53,â , p. 126â139 (DOI 10.1287/opre.1040.0145, lire en ligne)
- Hyeong Soo Chang, Michael Fu, Jiaqiao Hu et Steven I. Marcus, « Google DeepMind's Alphago: O.R.'s unheralded role in the path-breaking achievement », INFORMS, vol. 45, no 5,â , p. 24â29 (lire en ligne)
Bibliographie
- Cameron Browne, Edward Powley, Daniel Whitehouse, Simon Lucas, Peter I. Cowling, Philipp Rohlfshagen, Stephen Tavener, Diego Perez, Spyridon Samothrakis, Simon Colton, « A Survey of Monte Carlo Tree Search Methods », IEEE Transactions on Computational Intelligence and AI in Games, vol. 4, no 1,â (lire en ligne)
Lien externe
- Rémi Coulom, « Le jeu de go et la révolution de Monte Carlo »,