Accueil🇫🇷Chercher

Ray Solomonoff

Ray J. Solomonoff, né le à Cleveland, Ohio (États-Unis) et mort le d'une rupture d'anévrisme, est un informaticien et chercheur américain.

Ray Solomonoff
une illustration sous licence libre serait bienvenue
Biographie
Naissance
Décès
Nationalité
Formation
Glenville High School (en)
Activités
Famille
  • Phillip Julius Solomonoff (Père),
  • Sarah Mashman (mère)

Il est connu pour être à l'origine du concept de probabilité algorithmique et des premières approches d'apprentissage automatique probabiliste en intelligence artificielle.

Biographie

Vie et travaux jusqu'en 1964

Ray Solomonoff est né le à Cleveland, Ohio, fils d'immigrants juifs russes, Phillip Julius et Sarah Mashman Solomonoff. Il a fréquenté l'école secondaire de Glenville, où il a obtenu son diplôme en 1944. En 1944, il a rejoint la marine américaine en tant qu'instructeur en électronique. De 1947 à 1951, il a étudié à l’Université de Chicago, avec des professeurs tels que Rudolf Carnap et Enrico Fermi, et a obtenu un master (MSc) de physique en 1951.

Dès son plus jeune âge, il était motivé par le plaisir de la découverte en mathématiques et par le désir d'explorer des questions que personne n'avait abordées auparavant. À l'âge de 16 ans, en 1942, il commence à rechercher une méthode générale pour résoudre des problèmes mathématiques. Il a écrit trois articles, dont deux avec Anatol Rapoport, en 1950-1952, qui sont considérés comme la plus ancienne analyse statistique de réseaux[1].

En 1952, il rencontra Marvin Minsky, John McCarthy et d'autres personnes intéressées par l'intelligence artificielle. En 1956, Minsky, McCarthy et d'autres organisèrent la conférence de Dartmouth, où Ray Solomonoff était l'un des 10 principaux invités -- lui-même, McCarthy et Minsky furent les seuls à rester pendant toute la conférence. On considère souvent cette conférence comme étant la naissance de l'Intelligence artificielle en tant que science autonome[2] - [3]. Les ordinateurs de l'époque pouvaient résoudre des problèmes mathématiques très spécifiques, mais pas grand-chose d'autre. Pour sa part, Solomonoff se demandait comment rendre les machines plus intelligentes et comment utiliser les probabilités à cette fin. Il considérait l’apprentissage automatique comme une méthode probabiliste, mettant l’accent sur l’importance des séquences d’entraînement et sur l’utilisation partielle de solutions précédentes pour résoudre des problèmes de construction de solutions d’essai pour de nouveaux problèmes. Il a publié une version de ses conclusions en 1957 qui furent les premières proposant une approche probabiliste de l'apprentissage automatique[4].

À la fin des années 1950, il a inventé les langages probabilistes et leurs grammaires associées[5]. Un langage probabiliste attribue une valeur de probabilité à chaque chaîne possible. La généralisation de ce concept l'amène à découvrir en 1960 la probabilité algorithmique et la théorie générale de l'inférence inductive.

Avant les annĂ©es 1960, la mĂ©thode dominante de calcul des probabilitĂ©s Ă©tait frĂ©quentiste (nombre de rĂ©sultats favorables par rapport au nombre total d'essais). Dans sa publication de 1960, et plus complètement dans ses publications de 1964, Solomonoff a sĂ©rieusement revu cette dĂ©finition de la probabilitĂ©. Il a appelĂ© cette nouvelle forme de probabilitĂ© « probabilitĂ© algorithmique Â» et a montrĂ© comment l'utiliser pour la prĂ©diction dans sa thĂ©orie de l'infĂ©rence inductive. Dans le cadre de ce travail, il a Ă©tabli le fondement philosophique de l'utilisation de la règle de causalitĂ© de Bayes pour la prĂ©diction.

Le thĂ©orème de base de ce que l'on a appelĂ© plus tard la ComplexitĂ© de Kolmogorov faisait partie de sa ThĂ©orie GĂ©nĂ©rale. En 1960, il Ă©crit: « ConsidĂ©rons une très longue sĂ©quence de symboles... Nous considĂ©rerons une telle sĂ©quence de symboles comme "simple" et ayant une probabilitĂ© a priori Ă©levĂ©e, s’il existe une très brève description de cette sĂ©quence - en utilisant, bien sĂ»r, une sorte de mĂ©thode de description stipulĂ©e. Plus prĂ©cisĂ©ment, si nous utilisons uniquement les symboles 0 et 1 pour exprimer notre description, nous attribuerons la probabilitĂ© 2 - N Ă  cette sĂ©quence de symboles si sa description binaire la plus courte possible contient N chiffres Â»[6]. Cette probabilitĂ© est liĂ©e Ă  une machine de Turing universelle particulière. Solomonoff a dĂ©montrĂ© en 1964 que le choix de la machine, Ă  un facteur constant près, ne modifiait pas beaucoup les rapports de probabilitĂ©. Ces probabilitĂ©s sont indĂ©pendantes de la machine.

En 1965, le mathématicien russe Kolmogorov découvrit indépendamment et publia des idées similaires. Lorsqu'il prit connaissance du travail de Solomonoff, il reconnut l'antériorité de ses travaux et, pendant plusieurs années, le travail de Solomonoff a été mieux connu en Union soviétique que dans le monde occidental. Le consensus général dans la communauté scientifique était toutefois d'associer ce type de complexité à Kolmogorov, qui était plus préoccupé par le caractère aléatoire d'une séquence. La probabilité algorithmique et l'induction universelle ont été associées à Solomonoff, qui se concentrait sur la prédiction, c'est-à-dire l'extrapolation d'une séquence.

Plus tard dans la mĂŞme publication de 1960, Solomonoff dĂ©crit son extension de la thĂ©orie du code le plus court. C'est la ProbabilitĂ© algorithmique: « Il semblerait que s’il existe plusieurs mĂ©thodes diffĂ©rentes pour dĂ©crire une sĂ©quence, chacune d’elles devrait recevoir un "certain" poids dans la dĂ©termination de la probabilitĂ© de cette sĂ©quence Â»[7]. Il montre ensuite comment cette idĂ©e peut ĂŞtre utilisĂ©e pour gĂ©nĂ©rer la distribution universelle de probabilitĂ© a priori et comment elle permet l'utilisation de la règle de Bayes dans l'infĂ©rence inductive. L'infĂ©rence inductive, en additionnant les prĂ©dictions de tous les modèles dĂ©crivant une sĂ©quence particulière, en utilisant des poids appropriĂ©s basĂ©s sur les longueurs de ces modèles, obtient la distribution de probabilitĂ© pour l'extension de cette sĂ©quence. Cette mĂ©thode de prĂ©vision est depuis connue sous le nom d'induction de Solomonoff. Il dĂ©veloppa sa thĂ©orie en publiant un certain nombre de rapports qui avaient prĂ©cĂ©dĂ© les publications en 1964. Les articles de 1964 dĂ©crivaient plus en dĂ©tail la probabilitĂ© algorithmique et l'induction de Solomonoff, en prĂ©sentant cinq modèles diffĂ©rents, y compris le modèle qui sera plus tard appelĂ© appelĂ© Distribution Universelle.

Travaux de 1964 Ă  1984

D'autres scientifiques qui avaient assistĂ© Ă  la confĂ©rence d'Ă©tĂ© de Dartmouth en 1956 (tels que Newell et Simon) dĂ©veloppaient la branche de l'intelligence artificielle qui utilisait des machines rĂ©gies par des règles de type « si-alors Â», basĂ©es sur des faits. Solomonoff dĂ©veloppait la branche de l'intelligence artificielle axĂ©e sur les probabilitĂ©s et les prĂ©dictions. Sa vision spĂ©cifique de l'intelligence artificielle dĂ©crit les machines rĂ©gies par une distribution de « probabilitĂ© algorithmique Â». La machine gĂ©nère des hypothèses ainsi que leurs probabilitĂ©s associĂ©es pour rĂ©soudre des problèmes et, Ă  mesure que de nouveaux problèmes et thĂ©ories se dĂ©veloppent, met Ă  jour la distribution de probabilitĂ© sur les hypothèses. En 1968, il trouve une preuve de l'efficacitĂ© de la « probabilitĂ© algorithmique Â»[8], mais principalement en raison d'un manque d'intĂ©rĂŞt gĂ©nĂ©ral Ă  cette Ă©poque, ne la publia que 10 ans plus tard. Dans son rapport, il a publiĂ© la preuve du thĂ©orème de convergence.

Distinction reçues

Voir aussi

Articles connexes

Références

  1. "An Exact Method for the Computation of the Connectivity of Random Nets", Bulletin of Mathematical Biophysics, Vol 14, p. 153, 1952.
  2. Solomonoff, R.J.The Time Scale of Artificial Intelligence; Reflections on Social Effects, Human Systems Management, Vol 5 1985, Pp 149-153
  3. Moor, J., The Dartmouth College Artificial Intelligence Conference: The Next Fifty years, AI Magazine, Vol 27, No., 4, Pp. 87-9, 2006
  4. An Inductive Inference Machine", IRE Convention Record, Section on Information Theory, Part 2, pp. 56–62.PDF
  5. "A Progress Report on Machines to Learn to Translate Languages and Retrieve Information", Advances in Documentation and Library Science, Vol III, pt. 2, pp. 941–953. (Proceedings of a conference in Sept. 1959.)
  6. "A Preliminary Report on a General Theory of Inductive Inference", 1960 p. 1
  7. "A Preliminary Report on a General Theory of Inductive Inference", 1960, p. 17
  8. "Complexity-based Induction Systems, Comparisons and convergence Theorems" IEEE Trans. on Information Theory Vol. IT-24, No. 4, pp.422–432, July,1978. (pdf version)
  9. (en) http://www.kolmogorov.clrc.rhul.ac.uk/pastwinners.html

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.