Eliezer Yudkowsky
Eliezer Shlomo Yudkowsky (né le ) est un blogueur et écrivain américain, créateur et promoteur du concept d'intelligence artificielle « amicale »[1].
Naissance | |
---|---|
Nom de naissance |
Eliezer Shlomo Yudkowsky |
Nationalité | |
Activités |
A travaillé pour | |
---|---|
Mouvement | |
Influencé par | |
Site web |
(en) www.yudkowsky.net |
Il doit sa notoriété mondiale au grand succès de sa fanfiction Harry Potter et les Méthodes de la rationalité, inspirée de l'univers de Harry Potter, qui illustre des concepts venus des sciences cognitives et des théories de la rationalité.
Biographie
Eliezer Yudkowsky est né en 1979 dans une famille juive orthodoxe. Il ne va pas au lycée et se forme en autodidacte[2]. Il a obtenu un score parfait de 1600 au SAT[3], l'examen standardisé utilisé pour l'admission aux universités des États-Unis, étant ainsi l'un des 300 étudiants avec un score parfait sur les 1,7 million qui passent l'examen chaque année. Il choisit ensuite de créer le Singularity Institute for Artificial Intelligence (aujourd'hui Machine Intelligence Research Institute) et de commencer directement ses recherches en intelligence artificielle sans étudier à l'université.
Il habite près de Berkeley, dans la région de la baie de San Francisco (San Francisco Bay Area).
Travaux
Les centres d'intérêt de Yudkowsky en intelligence artificielle[1] sont la théorie de la conscience (self-awareness (en)), et la notion d'amélioration récursive (en), ainsi que la théorie de la décision appliquée à des structures de motivation stables, et en particulier la notion d'intelligence artificielle amicale[4]:420. Ses travaux les plus récents portent sur les applications au paradoxe de Newcomb et à des problèmes analogues.
Yudkowsky a été, avec Robin Hanson, l'un des principaux contributeurs du blog Overcoming Bias[5], lequel a reçu le parrainage du Future of Humanity Institute de l'université d'Oxford. En , il a aidé à fonder LessWrong[6], un « blog collectif dédié à l'amélioration des outils de la rationalité »[2]:37. LessWrong a reçu une critique détaillée dans Business Insider[7], et les concepts centraux en ont été analysés dans des articles du Guardian[8] - [9]. D'autre part, LessWrong a été mentionné dans des articles traitant de la singularité technologique et des travaux du Machine Intelligence Research Institute[10], ainsi que dans des articles sur des mouvements monarchistes et néo-réactionnaires en ligne[11].
Yudkowsky contribue à deux chapitres[12] de Global Catastrophic Risks, un ouvrage publié par Nick Bostrom (philosophe à l'université d'Oxford) et Milan Ćirković[13].
Fanfiction
Yudkowsky a aussi écrit plusieurs ouvrages de science-fiction ainsi que des textes moins classables[14]. Sa vaste fanfiction, Harry Potter et les Méthodes de la rationalité, illustre des concepts venus des sciences cognitives et des théories de la rationalité[2]:37 - [15] - [16] - [17] - [18] - [19] - [20] - [21] ; The New Yorker l'a décrite comme « une réécriture de l'histoire originale montrant Harry cherchant à expliquer la sorcellerie à l'aide de la méthode scientifique »[22].
Notes et références
- Dominique de Gramont, Le Christianisme est un transhumanisme, Paris, Les éditions du cerf, , 365 p. (ISBN 978-2-204-11217-8), chap. 1 (« A la recherche du transhumain »)
- (en) Singularity Rising, par James Miller
- Declan McCullagh, « Making HAL Your Pal », Wired, (ISSN 1059-1028, lire en ligne, consulté le )
- (en) Ray Kurzweil, The Singularity Is Near : When Humans Transcend Biology, New York, US, Viking Penguin, , 652 p. (ISBN 0-670-03384-7)
- (en) « Overcoming Bias: About », Robin Hanson (consulté le )
- (en) « Where did Less Wrong come from? (LessWrong FAQ) » (consulté le )
- (en) James Miller, « You Can Learn How To Become More Rational », Business Insider, (consulté le )
- (en) Oliver Burkeman (en), « This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten », The Guardian, (consulté le )
- (en) Oliver Burkeman, « This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity? », The Guardian, (consulté le )
- (en) Natasha Tiku, « Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine. », BetaBeat, (consulté le )
- (en) Klint Finley, « Geeks for Monarchy: The Rise of the Neoreactionaries », TechCrunch, (consulté le )
- (en) Cognitive Biases Potentially Affecting Judgment of Global Risks et Artificial Intelligence as a Positive and Negative Factor in Global Risk
- (en) Nick Bostrom et Milan M. Ćirković, Global Catastrophic Risks, Oxford, UK, Oxford University Press, , 554 p. (ISBN 978-0-19-857050-9)
- (en) Liste de ses ouvrages non techniques
- (en) David Brin, « CONTRARY BRIN: A secret of college life... plus controversies and science! », Davidbrin.blogspot.com, (consulté le )
- (en) "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
- (en) « Rachel Aaron interview (April 2012) », Fantasybookreview.co.uk, (consulté le )
- (en) « Civilian Reader: An Interview with Rachel Aaron », Civilian-reader.blogspot.com, (consulté le )
- (en) Robin Hanson, « Hyper-Rational Harry », Overcoming Bias, (consulté le )
- (en) Aaron Swartz, « The 2011 Review of Books (Aaron Swartz's Raw Thought) », archive.org (consulté le )
- (en) « Harry Potter and the Methods of Rationality », Esr.ibiblio.org, (consulté le )
- (en) "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire" ; article centré sur les activités de Peter Thiel, ami de Yudkowsky.
Publications
Les textes suivants de Eliezer Yudkowsky ont été publiés (en anglais) par le Machine Intelligence Research Institute :
- Creating Friendly AI (2001)
- Levels of Organization in General Intelligence (2002)
- Coherent Extrapolated Volition (2004)
- Timeless Decision Theory (2010)
- Complex Value Systems are Required to Realize Valuable Futures (2011)
- Tiling Agents for Self-Modifying AI, and the Löbian Obstacle (2013)
- A Comparison of Decision Algorithms on Newcomblike Problems (2013)
Voir aussi
- (en) Douglas Mulhall, Our Molecular Future : How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World, , p. 321
- (en) Damien Broderick, The Spike : How Our Lives Are Being Transformed By Rapidly Advancing Technologies, , pp. 236, 265–272, 289, 321, 324, 326, 337–339, 345, 353, 370
Références
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Eliezer Yudkowsky » (voir la liste des auteurs).
Liens externes
- (en) Site officiel
- (en) Less Wrong - "A community blog devoted to refining the art of human rationality" (un blog collectif destiné à raffiner les arts de la rationalité), co-fondé par Yudkowsky.
- (en) Harry Potter and the Methods of Rationality ; traduit en français sous le titre Harry Potter et les Méthodes de la Rationalité.