Superintelligence : Paths, Dangers, Strategies
Superintelligence : chemins, dangers, stratĂ©gies (en anglais : Superintelligence: Paths, Dangers, Strategies) (2014) est un livre Ă©crit par le philosophe suĂ©dois Nick Bostrom de l'universitĂ© d'Oxford. Le livre pose le constat que si une superintelligence venait Ă ĂȘtre crĂ©Ă©e et quâelle surpassait l'intelligence gĂ©nĂ©rale humaine, alors elle pourrait remplacer et dominer les humains[1]. Par analogie, de mĂȘme que le sort des gorilles dĂ©pend maintenant plus des humains que des gorilles eux-mĂȘmes, le sort de l'humanitĂ© future dĂ©pendra des actions de la superintelligence[2]. Le rĂ©sultat pourrait ĂȘtre une catastrophe existentielle pour l'homme[3].
Superintelligence | |
Auteur | Nick Bostrom |
---|---|
Genre | Essai |
Version originale | |
Langue | Anglais |
Ăditeur | Oxford University Press |
Date de parution | 2014 |
Nombre de pages | 328 |
ISBN | 9780199678112 |
Version française | |
Traducteur | Françoise Parot |
Ăditeur | Dunod |
Collection | Quai des Sciences |
Lieu de parution | Malakoff |
Date de parution | 2017 |
Couverture | Claire Scully |
Nombre de pages | 464 |
ISBN | 9782100772520 |
Le livre de Bostrom a été traduit dans de nombreuses langues et est disponible en livre audio[4] - [5].
Synopsis
Lâauteur commence par Ă©numĂ©rer les diffĂ©rentes possibilitĂ©s qui pourraient conduire Ă lâapparition dâune superintelligence. Elles incluent le gĂ©nie gĂ©nĂ©tique, la reproduction sĂ©lective, le transhumanisme, lâintelligence machine soit par rĂ©tro-ingĂ©nierie soit par le dĂ©veloppement dâalgorithmes dâapprentissage. Lâauteur conclut cette premiĂšre prospective par la haute probabilitĂ© de lâĂ©mergence dâune superintelligence. Le temps nĂ©cessaire Ă cette apparition nâest pas dĂ©terminĂ© mais selon lâauteur le risque existe que cette apparition soit trĂšs rapide. Quel que soit le calendrier, une fois que la machine dâun niveau cognitif comparable aux humains sera dĂ©veloppĂ©e, un systĂšme « superintelligent dĂ©passant largement les performances cognitives de l'homme dans pratiquement tous les domaines » devrait suivre Ă©tonnamment rapidement, peut-ĂȘtre mĂȘme instantanĂ©ment. Une telle superintelligence serait difficile Ă contrĂŽler ou restreindre.
Alors que les objectifs ultimes dâune superintelligence pourraient varier considĂ©rablement, une superintelligence fonctionnelle gĂ©nĂ©rera spontanĂ©ment des sous-objectifs naturels ou instrumentaux tels que l'auto-prĂ©servation, l'intĂ©gritĂ© de ses buts, lâamĂ©lioration cognitive et l'acquisition des ressources. Par exemple, un agent dont le seul but final est de rĂ©soudre l'hypothĂšse de Riemann (une cĂ©lĂšbre conjecture mathĂ©matique non rĂ©solue) pourrait signifier comme sous-objectif la transformation de l'ensemble de la Terre en une certaine forme de computronium (hypothĂ©tique « matiĂšre programmable ») pour faciliter le calcul. La superintelligence agirait proactivement pour parer toutes tentatives extĂ©rieures visant Ă entraver la rĂ©alisation de ce sous-objectif. Afin d'Ă©viter une telle catastrophe existentielle, il semble nĂ©cessaire de rĂ©soudre le « problĂšme du contrĂŽle de l'IA » avant quâune premiĂšre superintelligence ne voie le jour. La solution pourrait impliquer d'inculquer Ă la superintelligence des objectifs compatibles avec la survie humaine et son bien-ĂȘtre. RĂ©soudre le problĂšme du contrĂŽle est cependant Ă©tonnamment difficile parce que la plupart des objectifs, lorsqu'ils sont traduits en code implĂ©mentable dans une machine, conduisent Ă des consĂ©quences imprĂ©vues et indĂ©sirables.
RĂ©ception
Le livre a Ă©tĂ© classĂ© n° 17 meilleur livre de science en par le New York Times[6]. Durant le mĂȘme mois, le magnat des affaires Elon Musk a fait la une des titres en dĂ©clarant, en accord avec le livre, que l'intelligence artificielle Ă©tait potentiellement plus dangereuse que les armes nuclĂ©aires[7] - [8] - [9]. Le travail de Bostrom sur la superintelligence a Ă©galement influencĂ© Bill Gates[10] - [11]. Dans une interview de avec le PDG de Baidu, Robert Li, M. Gates a affirmĂ© qu'il « recommandait vivement » la lecture du livre de Bostrom[12].
Pour l'Ă©diteur du Financial Times, l'Ă©criture de Bostrom « Ă©tait parfois opaque trahissant son expĂ©rience en tant que professeur de philosophie », mais que lâouvrage Ă©tait convaincant, dĂ©montrant que le risque dâune superintelligence Ă©tait assez grand pour que la sociĂ©tĂ© rĂ©flĂ©chisse dĂšs maintenant aux moyens de doter Ă l'avenir une intelligence machinelle de valeurs positives[1]. Une revue dans The Guardian fait remarquer que « mĂȘme les machines les plus sophistiquĂ©es crĂ©Ă©es aujourdâhui sont loin dâĂȘtre intelligentes » et que « les premiĂšres prĂ©dictions dâune IA surhumaine dataient des annĂ©es 1960 », lâarticle concĂšde malgrĂ© tout quâil « serait mal avisĂ© de rejeter complĂštement cette possibilitĂ© »[3].
Certains collĂšgues de Bostrom suggĂšrent quâune guerre nuclĂ©aire reste une plus grande menace pour l'humanitĂ© quâune superintelligence, de mĂȘme que les perspectives quâapportent les nanotechnologies et la biotechnologie en matiĂšre dâarmement destructeur[13]. The Economist dĂ©clare que « Bostrom est contraint de passer une grande partie du livre Ă discuter de spĂ©culations construites sur des conjectures... mais que le livre est nĂ©anmoins intĂ©ressant ». Les implications de l'introduction d'une deuxiĂšme espĂšce intelligente sur Terre sont potentiellement assez grandes pour mĂ©riter quâon sây arrĂȘte, mĂȘme si les perspectives semblent lointaines »[14]. Ronald Bailey Ă©crit dans le libertarien Reason que pour Bostrom la rĂ©solution du problĂšme du contrĂŽle de l'IA est la « tĂąche essentielle assignĂ©e Ă notre Ă©poque »[15]. Selon Tom Chivers de The Daily Telegraph, le livre est difficile Ă lire, mais nĂ©anmoins enrichissant[16].
Références
- (en) Cet article est partiellement ou en totalitĂ© issu de lâarticle de WikipĂ©dia en anglais intitulĂ© « Superintelligence: Paths, Dangers, Strategies » (voir la liste des auteurs).
- Financial Times review, juillet 2014
- « Superintelligence: Paths, Dangers, Strategies (publisher synopsis) » (consulté le ) : « The human brain has some capabilities that the brains of other animals lack. It is to these distinctive capabilities that our species owes its dominant position. If machine brains surpassed human brains in general intelligence, then this new superintelligence could become extremely powerful - possibly beyond our control. As the fate of the gorillas now depends more on humans than on the species itself, so would the fate of humankind depend on the actions of the machine superintelligence. »
- (en) Caspar Henderson, « Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock â review », The Guardian,â (lire en ligne, consultĂ© le )
- « Superintelligent Swede snapped up by OUP »
- « Superintelligence Audiobook - Nick Bostrom - Audible.com », Audible.com
- « Best Selling Science Books », sur New York Times, New York Times (consulté le )
- « Artificial intelligence âmay wipe out the human raceâ », The Times
- « Elon Musk tweets Artificial Intelligence may be "more dangerous than nukes" »
- « The New York Times Blog », The New York Times (consulté le )
- « Forbes », Forbes (consulté le )
- « The Fiscal Times », The Fiscal Times (consulté le )
- « Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015 », YouTube (consulté le )
- Guardian review, juillet 2014.
- (en) « Clever cogs », The Economist,â (lire en ligne, consultĂ© le ) :
« It may seem an esoteric, even slightly crazy, subject. And much of the bookâs language is technical and abstract (readers must contend with ideas such as "goal-content integrity" and "indirect normativity"). Because nobody knows how such an AI might be built, Mr Bostrom is forced to spend much of the book discussing speculations built upon plausible conjecture. He is honest enough to confront the problem head-on, admitting at the start that "many of the points made in this book are probably wrong." But the book is nonetheless valuable. The implications of introducing a second intelligent species onto Earth are far-reaching enough to deserve hard thinking, even if the prospect of actually doing so seems remote. Trying to do some of that thinking in advance can only be a good thing. »
- (en) Ronald Bailey, « Will Superintelligent Machines Destroy Humanity? », Reason,â (lire en ligne, consultĂ© le )
- (en) Tom Chivers, « Superintelligence by Nick Bostrom, review: 'a hard read' », The Telegraph,â (lire en ligne, consultĂ© le ) :
« If youâre looking for a friendly, accessible introduction to AI issues, then this is probably not the place to start. But if youâre interested in this topic, and youâre prepared to do a bit of mental spadework, it is rewarding. »
Voir aussi
- Superintelligence
- Explosion d'intelligence
- Intelligence artificielle
- Intelligence humaine
- IA amicale
- Singularitarisme