AccueilđŸ‡«đŸ‡·Chercher

Superintelligence : Paths, Dangers, Strategies

Superintelligence : chemins, dangers, stratĂ©gies (en anglais : Superintelligence: Paths, Dangers, Strategies) (2014) est un livre Ă©crit par le philosophe suĂ©dois Nick Bostrom de l'universitĂ© d'Oxford. Le livre pose le constat que si une superintelligence venait Ă  ĂȘtre crĂ©Ă©e et qu’elle surpassait l'intelligence gĂ©nĂ©rale humaine, alors elle pourrait remplacer et dominer les humains[1]. Par analogie, de mĂȘme que le sort des gorilles dĂ©pend maintenant plus des humains que des gorilles eux-mĂȘmes, le sort de l'humanitĂ© future dĂ©pendra des actions de la superintelligence[2]. Le rĂ©sultat pourrait ĂȘtre une catastrophe existentielle pour l'homme[3].

Superintelligence
Auteur Nick Bostrom
Genre Essai
Version originale
Langue Anglais
Éditeur Oxford University Press
Date de parution 2014
Nombre de pages 328
ISBN 9780199678112
Version française
Traducteur Françoise Parot
Éditeur Dunod
Collection Quai des Sciences
Lieu de parution Malakoff
Date de parution 2017
Couverture Claire Scully
Nombre de pages 464
ISBN 9782100772520

Le livre de Bostrom a été traduit dans de nombreuses langues et est disponible en livre audio[4] - [5].

Synopsis

L’auteur commence par Ă©numĂ©rer les diffĂ©rentes possibilitĂ©s qui pourraient conduire Ă  l’apparition d’une superintelligence. Elles incluent le gĂ©nie gĂ©nĂ©tique, la reproduction sĂ©lective, le transhumanisme, l’intelligence machine soit par rĂ©tro-ingĂ©nierie soit par le dĂ©veloppement d’algorithmes d’apprentissage. L’auteur conclut cette premiĂšre prospective par la haute probabilitĂ© de l’émergence d’une superintelligence. Le temps nĂ©cessaire Ă  cette apparition n’est pas dĂ©terminĂ© mais selon l’auteur le risque existe que cette apparition soit trĂšs rapide. Quel que soit le calendrier, une fois que la machine d’un niveau cognitif comparable aux humains sera dĂ©veloppĂ©e, un systĂšme « superintelligent dĂ©passant largement les performances cognitives de l'homme dans pratiquement tous les domaines » devrait suivre Ă©tonnamment rapidement, peut-ĂȘtre mĂȘme instantanĂ©ment. Une telle superintelligence serait difficile Ă  contrĂŽler ou restreindre.

Alors que les objectifs ultimes d’une superintelligence pourraient varier considĂ©rablement, une superintelligence fonctionnelle gĂ©nĂ©rera spontanĂ©ment des sous-objectifs naturels ou instrumentaux tels que l'auto-prĂ©servation, l'intĂ©gritĂ© de ses buts, l’amĂ©lioration cognitive et l'acquisition des ressources. Par exemple, un agent dont le seul but final est de rĂ©soudre l'hypothĂšse de Riemann (une cĂ©lĂšbre conjecture mathĂ©matique non rĂ©solue) pourrait signifier comme sous-objectif la transformation de l'ensemble de la Terre en une certaine forme de computronium (hypothĂ©tique « matiĂšre programmable ») pour faciliter le calcul. La superintelligence agirait proactivement pour parer toutes tentatives extĂ©rieures visant Ă  entraver la rĂ©alisation de ce sous-objectif. Afin d'Ă©viter une telle catastrophe existentielle, il semble nĂ©cessaire de rĂ©soudre le « problĂšme du contrĂŽle de l'IA » avant qu’une premiĂšre superintelligence ne voie le jour. La solution pourrait impliquer d'inculquer Ă  la superintelligence des objectifs compatibles avec la survie humaine et son bien-ĂȘtre. RĂ©soudre le problĂšme du contrĂŽle est cependant Ă©tonnamment difficile parce que la plupart des objectifs, lorsqu'ils sont traduits en code implĂ©mentable dans une machine, conduisent Ă  des consĂ©quences imprĂ©vues et indĂ©sirables.

RĂ©ception

Le livre a Ă©tĂ© classĂ© n° 17 meilleur livre de science en par le New York Times[6]. Durant le mĂȘme mois, le magnat des affaires Elon Musk a fait la une des titres en dĂ©clarant, en accord avec le livre, que l'intelligence artificielle Ă©tait potentiellement plus dangereuse que les armes nuclĂ©aires[7] - [8] - [9]. Le travail de Bostrom sur la superintelligence a Ă©galement influencĂ© Bill Gates[10] - [11]. Dans une interview de avec le PDG de Baidu, Robert Li, M. Gates a affirmĂ© qu'il « recommandait vivement » la lecture du livre de Bostrom[12].

Pour l'Ă©diteur du Financial Times, l'Ă©criture de Bostrom « Ă©tait parfois opaque trahissant son expĂ©rience en tant que professeur de philosophie », mais que l’ouvrage Ă©tait convaincant, dĂ©montrant que le risque d’une superintelligence Ă©tait assez grand pour que la sociĂ©tĂ© rĂ©flĂ©chisse dĂšs maintenant aux moyens de doter Ă  l'avenir une intelligence machinelle de valeurs positives[1]. Une revue dans The Guardian fait remarquer que « mĂȘme les machines les plus sophistiquĂ©es crĂ©Ă©es aujourd’hui sont loin d’ĂȘtre intelligentes » et que « les premiĂšres prĂ©dictions d’une IA surhumaine dataient des annĂ©es 1960 », l’article concĂšde malgrĂ© tout qu’il « serait mal avisĂ© de rejeter complĂštement cette possibilitĂ© »[3].

Certains collĂšgues de Bostrom suggĂšrent qu’une guerre nuclĂ©aire reste une plus grande menace pour l'humanitĂ© qu’une superintelligence, de mĂȘme que les perspectives qu’apportent les nanotechnologies et la biotechnologie en matiĂšre d’armement destructeur[13]. The Economist dĂ©clare que « Bostrom est contraint de passer une grande partie du livre Ă  discuter de spĂ©culations construites sur des conjectures... mais que le livre est nĂ©anmoins intĂ©ressant ». Les implications de l'introduction d'une deuxiĂšme espĂšce intelligente sur Terre sont potentiellement assez grandes pour mĂ©riter qu’on s’y arrĂȘte, mĂȘme si les perspectives semblent lointaines »[14]. Ronald Bailey Ă©crit dans le libertarien Reason que pour Bostrom la rĂ©solution du problĂšme du contrĂŽle de l'IA est la « tĂąche essentielle assignĂ©e Ă  notre Ă©poque »[15]. Selon Tom Chivers de The Daily Telegraph, le livre est difficile Ă  lire, mais nĂ©anmoins enrichissant[16].

Références

  1. Financial Times review, juillet 2014
  2. « Superintelligence: Paths, Dangers, Strategies (publisher synopsis) » (consultĂ© le ) : « The human brain has some capabilities that the brains of other animals lack. It is to these distinctive capabilities that our species owes its dominant position. If machine brains surpassed human brains in general intelligence, then this new superintelligence could become extremely powerful - possibly beyond our control. As the fate of the gorillas now depends more on humans than on the species itself, so would the fate of humankind depend on the actions of the machine superintelligence. »
  3. (en) Caspar Henderson, « Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock – review », The Guardian,‎ (lire en ligne, consultĂ© le )
  4. « Superintelligent Swede snapped up by OUP »
  5. « Superintelligence Audiobook - Nick Bostrom - Audible.com », Audible.com
  6. « Best Selling Science Books », sur New York Times, New York Times (consulté le )
  7. « Artificial intelligence ‘may wipe out the human race’ », The Times
  8. « Elon Musk tweets Artificial Intelligence may be "more dangerous than nukes" »
  9. « The New York Times Blog », The New York Times (consulté le )
  10. « Forbes », Forbes (consulté le )
  11. « The Fiscal Times », The Fiscal Times (consulté le )
  12. « Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015 », YouTube (consulté le )
  13. Guardian review, juillet 2014.
  14. (en) « Clever cogs », The Economist,‎ (lire en ligne, consultĂ© le ) :
    « It may seem an esoteric, even slightly crazy, subject. And much of the book’s language is technical and abstract (readers must contend with ideas such as "goal-content integrity" and "indirect normativity"). Because nobody knows how such an AI might be built, Mr Bostrom is forced to spend much of the book discussing speculations built upon plausible conjecture. He is honest enough to confront the problem head-on, admitting at the start that "many of the points made in this book are probably wrong." But the book is nonetheless valuable. The implications of introducing a second intelligent species onto Earth are far-reaching enough to deserve hard thinking, even if the prospect of actually doing so seems remote. Trying to do some of that thinking in advance can only be a good thing. »
  15. (en) Ronald Bailey, « Will Superintelligent Machines Destroy Humanity? », Reason,‎ (lire en ligne, consultĂ© le )
  16. (en) Tom Chivers, « Superintelligence by Nick Bostrom, review: 'a hard read' », The Telegraph,‎ (lire en ligne, consultĂ© le ) :
    « If you’re looking for a friendly, accessible introduction to AI issues, then this is probably not the place to start. But if you’re interested in this topic, and you’re prepared to do a bit of mental spadework, it is rewarding. »

Voir aussi


Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.