Accueil🇫🇷Chercher

Explosion d'intelligence

L'explosion d'intelligence est une prédiction qui postule que l'amélioration de l'intelligence (par manipulation génétique, par intelligence artificielle (IA)) aura pour résultat des améliorations ultérieures à intervalles de temps toujours plus courts et une augmentation de l’intelligence exponentielle dont le résultat hypothétique est parfois nommé « la singularité technologique ».

La notion d'« explosion d'intelligence » a Ă©tĂ© dĂ©crite par Irving John Good, qui a traitĂ© des effets des machines surhumaines, si elles Ă©taient inventĂ©s:

« Soit une machine ultra-intelligente définie comme une machine qui peut dépasser de loin toutes les activités intellectuelles de n'importe quel homme, quel que soit son quotient intellectuel. Comme la conception des machines est l'une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures. Il y aurait dès lors une « explosion d'intelligence », et l'intelligence de l'homme serait laissée loin derrière. Ainsi, la première machine ultra-intelligente est la dernière invention que l'homme doit faire, à condition que la machine soit assez lucide pour nous dire comment la garder sous contrôle. »

Bien que le progrès technologique ait Ă©tĂ© accĂ©lĂ©rĂ©, il a Ă©tĂ© limitĂ© par l'intelligence fondamentale du cerveau humain, qui n'a pas, selon Paul Ehrlich, changĂ© de façon significative pendant des millĂ©naires[1]. Cependant, avec la puissance croissante des ordinateurs et d'autres technologies, il pourrait Ă©ventuellement ĂŞtre possible de construire une machine qui est plus intelligente que les humains[2]. Si une intelligence surhumaine devait ĂŞtre inventĂ©e—soit par l'amplification de l'intelligence humaine, soit par l'intelligence artificielle—elle apportait des capacitĂ©s de rĂ©solution de problèmes et de crĂ©ativitĂ©s supĂ©rieures Ă  celles dont les humains actuels sont capables[3] - [4]. Car si une IA Ă©tait crĂ©Ă©e avec des capacitĂ©s d'ingĂ©nierie qui correspondaient ou surpassaient celles de ses crĂ©ateurs humains, elle aurait le potentiel d'amĂ©liorer de façon autonome ses propres logiciels et matĂ©riels ou de concevoir une machine encore plus puissante. Cette machine plus capable pourrait alors continuer Ă  concevoir une machine de capacitĂ© encore plus grande. Ces itĂ©rations de l'auto-amĂ©lioration rĂ©cursive pourraient s'accĂ©lĂ©rer, permettant potentiellement d'Ă©normes changements qualitatifs avant toute limite supĂ©rieure imposĂ©e par les lois de la physique ou le calcul thĂ©orique imposĂ©s. Il est supposĂ© qu'une telle IA dĂ©passerait de loin les capacitĂ©s cognitives humaines.

Nick Bostrom dans son livre Superintelligence : Paths, Dangers, Strategies montre que différentes voies peuvent mener à l'explosion de l’intelligence et pas seulement l’intelligence artificielle.

Plausibilité

La plupart des mĂ©thodes proposĂ©es pour crĂ©er des esprits surhumains ou trans-humains entrent dans une de deux catĂ©gories: l'amplification de l'intelligence du cerveau humain et l'intelligence artificielle. Les moyens spĂ©culĂ©s pour la première sont nombreux, et incluent le gĂ©nie biologique, gĂ©nie gĂ©nĂ©tiquedrogues nootropes, assistants d'IA, les interfaces neuronales directes et le tĂ©lĂ©chargement de l'esprit. L'existence de destins multiples Ă  l'explosion d'intelligence rend une singularitĂ© plus probable; Pour qu'une singularitĂ© ne se produise pas, ils auraient tous Ă  Ă©chouer[5]. Robin Hanson est sceptique vis-Ă -vis de l'augmentation de l'intelligence humaine, Ă©crivant que, une fois que l'on a Ă©puisĂ© le « fruit faible » des mĂ©thodes faciles pour augmenter l'intelligence humaine, d'autres amĂ©liorations deviendront de plus en plus difficiles Ă  trouver. MalgrĂ© les nombreux moyens Ă©noncĂ©s pour amplifier l'intelligence humaine, l'intelligence artificielle non-humaine est l'option la plus citĂ©e par les organisations qui avancent cette singularitĂ© technologique.

Que l'explosion d'intelligence survienne ou non dĂ©pend de trois facteurs[6]. Le premier facteur, accĂ©lĂ©rant, est les nouvelles amĂ©liorations de l'intelligence rendues possibles par chaque amĂ©lioration prĂ©cĂ©dente. Au contraire, Ă  mesure que les intelligences deviennent plus avancĂ©es, de nouvelles avancĂ©es deviendront de plus en plus compliquĂ©es, dĂ©passant peut-ĂŞtre l'avantage d'une intelligence accrue. Chaque amĂ©lioration doit pouvoir engendrer au moins une amĂ©lioration supplĂ©mentaire en moyenne, pour que la singularitĂ© continue. Au bout d'un certain moment, les lois de la physique finiront par empĂŞcher d'autres amĂ©liorations.

Il y a deux effets accĂ©lĂ©rants, logiquement indĂ©pendants, mais se renforçant mutuellement : d'une part, l'augmentation de la vitesse de calcul et d'autre part, l'amĂ©lioration des algorithmes utilisĂ©s[7]. Le premier est prĂ©vu par la loi de Moore et les amĂ©liorations prĂ©vues dans le matĂ©riel, et est comparativement similaire Ă  l'avance technologique prĂ©cĂ©dente[8]. D'autre part, la plupart des chercheurs en IA croient que le software est plus important que l'hardware.

Amélioration de la vitesse

Que ce soit Ă  propos de l'intelligence humaine ou artificielle, les amĂ©liorations matĂ©rielles augmentent le taux d'amĂ©liorations matĂ©rielles futures. Simplement[9], La loi de Moore suggère que si le premier doublement de vitesse prenait 18 mois, le second prendrait 9 mois, après quoi, quatre mois, deux mois, et ainsi de suite convergent vers une singularitĂ©[10]. Une limite supĂ©rieure peut Ă©ventuellement ĂŞtre atteinte, bien qu'elle soit difficile Ă  mesurer. Stephen Hawkings, a soutenu que la limite supĂ©rieure Ă©tait relativement faible ;

« La croyance en cette idée repose sur une compréhension naïve de ce qu'est l'intelligence. Par analogie, imaginez-nous avoir un ordinateur qui pourrait concevoir de nouveaux ordinateurs (puces, systèmes et logiciels) plus rapidement que lui-même. Un tel ordinateur conduirait-il à des ordinateurs infiniment rapides? Non. Cela pourrait accélérer le taux d'amélioration pendant un certain temps, mais à la fin, il existe des limites à la taille des ordinateurs puissants et rapides. Nous finirions au même endroit ; Nous allons juste y arriver un peu plus vite. Il n'y aurait aucune singularité. Alors que si elle était beaucoup plus élevée que les niveaux d'intelligence humains actuels, les effets de la singularité seraient assez grands pour être indiscernables (pour les humains) d'une singularité avec une limite supérieure. Par exemple, si la vitesse de la pensée pouvait être augmentée d'un million, une année subjective passerait 30 secondes physiques. »

Il est difficile de comparer directement le silicium avec les neurones. Mais Anthony Berglas note que l'ordinateur Ă   reconnaissance vocale est Ă  l'approche des capacitĂ©s humaines, et que cette capacitĂ© semble occuper 0,01% du volume du cerveau. Cette analogie suggère que le matĂ©riel informatique moderne est Ă  quelques ordres de grandeur d'ĂŞtre aussi puissant que le cerveau humain.

Amélioration de l'intelligence

Certaines technologies de l'intelligence peuvent également avoir le potentiel pour se rendre plus intelligent, en modifiant leur code source[3] - [4]. Ces améliorations devraient apporter d'autres améliorations possibles, ce qui permettrait de procéder à d'autres améliorations possibles, et ainsi de suite.

Ce mécanisme d'explosion d'intelligence diffère d'une augmentation de la vitesse de deux façons. Tout d'abord, il ne nécessite pas d'effet externe : les machines auront encore besoin des humains pour créer du matériel, ou de programmer des usines de façon appropriée.

Deuxièmement, comme avec la conception de la singularitĂ© de Vernor Vinge, c'est beaucoup plus difficile de prĂ©dire le rĂ©sultat. Eliezer Yudkowsky compare les changements de l'intelligence humaine: l'homme a changĂ© le monde des milliers de fois plus rapidement que l'Ă©volution ne l'a fait, et de manière totalement diffĂ©rente[11].

Il y a des dangers associés à une singularité de l'explosion d'intelligence. Tout d'abord, l'objectif de la structure de l'IA ne peut pas être invariante sous l'auto-amélioration, ce qui peut causer l'amélioration de quelque chose qui n'était pas prévu[12] - [13]. Deuxièmement, Les intelligences artificielles pourraient être en compétition pour les ressources vitales que l'humanité utilise pour survivre[14] - [15].

Bien qu'elles ne soient pas malveillantes, il n'y a aucune raison de penser que les IA pourraient favoriser l'atteinte des objectifs humains, à moins qu'elles ne puissent être programmées comme telles[16] - [17].

Impact

Des changements dramatiques des taux de croissance Ă©conomique se sont produits dans le passĂ© en raison de l'avancement technologique. En se basant sur  la croissance dĂ©mographique, l'Ă©conomie a doublĂ© tous les 250 000 ans de l'Ă©poque palĂ©olithique jusqu'Ă  la RĂ©volution nĂ©olithique. La nouvelle Ă©conomie agricole a doublĂ© tous les 900 ans, une augmentation remarquable. Dans l'ère actuelle, Ă  partir de la rĂ©volution industrielle, la production Ă©conomique mondiale double tous les quinze ans, soit soixante fois plus vite que pendant l'ère agricole. Si la montĂ©e de l'intelligence surhumaine provoque une rĂ©volution similaire, affirme Robin Hanson, on s'attendrait Ă  ce que l'Ă©conomie double au moins tous les trois mois[18].

Super-intelligence

Une super-intelligence, (hyper-intelligence ou encore intelligence surhumaine) est un agent hypothĂ©tique qui possède une intelligence qui dĂ©passe de loin celle des esprits humains les plus brillants et les plus talentueux. La « super-intelligence » peut Ă©galement se rĂ©fĂ©rer Ă  la forme ou au degrĂ© d'intelligence possĂ©dĂ© par un tel agent.

Les prévisionnistes et les chercheurs de la technologie sont en désaccord quant au dépassement de l'intelligence humaine. Certains font valoir que les progrès de l'intelligence artificielle (IA) entraîneront probablement des raisonnements qui manquent de limitations cognitives humaines. D'autres pensent que les humains évolueront ou modifieront directement leur biologie afin d'obtenir une intelligence radicalement plus grande. Un certain nombre de scénarios d'études à terme combinent des éléments de ces deux possibilités, ce qui suggère que les humains sont susceptibles d'interagir avec les ordinateurs[19] - [20] - [21].

Risque existentiel

Berlgas note qu'il n'existe pas de motivation directe pour une IA Ă  ĂŞtre amicale avec les humains. L'Ă©volution n'a pas de tendance inhĂ©rente Ă  produire des rĂ©sultats valorisĂ©s par les humains, et il y a peu de raisons de s'attendre Ă  un processus d'optimisation arbitraire, afin de promouvoir un rĂ©sultat souhaitĂ© par l'humanitĂ©. Le chercheur en intelligence artificielle, Hugo de Garis, suggère que les intelligences artificielles peuvent simplement Ă©liminer la race humaine pour avoir accès Ă  des ressources limitĂ©es, et les humains seraient impuissants Ă  les arrĂŞter[22] - [23] - [24].

Eliezer Yudkowsky a proposé que des recherches soient entreprises pour produire une intelligence artificielle amicale afin de remédier aux possibles dangers. Il a noté que la première IA réelle à avoir une bonne conception de l'amélioration de soi, pourrait empêcher les IA hostiles de se développer, tout en offrant d'énormes avantages à l'humanité[25].

Bill Hibbard (2014) propose une conception de l'IA qui Ă©vite plusieurs dangers, y compris l'auto-illusion, ou la corruption. Il a Ă©galement traitĂ© des impacts sociaux de l'AI. Son livre de 2001 Super-Intelligent Machines prĂ©conise le besoin d'Ă©ducation publique concernant l'IA et le contrĂ´le public sur l'IA[26].

Une approche hypothétique pour tenter de contrôler une intelligence artificielle est une IA box[27] - [28] - [29], où l'intelligence artificielle est restreinte dans un monde simulé et ne peut pas affecter le monde extérieur. Cependant, une IA suffisamment intelligente peut tout simplement pouvoir y échapper.

Voir aussi

Références

  1. Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment
  2. Superbrains born of silicon will change everything. « https://web.archive.org/web/20100801074729/http://www.businessweek.com/1999/99_35/b3644021.htm »(Archive.org • Wikiwix • Archive.is • Google • Que faire ?),
  3. Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.
  4. Eliezer Yudkowsky. General Intelligence and Seed AI-Creating Complete Minds Capable of Open-Ended Self-Improvement, 2001
  5. (en) « What is the Singularity? | Singularity Institute for Artificial Intelligence » [archive du ], Singinst.org (consulté le )
  6. David Chalmers John Locke Lecture, 10 May, Exam Schools, Oxford, Presenting a philosophical analysis of the possibility of a technological singularity or "intelligence explosion" resulting from recursively self-improving AI.
  7. The Singularity: A Philosophical Analysis, David J. Chalmers
  8. (en) « ITRS » [PDF] (consulté le )
  9. (en) John Siracusa, « Mac OS X 10.6 Snow Leopard: the Ars Technica review », Arstechnica.com, (consulté le ).
  10. Eliezer Yudkowsky, 1996 "Staring into the Singularity".
  11. (en) Eliezer S. Yudkowsky, « Power of Intelligence », Yudkowsky (consulté le ).
  12. Omohundro, Stephen M., "The Basic AI Drives." Artificial General Intelligence, 2008 proceedings of the First AGI Conference, eds. Pei Wang, Ben Goertzel, and Stan Franklin. Vol. 171. Amsterdam: IOS, 2008 .
  13. (en) « Artificial General Intelligence: Now Is the Time »(Archive.org • Wikiwix • Archive.is • Google • Que faire ?), KurzweilAI (consulté le )
  14. Omohundro, Stephen M., "The Nature of Self-Improving Artificial Intelligence." Self-Aware Systems. 21 Jan. 2008. Web. 07 Jan. 2010.
  15. (en) James Barrat, Our Final Invention, New York, St. Martin's Press, , 1re éd., 322 p. (ISBN 978-0-312-62237-4), « 6, "Four Basic Drives" ».
  16. (en) Carl Shulman, Anders Sandberg et Klaus Mainzer (dir.), « Implications of a Software-Limited Singularity », ECAP10: VIII European Conference on Computing and Philosophy,‎ (lire en ligne, consulté le ).
  17. (en) Luke Muehlhauser et Anna Salamon, « Intelligence Explosion: Evidence and Import », dans Amnon Eden, Johnny Søraker, James H. Moor et Eric Steinhart, Singularity Hypotheses: A Scientific and Philosophical Assessment, Springer, (lire en ligne).
  18. Robin Hanson, « Economics Of The Singularity », IEEE Spectrum Special Report: The Singularity,‎ (lire en ligne, consulté le ) & Long-Term Growth As A Sequence of Exponential Modes
  19. (en) « Max More and Ray Kurzweil on the Singularity », KurzweilAI (consulté le )
  20. (en) « Concise Summary | Singularity Institute for Artificial Intelligence »(Archive.org • Wikiwix • Archive.is • Google • Que faire ?), Singinst.org (consulté le )
  21. Bostrom, Nick, The Future of Human Evolution, Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy, p. 339–371, 2004, Ria University Press.
  22. Ethical Issues in Advanced Artificial Intelligence, Nick Bostrom, in Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, Vol. 2, ed. I. Smit et al., Int. Institute of Advanced Studies in Systems Research and Cybernetics, 2003, p. 12–17
  23. Eliezer Yudkowsky: Artificial Intelligence as a Positive and Negative Factor in Global Risk. Draft for a publication in Global Catastrophic Risk from August 31, 2006, retrieved July 18, 2011 (PDF file)
  24. « The Stamp Collecting Device, Nick Hay »(Archive.org • Wikiwix • Archive.is • Google • Que faire ?) (consulté le )
  25. de Garis, Hugo. "The Coming Artilect War", Forbes.com, 22 June 2009.
  26. « Coherent Extrapolated Volition, Eliezer S. Yudkowsky, May 2004 »(Archive.org • Wikiwix • Archive.is • Google • Que faire ?) (consulté le )
  27. (en) Eliezer Yudkowsky, Nick Bostrom (dir.) et Milan Cirkovic (dir.), « Artificial Intelligence as a Positive and Negative Factor in Global Risk », Global Catastrophic Risks, New York, Oxford University Press,‎ , p. 303 (ISBN 978-0-19-857050-9, Bibcode 2008gcr..book..303Y, lire en ligne [archive du ])
  28. Artificial Intelligence Will Kill Our Grandchildren (Singularity), Dr Anthony Berglas
  29. The Singularity: A Philosophical Analysis David J. Chalmers

Vernor Vinge, « The Coming Technological Singularity: How to Survive in the Post-Human Era », (consulté le )

Bibliographie

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.