Intelligence artificielle générale
Une intelligence artificielle générale (IAG) est une intelligence artificielle capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux[1] - [2]. La création d'intelligences artificielles générales est un des principaux objectifs de certaines entreprises comme OpenAI, DeepMind et Anthropic. C'est aussi un thème majeur de la science-fiction et de la futurologie. Même si GPT-4 a été décrit comme ayant des « étincelles d'intelligence artificielle générale », il n'existe pas en 2023 d'IA consensuellement considérée comme générale[3].
Bien que l'intelligence artificielle générale puisse être très utile dans de nombreux domaines, des études en cours évaluent les risques potentiels de cette technologie en voie de développement[4] - [5]. Notamment les risques de désinformation et de chômage de masse. Selon des experts en IA comme Stuart Russell[6], Yoshua Bengio[7] ou Geoffrey Hinton[8] et d'autres chercheurs en IA[9], une perte de contrôle pourrait également causer des risques existentiels tels que la fin de l'humanité[9].
Terminologie
Selon la plupart des spécialistes, l'IAG (Artificial general intelligence ou AGI en anglais), ou IA de niveau humain, se réfère à la capacité d'une machine autonome à effectuer l’ensemble des tâches intellectuelles qu'un être humain peut effectuer[1]. Cette définition assez restrictive fait qu'une IA peut générer du texte de haute qualité et être bien plus rapide que l'humain sans être qualifiée de « générale », s'il reste des tâches qu'elle n'effectue pas aussi bien que l'humain. OpenAI définit plutôt l'IAG comme un système hautement autonome capable de surpasser l'humain dans la plupart des tâches ayant un intérêt économique[10].
Un système expert, ou IA « étroite » est un système informatique potentiellement très compétent, mais qui n'opère que dans un contexte restreint, souvent focalisé sur une tâche précise[11].
Le terme d'IA forte fait quant à lui plus souvent intervenir une notion philosophique de conscience, ce qui fait que les capacités de l'IA ne suffisent pas à dire si elle est « forte ». Une IA peut donc être parfois qualifiée de « faible » dans ce sens, indépendamment de ses compétences, si elle n'est pas « consciente ». Ces notions font référence à l'hypothèse de l'IA forte et de l'IA faible dans l'expérience de pensée de la chambre chinoise[12].
Le terme de superintelligence artificielle décrit une IA aux capacités intellectuelles bien supérieures à celles de l'humain dans pratiquement tous les domaines[13]. Les experts affichent une large incertitude sur le temps que cela prendrait de passer d'une IAG à une superintelligence artificielle, les estimations pouvant aller de moins d'une heure à plusieurs décennies, en supposant que ce soit possible[14].
Ceci dit, ces termes peuvent avoir des définitions différentes, et ces définitions sont suffisamment vagues pour qu'il puisse parfois être difficile de catégoriser une IA.
Histoire
Dans les années 1950, la première génération de chercheurs en intelligence artificielle était convaincue que l'IAG est possible et existerait au bout de quelques décennies. Le pionnier Herbert Simon a écrit en 1965 : « les machines seront capables, dans moins de 20 ans, d'accomplir n'importe quelle tâche qu'un homme peut accomplir »[15].
Cependant, dans les années 1970, il devint évident qu'ils avaient grossièrement sous-estimé la difficulté du projet. Les fonds d'investissement devinrent sceptiques de l'IAG, et mirent davantage de pression sur les chercheurs pour obtenir des applications plus concrètes[16]. Après un bref regain d'intérêt dans les années 1980, la confiance générale dans l'IA rechute. Jusqu'aux années 1990, les chercheurs en IA étaient réputés pour faire des promesses vaines, et devinrent réticents à faire la moindre prédiction[17].
Dans les années 1990 et au début du XXIe siècle, la recherche en IA a atteint un certain succès commercial et une respectabilité académique en se concentrant sur des des applications commerciales ou des sous-problèmes lesquels l'IA peut fournir des résultats vérifiables. Notamment via des réseaux de neurones artificiels ou des techniques d'apprentissage statistique. Ces techniques sont maintenant largement appliquées dans l'industrie[18].
Le terme d'« intelligence artificielle générale » a été utilisé dès 1997 par Mark Gubrud dans une discussion sur les implications de l'automatisation de la production et des opérations militaires[19].
En 2016, DeepMind a conçu AlphaGo, un programme d'apprentissage par renforcement qui s'est avéré capable de vaincre le champion du monde de Go Lee Sedol. Ce programme nécessitait cependant une connaissance spécifique du jeu de Go et des données humaines, ainsi que des règles du jeu. En 2020, Google DeepMind crée MuZero, qui n'a plus ces limitations et peut être entraîné sur d'autres types de jeux comme les jeux Atari[20]. En 2022, Google DeepMind développe Gato, un système d'IA généraliste capable d'exécuter plus de 600 tâches[21].
En 2023, Microsoft Research a publié une étude sur une version précoce de GPT-4, affirmant que GPT-4 manifestait une intelligence plus générale que les précédents modèles d'IA, et affichait des performances de niveau humain dans de multiples domaines tels que les mathématiques, la programmation et le judiciaire[22].
Caractéristiques
Une IAG doit notamment pouvoir :
- Planifier
- Comprendre des concepts abstraits
- Résoudre des problèmes
- Prendre des décisions en tenant compte de l'incertitude
- Apprendre
- Communiquer en langage naturel
- Faire preuve de créativité
Sentience
La sentience n'est en générale pas considérée comme un critère nécessaire pour l'IAG. Une machine pourrait probablement en effet être très compétente pour accomplir des objectifs sans nécessairement être sentiente[23].
La question de savoir si les machines peuvent en principe être sentientes est controversée[24]. Il n'existe actuellement pas de mesure fiable de la sentience, ni même de théorie qui fasse largement consensus[25]. Selon les fonctionnalistes, la sentience est causée par certains types de traitement de l'information. Il n'y a dans ce cas pas de barrière théorique au fait que la sentience puisse se manifester sur un support autre que biologique[26]. Le fait qu'une machine soit sentiente n'implique pas nécessairement qu'elle soit plus puissante ou plus dangereuse, mais plutôt qu'elle pourrait avoir une dimension morale. Si c'est le cas, il pourrait, de même que pour les animaux, être pertinent d'accorder des droits à ces IAs ou de se soucier de leur bien-être[27].
Explosion d'intelligence
C'est là aussi controversé, mais une IAG serait en principe capable de remplacer le poste de chercheur en intelligence artificielle. Cependant, les machines les machines sont en général plus rapide que le cerveau humain, certains chercheurs estiment donc qu'il pourrait survenir une « explosion d'intelligence », faisant rapidement de l'IAG une superintelligence.
Le concept n'est pas nouveau. En 1965, Irving John Good écrivait[28] :
« Supposons une machine ultra-intelligente définie comme une machine pouvant surpasser toutes les activités intellectuelles de n'importe quel homme quelle que soit son intelligence. La conception de telles machines étant l’une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors incontestablement une « explosion d’intelligence », et l’intelligence humaine serait très vite laissée loin derrière. Ainsi, l’invention de la première machine ultra-intelligente est la dernière invention que l’humanité ait besoin de réaliser, à condition que la machine soit suffisamment docile pour nous dire comment la garder sous contrôle. »
— Irving John Good, Speculations Concerning the First Ultraintelligent Machine
Ce scénario est débattu. D'autres pensent que cette amélioration récursive se ferait de façon plus décentralisée ou progressive, s'étalant sur des années voire des décennies. L'économiste Robin Hanson estime par exemple que pour déclencher une explosion d'intelligence, une machine devrait avoir une meilleure capacité d'innovation que le reste du monde combiné, ce qui lui semble peu plausible[29].
Faisabilité
Cette capacité nécessite notamment une généralisation et une abstraction de l'apprentissage sur un ensemble de fonctions cognitives. Pour l'instant, le transfert autonome et agile de l'apprentissage d'un domaine à un autre n'en est qu'à ses balbutiements[30].
Là où l'approche de Google DeepMind avec AlphaGo, Muzero et Gato consistait à partir de systèmes d'apprentissage par renforcement puissants mais spécifiques et à tenter de les généraliser à des situations de plus en plus complexes (avec un certain succès)[20] - [31], les grands modèles de langage ont récemment fournit une approche différente différente. Initialement, les modèles d'IA disposent d'un grand nombre de paramètres ajustables (par exemple, 175 milliards dans le cas de GPT-3[32]). La première étape de l'entraînement des grands modèles de langage consiste à prédire, pour un très grand nombre de textes issus d'internet, le mot suivant (ou plus exactement le token suivant, un token étant une séquence d'octets). Au fur et à mesure de cet apprentissage, le modèle ajuste ses paramètres internes. Cette tâche étonnamment simple, répétée un grand nombre de fois, permet au modèle de langage d'acquérir une connaissance non seulement du langage, mais aussi de nombreux autres domaines tels que l'arithmétique, le raisonnement, la physique, l'humour, la traduction[33]...
Une procédure d'entraînement relativement simple est ainsi capable de faire émerger des connaissances et des capacités complexes. L'IAG pourrait peut-être ainsi être principalement une question de quantité de ressources consacrées à l'entraînement. Il semble en effet que pour un modèle de taille suffisante, les performances augmentent régulièrement avec[34] :
- La quantité de données ayant servi à entraîner du modèle.
- Les capacités de calcul ayant servi à entraîner le modèle, ou autrement dit le nombre d'itérations.
Il y a quelques années, l'intelligence artificielle générale était perçu comme un sujet spéculatif et lointain. En 2015, Le vice-président de Baidu, Andrew Ng, que s'inquiéter des risques existentiels liés à l'IAG est « comme s'inquiéter de la surpopulation sur Mars alors que nous n'avons même pas encore mis le pied sur la planète »[35].
Les spectaculaires progrès récents suggèrent cependant que l'IAG soit moins difficile à réaliser que prévu[36]. Selon l'informaticien Geoffrey Hinton[37] :
« L'idée que ça pourrait devenir plus intelligent que l'humain — quelques gens y croyaient, [...]. Mais la plupart pensaient que ce ça n'arriverait pas avant longtemps. Et je pensais que ça n'arriverait pas avant longtemps. Je pensais que ça prendrait entre 30 et 50 ans. Évidemment, ce n'est plus ce que je pense »
— Geoffrey Hinton
Certains estiment que GPT-5, le successeur à venir de GPT-4[38] - [39], sera probablement une intelligence artificielle générale[40]. La définition d'intelligence artificielle générale reste cependant suffisamment floue pour qu'il puisse être difficile ou subjectif d'évaluer si un modèle est une IAG.
Bénéfices
L'IAG pourrait avoir des applications très variées. Si elle est orientée vers ce but, l'IAG, et plus encore la superintelligence artificielle, pourrait aider à combattre divers problèmes dans le monde tels la faim, la pauvreté et les problèmes de santé[41].
L'IAG pourrait augmenter la productivité et l'efficacité dans la plupart des travaux. Par exemple, dans le secteur de la santé, l'IAG pourrait accélérer la recherche, notamment contre le cancer[42]. Elle pourrait s'occuper des personnes âgées[43], ou encore démocratiser l'accès à des diagnostiques médicaux rapides et de qualité[44]. De même dans le secteur de l'éducation, où elle pourrait offrir une éducation ludique, personnalisée et à faible coût[43]. Pour pratiquement n'importe quel travail bénéficiant à la société s'il est bien accompli, il serait probablement tôt ou tard préférable de le laisser à une IAG. Le besoin de travailler pour subsister pourrait devenir obsolète, si les richesses produites sont adéquatement redistribuées[45] - [43]. Cela pose donc aussi la question de la place de l'humain dans une société radicalement automatisée.
L'IAG pourrait aussi aider à prendre des décisions rationnelles, anticiper et empêcher des catastrophe. Si une IAG avait pour objectif premier d'empêcher d'empêcher des catastrophes planétaires telles que l'extinction de l'humanité (ce qui pourrait être difficile si l'Hypothèse du Monde Vulnérable s'avère fondée[46]), elle pourrait ainsi prendre des mesures réduisant drastiquement les risques[47] tout en minimisant l'impact de ces mesures sur notre qualité de vie. Elle pourrait aussi aider à tirer les bénéfices de technologies potentiellement catastrophiques telles que les nanotechnologies ou l'ingénierie climatique tout en évitant les risques associés[47].
Risques
Les risques associés à l'IAG sont divers et peuvent provenir de l'IAG elle-même, ou du comportement humain face à celle-ci[48]. Certains risques sont déjà un problème aujourd'hui, comme le chômage, la désinformation ou les armes létales autonomes, mais pourraient être exacerbés par l'IAG. En outre, la capacité de la société humaine à prédire et à contrôler le développement de l'IAG, ainsi que sa capacité à faire face aux risques potentiels font l'objet d'études[48].
Voici une liste non-exhaustive de risques importants.
Perte de contrôle
Un risque particulièrement débattu est celui d'une catastrophe existentielle liée l'IAG. Cela implique en général une perte irréversible de contrôle d'une IAG qui aurait un objectif différent de celui des humains[49].
Le sort de l'humanité face à l'IAG a parfois été comparé à celui du gorille, menacé par les activités humaines. Le supplément d'intelligence de l'humanité l'a mise dans une position de domination, et le gorille est devenu vulnérable de façons qu'il n'aurait pas pu anticiper. Le gorille est devenu une espèce menacée, pas par malveillance, mais simplement comme un dommage collatéral des activités humaines[50].
Le fait d'assigner les objectifs souhaités à des intelligences artificielles générales est encore un sujet actif de recherche, baptisé le problème de l'alignement. Selon OpenAI, l'IAG pose un risque existentiel[51] - [52], et « résoudre le problème de l'alignement des IAG pourrait s'avérer si difficile que cela nécessiterait que toute l'humanité y travaille ensemble »[51]. Une des difficultés vient du fait que si l'IAG est capable de manipuler des humains, il est très difficile de vérifier si ses intentions sont vraiment celles que l'on souhaite[53]. Une approche nommée l'« interprétabilité » consiste à tenter de comprendre le fonctionnement interne de ces modèles d'IA, notamment afin de pouvoir détecter des signes de manipulation, une tâche difficile vu la complexité et le nombre de paramètres de ces modèles d'IA[54].
Des sceptiques comme Yann Le Cun estiment que les intelligences artificielles générales n'auront pas de raison de vouloir dominer l'humanité, et qu'il faut être prudent de ne pas les anthropomorphiser et leur accorder des intentions humaines[55]. Il considère que les humains ne seraient pas « suffisamment intelligents pour concevoir des machines superintelligentes, et pourtant ridiculement stupides au point de leur donner des objectifs idiots sans avoir de garde-fous »[56].
Le principe de convergence instrumentale suggère à l'inverse que presque quel que soit les objectifs d'un agent intelligent, celui-ci a des raisons de chercher à survivre et accumuler davantage de ressources et d'influence, car cela l'aide à accomplir ces objectifs. Et que cela ne nécessite pas que l'IA ait des émotions[57]. Le philosophe Nick Bostrom donne l'exemple du maximiseur de trombones pour illustrer comment l'optimisation d'un objectif quelconque pourrait avoir des conséquences catastrophiques :
« Supposons que nous ayons une IA dont l'unique but soit de faire autant de trombones que possible. L'IA se rendra vite compte que ce serait bien mieux s'il n'y avait pas d'humains, parce que les humains pourraient décider de l'éteindre. Parce que si les humains le faisaient, il y aurait moins de trombones. De plus, le corps humain contient beaucoup d'atomes qui pourraient être transformés en trombones. L'avenir vers lequel l'IA essaierait de se diriger serait un futur avec beaucoup de trombones mais aucun humain. »
Beaucoup de sceptiques estiment que l'IAG n'est pas pour bientôt ou n'aura pas lieu, ou que ces risques contre-intuitifs détournent l'attention de problèmes plus concrets et immédiats[59].
En 2023, Max Tegmark dresse une analogie entre la superintelligence non alignée et la comète qui s'apprête à heurter la Terre dans le film à succès Don't Look Up[60].
Chômage de masse
Le marché de l'emploi est déjà impacté par les modèles de langage actuels. Selon OpenAI, « 80 % de la main-d'œuvre américaine pourrait voir au moins 10 % de ses tâches affectées, tandis qu'environ 19 % des travailleurs pourraient voir au moins 50 % de leurs tâches affectées par l'introduction d'outils tels que ChatGPT »[61]. Les travailleurs de bureau semblent être les plus impactés, par exemple les mathématiciens, comptables ou concepteurs de sites Web[61].
L'IAG pourrait augmenter l'autonomie de ces systèmes, leur capacité à prendre des décisions, à s'interfacer avec d'autres outils informatiques, mais aussi à contrôler des corps robotisés.
Cette automatisation est parfois considérée comme une aubaine, créant davantage de richesses tout en travaillant moins. Larry Page, cofondateur de Google, estime que cela nous permettra de « vivre mieux » en nous « libérant du temps »[62]. Selon Stephen Hawking, le résultat dépendra notamment de la façon dont les richesses seront redistribuées[45] :
« Chacun pourra vivre une voluptueuse existence de loisirs si les richesses produites par les machines sont réparties, ou bien la majorité des gens vivront dans la misère si les propriétaires de ces machines parviennent à nullifier la redistribution des richesses. Jusqu’ici, la tendance semble être la seconde option, et la technologie creuse toujours plus les inégalités. »
— Stephen Hawking
D'après Elon Musk, cette automatisation générale des tâches dans la société nécessitera l'adoption par les gouvernements d'un revenu universel[62].
Désinformation et manipulation
La génération automatique d'images ou de textes crédibles est déjà possible. Par exemple, une fausse image d'une explosion du Pentagone le 22 mai 2023, partagée par des comptes financiers ainsi que par des médias russes, a entraîné une baisse momentanée de 0,3 % des cours boursiers aux États-Unis[63]. L'IAG pourrait néanmoins acquérir une meilleure compréhension du contexte, interagir avec d'autres outils et se montrer plus convaincante, stratégique, personnalisée et autonome.
La capacité des modèles d'IA à produire du contenu très rapidement et à faible coût pourrait inonder internet de texte, d'images ou de vidéos générées automatiquement[64] - [65]. Ce contrôle de l'information pourrait être également exploité par des régimes autoritaires à des fins de surveillance et de contrôle. Cela pourrait ainsi intensifier la diffusion de désinformation et de propagande. Une solution proposée serait l'adoption à grande échelle de systèmes numériques permettant de prouver anonymement sur internet que l'on est un humain, ce qui permettrait notamment de filtrer efficacement les faux-comptes[66].
Cyberattaques et prolifération
L'IAG pourrait aussi automatiser les cyberattaques ou les escroqueries reposant sur l'ingénierie sociale[67]. Que ce soit l'intention du concepteur ou non, il se pourrait que l'IAG soit en mesure d'exploiter les faiblesses de systèmes informatiques pour déjouer des protections, obtenir de l'argent ou se reproduire[68].
Articles connexes
Références
- Pitpitt, « Intelligence artificielle générale — DataFranca », sur datafranca.org (consulté le )
- « The original goal of Artificial Intelligence (AI) was to build ‘thinking machines’, but mainstream AI research has turned toward domain-dependent and problem-specific solutions; therefore it has become necessary to use a new name to indicate research that still pursues the “Grand AI Dream”. Similar labels for this kind of research include “Strong AI”, “Human-level AI”, etc. » Artificial General Intelligence (AGI) (AGI Society)
- (en) « What is Artificial General Intelligence? - TechTarget », sur Enterprise AI (consulté le )
- « Intelligence artificielle : opportunités et risques », Actualité, Parlement européen, (consulté le ).
- Source AFP, « L’IA présente « des risques majeurs pour l’humanité », selon Elon Musk et des experts », sur Le Point, (consulté le ).
- (en) « Yes, We Are Worried About the Existential Risk of Artificial Intelligence », sur MIT Technology Review (consulté le ).
- (en) « AI guru Yoshua Bengio says regulation too slow, warns of 'existential' threats », sur Vancouver Is Awesome, (consulté le ).
- (en) Craig S. Smith, « Geoff Hinton, AI’s Most Famous Researcher, Warns Of ‘Existential Threat’ From AI », sur Forbes (consulté le )
- (en-US) https://aiimpacts.org/author/katja, « 2022 Expert Survey on Progress in AI », sur AI Impacts, (consulté le ).
- (en-US) « OpenAI Charter », sur openai.com (consulté le ) : « OpenAI’s mission is to ensure that artificial general intelligence (AGI)—by which we mean highly autonomous systems that outperform humans at most economically valuable work—benefits all of humanity. »
- Team rédac, « Intelligence Artificielle : définition, histoire, utilisations, dangers », sur DataScientest.com, (consulté le )
- (en) John Searle, « Minds, brains, and programs »,
- Pitpitt, « Superintelligence — DataFranca », sur datafranca.org (consulté le )
- (en-GB) Future of Humanity Institute- FHI, « Future of Humanity Institute », sur The Future of Humanity Institute, (consulté le )
- (en) Anthony M. Zador, « A critique of pure learning and what artificial neural networks can learn from animal brains », Nature Communications, vol. 10, no 1, , p. 3770 (ISSN 2041-1723, DOI 10.1038/s41467-019-11786-6, lire en ligne, consulté le )
- Diana Sisu, « School of Informatics: History of Artificial Intelligence at Edinburgh », sur inf.ed.ac.uk (consulté le )
- « Review of Artificial Intelligence: A General Survey », sur formal.stanford.edu (consulté le ) : « it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case. »
- Stuart J. Russell et Peter Norvig, Artificial intelligence: a modern approach ; [the intelligent agent book], Prentice Hall, coll. « Prentice Hall series in artificial intelligence », , 2e éd. (ISBN 978-0-13-790395-5), p. 25-26
- (en) Mark Gubrud, « Fifth Foresight Conference on Molecular Nanotechnology »,
- (en) « MuZero: Mastering Go, chess, shogi and Atari without rules », sur deepmind.com (consulté le )
- « L'intelligence artificielle "Gato" peut-elle surpasser l'intelligence humaine ? », sur Les Numériques, (consulté le )
- « Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale, « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme » », Developpez.com, (lire en ligne, consulté le )
- (en-US) Kumar Gandharv, « Is Artificial General Intelligence Enhancing AI Consciousness », sur Datatechvibe, (consulté le )
- (en) « AI could have 20% chance of sentience in 10 years, says philosopher David Chalmers », sur ZDNET (consulté le )
- (en) Rob Toews, « Reflecting On ‘Artificial General Intelligence’ And AI Sentience », sur Forbes (consulté le )
- Riccardo Manzotti et Antonio Chella, « Good Old-Fashioned Artificial Consciousness and the Intermediate Level Fallacy », Frontiers in Robotics and AI, vol. 5, (ISSN 2296-9144, DOI 10.3389/frobt.2018.00039/full, lire en ligne, consulté le )
- (en-US) Dustin Crummett, « AI Sentience and Moral Risk », sur Prindle Institute, (consulté le )
- (en) Santa Clara University, « Good Machine, Nice Machine, Superintelligent Machine », sur scu.edu (consulté le ) : « Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an 'intelligence explosion,' and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make provided that the machine is docile enough to tell us how to keep it under control. »
- (en) Robin Hanson, « I Still Don’t Get Foom », sur overcomingbias.com (consulté le )
- Nicolas Miailhe, Cyrus Hodes. La troisième ère de l'intelligence artificielle. OpenEdition Journals
- (en) « A Generalist Agent », sur deepmind.com (consulté le )
- (en-US) « OpenAI Presents GPT-3, a 175 Billion Parameters Language Model », sur NVIDIA Technical Blog, (consulté le )
- (en) « Pathways Language Model (PaLM): Scaling to 540 Billion Parameters for Breakthrough Performance », sur ai.googleblog.com, (consulté le )
- (en) « Scaling Laws - AI Alignment Forum », sur alignmentforum.org (consulté le )
- (en) Michael Shermer, « Artificial Intelligence Is Not a Threat—Yet », sur Scientific American (consulté le ) : « like worrying about overpopulation on Mars when we have not even set foot on the planet yet. »
- « L'intelligence artificielle générale, prochaine révolution pour l'humanité ? », sur L'Éclaireur Fnac, (consulté le )
- (en-US) Cade Metz, « ‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead », The New York Times, (ISSN 0362-4331, lire en ligne, consulté le ) :
« The idea that this stuff could actually get smarter than people — a few people believed that, [...]. But most people thought it was way off. And I thought it was way off. I thought it was 30 to 50 years or even longer away. Obviously, I no longer think that. »
- Edward Back, « ChatGPT-5 devrait sortir en fin d’année et atteindre le graal de l’intelligence artificielle générale ! », sur Futura (consulté le )
- (en) « Will There Be a GPT-5? When Will GPT-5 Launch? », sur makeuseof.com, (consulté le ).
- (en-US) Arjun Sha, « OpenAI GPT-5: Release Date, Features, AGI Rumors, Speculations, and More », sur Beebom, (consulté le ).
- (en-US) « Artificial General Intelligence – Do the cost outweigh benefits? », (consulté le )
- « How we can Benefit from Advancing Artificial General Intelligence (AGI) - Unite.AI », sur unite.ai (consulté le )
- (en) Smithsonian Magazine et Jules Julien,Stephan Talty, « What Will Our Society Look Like When Artificial Intelligence Is Everywhere? », sur Smithsonian Magazine (consulté le )
- Setra, « Selon Sam Altman, l’IA donnera des conseils médicaux (aux pauvres) », sur Presse-citron, (consulté le )
- Maxime Vendé, « Pour Stephen Hawking, la robotisation accroît les inégalités », sur Mouvement Français pour un Revenu de Base, (consulté le ) : « Everyone can enjoy a life of luxurious leisure if the machine-produced wealth is shared, or most people can end up miserably poor if the machine-owners successfully lobby against wealth redistribution. So far, the trend seems to be toward the second option, with technology driving ever-increasing inequality. »
- « La surveillance totale est le seul moyen de sauver l'humanité », sur Intelligence Artificielle et Transhumanisme, (consulté le )
- Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN 978-0-19-967811-2), § Preferred order of arrival
- Ali Gündoğar, Saulius Niauronis. An Overview of Potential Risks of Artificial General Intelligence Robots. Applied Scientific Research, Vol. 2, No. 1, 2023).
- (en) Wim Naudé et Otto Barten, « Artificial General Intelligence: can we avoid the ultimate existential threat? »
- (en-US) Mario Herger, « The Gorilla Problem – Enterprise Garage » (consulté le )
- (en-US) « Our approach to alignment research », sur openai.com (consulté le ) : « « Unaligned AGI could pose substantial risks to humanity and solving the AGI alignment problem could be so difficult that it will require all of humanity to work together. » »
- (en-US) « Governance of superintelligence », sur openai.com (consulté le )
- (en) « Why AI alignment could be hard with modern deep learning », sur Cold Takes, (consulté le )
- (en) « 19 - Mechanistic Interpretability with Neel Nanda », sur AXRP - the AI X-risk Research Podcast, (consulté le )
- (en) Anthony Zador,Yann LeCun, « Don’t Fear the Terminator », sur Scientific American Blog Network (consulté le )
- « The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI », sur The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI (consulté le ) : « I think it would only be relevant in a fantasy world in which people would be smart enough to design super-intelligent machines, yet ridiculously stupid to the point of giving it moronic objectives with no safeguards. »
- « The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI », sur The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI (consulté le ) : « It is trivial to construct a toy MDP in which the agent's only reward comes from fetching the coffee. If, in that MDP, there is another "human" who has some probability, however small, of switching the agent off, and if the agent has available a button that switches off that human, the agent will necessarily press that button as part of the optimal solution for fetching the coffee. No hatred, no desire for power, no built-in emotions, no built-in survival instinct, nothing except the desire to fetch the coffee successfully. This point cannot be addressed because it's a simple mathematical observation »
- Kathleen Miles, « Artificial Intelligence May Doom The Human Race Within A Century, Oxford Professor Says », Huffington Post, (lire en ligne) : « Suppose we have an AI whose only goal is to make as many paper clips as possible. The AI will realize quickly that it would be much better if there were no humans because humans might decide to switch it off. Because if humans do so, there would be fewer paper clips. Also, human bodies contain a lot of atoms that could be made into paper clips. The future that the AI would be trying to gear towards would be one in which there were a lot of paper clips but no humans. »
- (en) « Expert Comment: No need to wait for the future, the danger of AI is already here », University of Oxford, (consulté le ).
- (en) « The 'Don't Look Up' Thinking That Could Doom Us With AI », sur Time, (consulté le )
- « ChatGPT : quels sont les métiers menacés par les intelligences artificielles ? », sur Capital.fr, (consulté le )
- Fabien Soyez, « Revenu universel : une solution pour contrer les robots et la destruction du travail ? », sur cnet, (consulté le )
- « La fausse image d’une explosion au Pentagone fait brièvement douter les marchés », Le Monde, (lire en ligne, consulté le ).
- « L’intelligence artificielle permet désormais d’inonder le Web de fake news », sur 01net.com, (consulté le )
- « Midjourney, ChatGPT… Quel rôle l’intelligence artificielle joue-t-elle sur la désinformation ? », sur Ouest-France.fr, (consulté le )
- (en) « Proof of personhood: What it is and why it’s needed », sur worldcoin.org (consulté le )
- (en) Jeffrey Laddish et Lennart Heim, « Information security considerations for AI and the long term future », sur LessWrong, .
- (en) Zach Stein-Perlman, « DeepMind: Model evaluation for extreme risks », LessWrong, (lire en ligne, consulté le )