Accueil🇫🇷Chercher

Singularité technologique

La singularité technologique (ou simplement la Singularité) est l'hypothèse selon laquelle l'invention de l'intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine[1].

La frise chronologique de Ray Kurzweil (2005) date le moment où un superordinateur sera plus puissant qu'un cerveau humain, et pourra alors le simuler : il s'agit d'une méthode envisagée pour créer une intelligence artificielle, utilisée notamment dans le projet Blue Brain.

Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d'intelligence » créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l'intelligence humaine[1] - [2] - [3].

Le risque serait que l'humanité perde le contrôle de son destin[4]. L'auteur de science fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l'ère humaine[3], la nouvelle superintelligence continuant de s'améliorer et d'évoluer technologiquement à une vitesse incompréhensible pour les humains[5].

Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 1950[6] et ses conséquences ont été débattues dans les années 1960 par I. J. Good. Selon Ray Kurzweil[7], cofondateur de la Singularity University[8] - [3], la singularité deviendrait réalité approximativement en 2045.

La possibilité et la date de survenue de cet évènement hypothétique fait toutefois l'objet de débats entre scientifiques. Plusieurs futurologues et transhumanistes l’attendent pour la troisième décennie du XXIe siècle[9] - [3].

Émergence du concept

Kurzweil écrit que, en raison du changement de paradigme, une tendance de la croissance exponentielle va des circuits intégrés jusqu'aux récents transistors, les tubes à vide, les relais électromécaniques et les ordinateurs électromécaniques.

L'idée de présenter l'évolution exponentielle de la technologie remonte au moins à 1932, avec John B. Sparks et son « histocarte de l’évolution ». Vers la même époque, cette idée a été critiquée par le cybernéticien Heinz von Foerster (secrétaire des conférences Macy auxquelles a participé John von Neumann, entre autres)[10], en soutenant que les souvenirs s'estompent naturellement d'une manière exponentielle.

Même si le concept de singularité ne s’est développé qu'au cours des deux dernières décennies du XXe siècle, l’origine du terme remonte en fait aux années 1950 :

« L’une des conversations avait pour sujet l’accélération constante du progrès technologique et des changements du mode de vie humain, qui semble nous rapprocher d’une singularité fondamentale de l’histoire de l’évolution de l’espèce, au-delà de laquelle l’activité humaine, telle que nous la connaissons, ne pourrait se poursuivre. »

Stanislaw Ulam, mai 1958, au sujet d’une conversation avec John von Neumann

Dans sa conférence du , « Psychanalyse et cybernétique ou de la nature du langage », Jacques Lacan relève, à son époque, un bougé des lignes du côté de la science, frémissement qu’il perçoit ainsi : « quelque chose est passé dans le réel, et nous sommes à nous demander — peut-être pas très longtemps, mais des esprits non négligeables le font — si nous avons une machine qui pense. » (cette citation fut à plusieurs reprises extraite de son contexte et attribuée à tort à John von Neumann lui-même).

En 1965, Irving John Good décrit un concept de singularité plus proche de son acception actuelle, dans le sens où il inclut l’arrivée d’intelligences artificielles générée par une première amorçant le phénomène :

« Mettons qu’une machine supra-intelligente soit une machine capable dans tous les domaines d’activités intellectuelles de grandement surpasser un humain, aussi brillant soit-il. Comme la conception de telles machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans conteste une « explosion d’intelligence », et l’intelligence humaine serait très vite dépassée. Ainsi, l’invention de la première machine supra-intelligente est la dernière invention que l’Homme ait besoin de réaliser. »

Le terme de singularité ne désigne pas une croissance devenant infinie à l'instar d'une singularité mathématique, mais représente le fait que les modèles prédictifs existants ne sont plus appropriés à sa proximité, de la même façon que les modèles physiques actuels ne sont plus adaptés au voisinage d’une singularité de l'espace-temps.

La singularité vingienne

Lorsqu’on représente sur un graphe logarithmique quinze listes différentes d’événements de l'histoire humaine, le graphe mettrait en évidence une tendance exponentielle. Listes préparées entre autres par Carl Sagan, Paul D. Boyer, l'Encyclopædia Britannica, l'American Museum of Natural History et l’Université de l'Arizona, compilées par Ray Kurzweil.

Le concept de « singularité technologique » fut repopularisé en partie grâce au mathématicien et auteur Vernor Vinge[11]. Vinge a commencé à parler de la singularité dans les années 1980 et a formulé ses idées dans son premier article sur le sujet en 1993 : l’essai Technological Singularity[12]. Il y postule que, d’ici trente ans, l’humanité aurait les moyens de créer une intelligence surhumaine mettant un terme à l’ère humaine[3]. Depuis, la singularité a été le sujet de nombreuses nouvelles et essais futuristes.

Vinge écrit que des intelligences surhumaines, créées par des humains aux capacités augmentées cybernétiquement ou par d'autres intelligences artificielles moins développées, seraient capables d’améliorer leurs propres capacités plus efficacement que les esprits humains les ayant conçues. Ainsi, une spirale de progrès de plus en plus rapide amènerait à des progrès technologiques très importants en une courte période de temps.

La singularité peut être vue comme la fin des civilisations humaines actuelles et le début d’une nouvelle organisation. Dans son œuvre, Vinge s’interroge sur les raisons de cette fin et conclut que les humains pourraient s'organiser pendant la Singularité en une forme supérieure d’intelligence[3]. Après la création de cette intelligence « surhumaine », les humains seraient, d’après Vinge, des formes de vie ayant une moindre influence sur le développement du monde, plutôt membres participants à un système que « pilotes dans l'avion ».

L'explosion de l'intelligence

Estimations de la puissance de traitement nécessaire pour émuler un cerveau humain à différents niveaux, ainsi que du supercalculateur le plus rapide du TOP500, cartographié par année, et d'une ligne de tendance. Détermination exponentielle, avec l'hypothèse du doublement de la puissance de calcul tous les 1,1 an pour la ligne de tendance.

Irving John Good a spéculé en 1965 sur les effets des machines plus intelligentes que les hommes :

« Soit une machine ultra-intelligente définie comme une machine qui peut largement dépasser toutes les activités intellectuelles d'un homme si habile soit-il. Comme la conception de machines est l'une de ses activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore plus poussées : il y aurait alors incontestablement une « explosion de l'intelligence », et l'intelligence de l'homme serait laissée loin derrière. Ainsi, la première machine ultra-intelligente sera la dernière invention que l'Homme doive jamais faire. »

Jeff Hawkins a répondu à cette spéculation dans le rapport spécial IEEE Spectrum sur la singularité[13] :

« Le terme Singularité appliqué à des machines intelligentes se réfère à l'idée que lorsque des machines intelligentes pourront concevoir des machines intelligentes, plus intelligentes qu'elles, cela provoquera une croissance exponentielle de l'intelligence des machines conduisant à une singularité de l'intelligence à l'infini (ou du moins immense). La croyance en cette idée se fonde sur une conception naïve de ce qu'est l'intelligence. Par analogie, imaginez que nous ayons un ordinateur qui pourrait concevoir de nouveaux ordinateurs (puces, systèmes et logiciels) plus rapides que lui-même. Est ce qu'un tel ordinateur produirait infiniment des ordinateurs ou même des ordinateurs plus rapides que ce que les humains pourraient construire d'eux-mêmes ? Non, cela pourrait accélérer le rythme des améliorations pour un certain temps, mais à la fin il y a des limites de taille et de vitesse. Nous arriverions au même résultat, nous aurions tout simplement été un peu plus rapides en prenant des risques. Et il n'y aurait eu aucune singularité. »

L'accélération du progrès

Représentation des grandes avancées sur une échelle temporelle.

Eliezer Yudkowsky explique de manière abordable l'effet de l'accélération dans Scruter la Singularité (2004)[14] :

« La version courte :

  • si les vitesses de calcul doublent tous les deux ans, qu’arrive-t-il quand des IA informatisées font la recherche ?
  • la vitesse de calcul double tous les deux ans.
  • la vitesse de calcul double tous les deux ans de travail.
  • la vitesse de calcul double tous les deux ans subjectifs de travail.

Deux ans après que les Intelligences Artificielles ont atteint l’équivalence humaine, leur vitesse double. Un an après, leur vitesse double de nouveau.

Prenez les valeurs correspondant aux vitesses de calcul actuelles, à leur temps de doublement actuel, et à une estimation de la puissance de calcul brute du cerveau humain, et les valeurs coïncident en 2021. »

Raymond Kurzweil, qui est un futuriste et un inventeur (il a notamment inventé différents modèles de synthétiseurs), a proposé des théories étendant la loi de Moore à des formes de calcul autres qu’informatiques[3], qui suggèrent que les phases de croissance exponentielle du progrès technologique feraient partie de motifs visibles à travers toute l’histoire humaine et même avant, dès l’apparition de la vie sur Terre, en prenant en compte sa complexification biologique. D’après Kurzweil, ce motif aboutit au XXIe siècle à un progrès technologique inimaginable, ce qui ne veut pas dire infini.

Pour se représenter de manière abordable l'accélération de la vitesse, la vitesse étant le progrès, ce serait identique à un changement de vitesse sur une voiture ou un vélo : ce qui correspond à changer pour un rapport de couple supérieur permettant d'atteindre une vitesse supérieure, ce qui équivaut à plus de progrès pour une même valeur temporelle.

La vitesse des flux, la vitesse d'apprentissage dans une société sont des composantes pouvant définir des limites systémiques dans la société.

La question sera donc de savoir si toute l'humanité voudra changer de vitesse, ce qui pourrait par conséquent redéfinir la notion d'humanité, ou s’il y aura une humanité qui préférera rester à sa vitesse, ou peut être que l'avènement de la singularité se passera « trop vite » et personne ne pourra réagir : en prendre conscience avec un temps de réaction et d'observation à la vitesse humaine, puis la réaction politique, et législative.

La définition de la singularité technologique serait alors : un progrès technologique si rapide que cela dépasse la capacité des humains à la contrôler ou à la prédire, à la comprendre et à réagir à temps[15]. Quelles sont les conséquences à long terme de la révolution industrielle pour l'humanité ? Et n'est-ce pas déjà une forme de singularité ?

Les questions d'ordre philosophique surgissent : l'« humain » est-il dépassé, et y a-t-il un mal à accepter ses limites naturelles[3] ? Y a-t-il un mal à vouloir s'améliorer ? Peut-on raisonnablement refuser le téléphone portable, dans notre société, et quelles en sont les conséquences ? Vous pouvez remplacer pour l'exemple l'outil téléphone portable par tout autre gadget à se greffer en permanence pour augmenter les capacités humaines. Slavoj Žižek pointe ce manque de réflexion de la société, et le manque d'attention voire de capacité et de temps pour la population, pour analyser et comprendre des grands problèmes philosophiques qui s'annoncent : OGM, manipulation génétique, cure génétique, intelligence artificielle, etc.[16]

Loi de Moore

Selon la loi de Moore, le nombre de transistors de la dernière gamme de processeur est doublé tous les deux ans. Ce chiffre a baissé d'où le ralentissement de l'accélération exponentielle. Et selon Ray Kurzweil, cela devrait se poursuivre jusqu'en 2019 pour cette technologie, jusqu'à ce qu'un autre type de technologie prenne le relais (optique, quantique ou moléculaire)[17].

Lawrence Krauss et Glenn D. Starkman annoncent quant à eux une limite ultime se trouvant dans 600 ans[18].

On remarque également :

  • la puissance de calcul des superordinateurs est doublée tous les dix mois ;
  • la taille mémoire disponible sur un disque dur est doublée tous les dix-huit mois[19] : un disque 3.5 pouces : 2011 - 4 téraoctets ; 2014 - 16 téraoctets[19] ; projection : 2023 - 1 000 téraoctets ;
  • la quantité d'information sur le réseau internet double tous les dix ou douze mois environ[20]
  • le trafic internet double tous les quinze mois[21] ;
  • le niveau et la vitesse des interrelations sociales, ou web temps réel, suit également la loi de Moore. (Avec par exemple 350 000 tweets, et 1 000 000 liens bit.ly, et 9 nouvelles page Wikipédia par minute, …)[22] ;
  • les caméras, télescopes, IRMs (appareil principalement médical) et séquenceurs ADN ont une précision et rapidité qui double tous les dix-huit mois[23] ;
  • la consommation d'énergie suit également cette évolution[24], et l'énergie solaire spatiale est envisagée par des pays et entreprises[25] - [26]. Le soleil produit plus d'énergie que nous n'en produirons durablement à la surface de la terre.

Il faut remarquer qu'il y a une limite physique dans la technologie utilisée actuellement. L'électronique ne peut aller sous la taille d'un atome.

Cependant plusieurs voies permettraient de dépasser cette limite :

  • le changement de l'élément lié à l'information, par exemple les processeurs ou la mémoire quantique, moléculaire. Les avancées en ordinateurs moléculaires[27] et quantiques[28] démontrent les possibilités réelles de ces technologies. La technologie quantique permettrait de résoudre des problèmes complexes avec un nombre d'opérations comparativement énormément diminué (simplification NP complexe)[29] - [30] - [31]. La technologie moléculaire permettrait l'apprentissage et la résolution d'autres types de problèmes complexes[32] - [33] ;
  • le changement d'architecture de processeur, les processeurs actuels ont une architecture parfaite pour les calculs, mais ne sont pas adaptés au problème complexe qui faciliterait la création d'une intelligence artificielle. Le DARPA a lancé un projet de construction de processeur probabiliste, le GP5, le cinquième type de processeur après les CPU, DSP, FPGA, et GPU[34]. Les probabilités sont utilisées en intelligence artificielle pour le datamining, pour l'approche probabiliste dans certains domaines de l'intelligence artificielle (reconnaissance visuelle, linguistique computationnelle, sémantique, apprentissage machine et logique floue)[35] ;
  • le changement de matériaux pour augmenter la fréquence (ex. : gallium, gallium + silicium[36]) ;
  • si la limite est atteinte, pour obtenir plus de puissance il faudra plus d'espace. Les processeurs peuvent évoluer sur plusieurs couches (en trois dimensions)[37] ;
  • les progrès logiciels à effectuer sont nombreux : structures de bases de données, utilisation…

Les singularités

Intelligences créatives et décisionnelles

Les singularités créatives seraient dans le domaine de la puissance de création et de recherche brute : une intelligence artificielle, si elle est créée, dépasserait rapidement l'ensemble de l'humanité dans ce domaine[3].

Culturelles

Les singularités culturelles visent à augmenter l'humain et ses perceptions par diverses informations pour créer une réalité augmentée, une immersion dans une réalité virtuelle ou parallèle à la nôtre.

L'ouverture (en parallèle avec le Principe responsabilité, et le Principe de précaution) est un des choix de politique de société en système ouvert important pour l'avenir :

  • Selon Jamais Cascio : Une Singularité se basant sur l'« accès-libre » est une réponse aux risques à venir. Les personnes qui ont embrassé la possibilité d'un grand bouleversement pour l'humanité dans un avenir proche (appelé parfois singularité) devraient s'occuper à rendre possible l'intégration globale des intérêts particuliers dans des systèmes ouverts, au moins autant qu'ils travaillent à rendre possible la singularité[38].

Transhumanisme

D’après l’idéologie transhumaniste dont l’entrepreneur et directeur de l’ingénierie de Google, Ray Kurzweil est le principal théoricien, la singularité technologique ressemble davantage à une promesse eschatologique qui prédit une transformation profonde et radicale des sociétés humaines grâce au développement surprenant de l’intelligence artificielle (IA). Les dynamiques vertigineuses des IA associées aux progrès dans les champs des nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) conduiront probablement pour les transhumanistes à la fusion de l’homme et de la machine, de l’union du biologique à la technologie dont les effets pratiques seront de résoudre les problèmes humains les plus complexes (moraux, culturels, économiques, politiques, etc.) et même d’éradiquer la mort. La fusion effective de l’homme et de l’intelligence artificielle annoncerait la naissance d’une nouvelle humanité qui bénéficierait des capacités analytiques d’un superordinateur et qui serait débarrassée des inconvénients du corps biologique[39].

Critique des singularistes

Critique du modèle scientifique

Des auteurs, sans critiquer directement la notion de singularité, remettent en question l'idée d'accélération technologique.

Le concept de singularité ne tient pas compte des besoins et des ressources disponibles en énergie. Soit il postule des ressources infinies, soit il estime sans le démontrer que les besoins ne changeront que peu. Accessoirement, il ne tient pas compte de la limite quantique à laquelle la miniaturisation des composants électroniques se heurtera nécessairement un jour, ni de perturbations négligeables aux échelles actuelles et qui ne le resteront pas forcément à d'autres échelles (particules alpha, etc.) ; à moins que l'ordinateur quantique ne prenne le relais des composants traditionnels...

Les hypothèses relatives à la Singularité sont régulièrement critiquées pour leur manque de solidité scientifique. Theodore Modis rappelle par exemple[40] qu'une courbe exponentielle ne débouche sur aucune singularité, mais continue à croître à l'infini. Douglas Hofstadter se montre lui aussi très critique, avançant que cette idée n'exprime en fait qu'un souhait de ses défenseurs[41].

Jonathan Huebner écrit en conclusion de son article que « la preuve avancée indique que le rythme de l'innovation a atteint un pic il y a environ un siècle et est maintenant en déclin. Ce déclin est le plus probablement dû à une limite économique de la technologie ou à une limite du cerveau humain que nous approchons. Nous avons déjà parcouru 85 % du chemin qui nous sépare de cette limite, et le rythme du développement technologique diminuera à chaque année écoulée. »[42] - [43]. De telles analyses se retrouvent également chez Bob Seidensticker[44] ou chez David Bodanis[45].

Il existe bien des limites politiques, économiques, militaires (et stratégiques), des limites en ressources, et surtout la connaissance et les découvertes technologiques ont également leurs limites. Comme le conçoit également Ray Kurzweil.

De plus, Ray Kurzweil ne prend pas suffisamment en compte ce qu'est réellement une intelligence artificielle. L'Homme a toujours créé des outils pour améliorer l'économie et la société, mais ces améliorations de plus en plus nombreuses ne peuvent dépasser l'intérêt de la société concernée, elles ne seront toujours que des moyens de plus en plus développés pour atteindre les buts de celle-ci. Une intelligence artificielle est l'un de ces outils que l'Homme crée pour satisfaire ses besoins. Par conséquent, quand bien même l'amélioration exponentielle de la technologie se prolongerait dans les années à venir, elle a une limite absolue qu'elle ne dépassera jamais : les besoins de la société qui, eux, ne sont pas exponentiels. Par conséquent, cela signifie qu'une fois que la technologie sera en mesure de complètement satisfaire la société, son évolution se stabilisera. Pour cette raison, toute singularité liée à l'amélioration d'une société a une limite prédéterminée : l'apogée de la société concernée.

Critique humaine

La connaissance, et le développement technologique ayant leurs limites : doit-on remettre volontairement ou non notre pouvoir de décision en tant qu'espèce humaine à une intelligence artificielle (Intelligence qui par définition ne pourra être contrôlée de manière fiable) ?

C'est une question de choix politique lié à la fois à la grandeur d'un état et à la fois individuel : il n'y a pas une singularité, mais des singularités[46] - [3].

Cette réflexion mérite d'être commencée dès aujourd'hui dans toutes les sphères :

  • Peut-on accepter toute évolution technologique, ayant un impact sur la définition de ce qu'est l'humanité ?
  • Peut-on accepter une évolution technologique, ayant un trop grand risque de perte de contrôle de la société humaine ?

La connaissance, et le développement technologique ayant leurs limites, il pourrait être possible de se passer d'une intelligence artificielle pour faire des découvertes.

Critique dialectique

Plusieurs auteurs sont très critiques à l'endroit de la notion de singularité, notamment telle que développée par Ray Kurzweil. Theodore Modis écrit ainsi : « Ce que je veux dire est que Kurzweil et les singularistes sont impliqués dans une sorte de para-science, qui diffère des vraies sciences en termes de méthodologie et de rigueur. Ils ont tendance à négliger les pratiques scientifiques rigoureuses telles que se concentrer sur les lois naturelles, donner des définitions précises, vérifier les données méticuleusement, et estimer les incertitudes. […] Kurzweil et les singularistes sont plus des croyants que des scientifiques. »[47] - [40].

De son côté, Ted Gordon met également en doute les thèses de Kurzweil : « Kurzweil avance un argument frappant au sujet de l'accélération du changement. Il utilise de nombreuses courbes de croissance exponentielles, principalement concernant l'électronique, les nano-technologies et les ordinateurs, mais en incluant Internet et la biologie. Il montre une croissance similaire avec le PIB américain et le PIB par habitant. Il utilise également comme source majeure le travail de Modis sur le raccourcissement du temps entre les changements de paradigme. Il argumente en faveur de l'accélération du taux passé d'accélération et par conséquent de l'inévitabilité de la continuation de cet élan. Cependant, l'extrapolation sous toutes ses formes est dangereuse et condamnée en fin de compte à être fausse. »[48] - [40].

Drew McDermott, sans être aussi sévère, s'inquiète des conséquences de ce genre de littérature pour les recherches en Intelligence Artificielle : « Bien que je ne pense pas que Kurzweil ait prouvé son affirmation à propos de l'IA (et je n'ai rien à dire à propos de ses arguments concernant la génétique, les nano-technologies, la politique ou l'écologie), il pourrait voir juste. Mais juste ou faux, j'aimerais qu'il arrête d'écrire de tels livres ! Le domaine de l'IA est régulièrement empesté de lubies qui semblent surgir à la moindre perturbation »[49] - [50].

Plus simplement, on peut se rappeler que les singularités prévues en histoire de la physique (effondrement de l'atome de Bohr, catastrophe de l'ultraviolet…) n'ont jamais été observées, mais ont conduit plus simplement à un changement de modèle à leur voisinage.

Structure d'étude

À l'image du Santa Fe Institute créé pour regrouper les recherches sur le sujet de la complexité, mais sur une base d'activité saisonnière, une « université d'été de la Singularité » (Singularity University) a été créée en 2009 avec le concours de Google et de la NASA et offrira chaque été neuf semaines de cours sur le sujet à 120 étudiants[51] pour la somme de 25 000 dollars.

La singularité technologique dans la fiction

Notes et références

  1. (en) Singularity hypotheses: A Scientific and Philosophical Assessment, Dordrecht, Springer, , 1–2 p. (ISBN 978-3-642-32560-1, lire en ligne)
  2. (en) David Chalmers, « The singularity: A philosophical analysis », dans Journal of Consciousness Studies 17.9-10, 2010, p. 7-65.
  3. Dominique de Gramont, Le Christianisme est un transhumanisme, Paris, Éditions du Cerf, , 365 p. (ISBN 978-2-204-11217-8), chap. 1 (« A la recherche du transhumain »)
  4. (en) Bill Joy, « Why the future doesn’t need us », Wired Magazine (8.04), avril 2000 (consulté le 7 août 2007).
  5. (en) Vernor Vinge, « The Coming Technological Singularity: How to Survive in the Post-Human Era », originellement dans Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, p. 11–22, 1993.
  6. Kurzweil appuie son propos en rapportant une citation apocryphe de Von Neumann, qui selon l'explication que donne Kurzweil (dans la 3e note du premier chapitre de son livre The Singularity is Near) serait une paraphrase de Von Neumann par Stanislaw Ulam, « Tribute to John Von Neumann », dans Bulletin of the American Mathematical Society 64.3, pt. 2 (May 1958). Von Neumann aurait ainsi dit, selon Ulam : « The ever accelerating process of technology […] gives the appearance of approaching some essential singularity. (La rapidité toujours croissante des technologies nous donne l'impression d'approcher une singularité essentielle. » Comme le relève Theodore Modis (dans Technological Forecasting & Social Change 73 (2006) 95–127), ces propos signalent plus une illusion qu'un phénomène réel, ce qui s'éloigne de l'interprétation que donne Kurzweil de la citation de Von Neumann.
  7. (en) Ray Kurzweil, The Singularity is Near, Ed. Viking, 2005, p. 10.
  8. Laurent Sacco, « Google recrute Ray Kurzweil, un gourou du transhumanisme », sur futura-sciences.com, .
  9. url Un monde sans humains, documentaire de Philippe Borrel, Arte, 2012.
  10. (en) « Interview Heinz von Foerster » (consulté le ).
  11. Voir les romans Un feu sur l'abîme, Au tréfonds du ciel et La Captive du temps perdu.
  12. (en) « Technological Singularity » (consulté le ).
  13. (en)
    « The term 'singularity' applied to intelligent machines refers to the idea that when intelligent machines can design intelligent machines smarter than themselves, it will cause an exponential growth in machine intelligence leading to a singularity of infinite (or at least extremely large) intelligence. Belief in this idea is based on a naive understanding of what intelligence is. As an analogy, imagine we had a computer that could design new computers (chips, systems, and software) faster than itself. Would such a computer lead to infinitely fast computers or even computers that were faster than anything humans could ever build? No. It might accelerate the rate of improvements for a while, but in the end there are limits to how big and fast computers can run. We would end up in the same place; we'd just get there a bit faster. There would be no singularity. »
  14. introduction de Scruter la Singularité, éditions hache.
  15. The nanotech pioneers: where are they taking us? par Steven A. Edwards, (ISBN 9783527312900)
  16. Slajov Zizek en conférence chez Google
  17. Ray Kurzweil (2001-03-07). "The Law of Accelerating Returns". KurzweilAI.net. http://www.kurzweilai.net/articles/art0134.html?printable=1. Consulté le 24 juin 2006.
  18. Ethan Mollick (2006). "Establishing Moore's Law". IEEE Annals of the History of Computing. http://www2.computer.org/portal/web/csdl/doi/10.1109/MAHC.2006.45. Consulté le 18 octobre 2008.
  19. Disque dur de 4 To chez Hitachi en 2011
  20. [PDF] Internet growth: Is there a “Moore's Law” for data traffic?.
  21. « Le trafic Internet va quadrupler en cinq ans » (cisco), infos-du-net.com.
  22. Web2 Expo SF by Hilary Mason
  23. Data-intensive supercomputing Michael Norman, director of the San Diego Supercomputer Center (SDSC) at the University of California, San Diego (UCSD).
  24. World Energy in Exajoules by energy source from 1800 to 2008
  25. (en) « Solar Wind Power (SWP) Satellites could provide 100 billion times current world energy needs », nextbigfuture.com.
  26. (en) « National Space Society Announces the Kalam-NSS Energy Initiative for Space Based Solar Power », nextbigfuture.com.
  27. Brain-Like Computing on an Organic Molecular Layer
  28. Reconnaissance d’image : Google compte sur l’informatique quantique
  29. 10 page paper - Investigating the Performance of an Adiabatic Quantum Optimization Processor
  30. High performance Quantum Monte Carlo simulations on a large-scale Internet-based computing platform were used to compare the median adiabatic times with the median running times of two classical solvers
  31. New Developments in Quantum Algorithms
  32. Molecular Cellular Automata Achieves 700 bits of Parallel Processing
  33. Molecular computer mimics human brain, Processor can solve complex problems, even heal itself
  34. DARPA funds Mr Spock on a Chip, Lyric's probability processor
  35. Ben Goertzel at Singularity Summit 2009 -- Pathways to Beneficial Artificial General Intelligence
  36. Des puces hybrides Silicium-Nitrure de Gallium pour des transistors plus rapides
  37. "After the Transistor, a Leap Into the Microcosm", The New York Times, August 31, 2009. Retrieved August 31, 2009.
  38. Openness and the Metaverse Singularity by Jamais Cascio, Originally presented at Singularity Summit 2007, September 8, 2007. Reprinted with permission on KurzweilAI.net November 7, 2007. "For me, the solution is clear. Trust depends upon transparency. Transparency, in turn, requires openness. We need an Open Singularity."
  39. Mark O’Connell (trad. de l'anglais), Aventures chez les transhumanistes : cyborgs, techno-utopistes, hackers et tous ceux qui veulent résoudre le modeste problème de la mort, Paris, L'Échappée, , 256 p. (ISBN 978-2-37309-037-6), p. 26
  40. Technological Forecasting & Social Change 73 (2006) 95–127
  41. An Interview with Douglas R. Hofstadter, following I am a Strange Loop
  42. « the evidence presented indicates that the rate of innovation reached a peak over a hundred years ago and is now in decline. This decline is most likely due to an economic limit of technology or a limit of the human brain that we are approaching. We are now approximately 85% of the way to this limit, and the pace of technological development will diminish with each passing year »
  43. Jonathan Huebner, A possible declining trend for worldwide innovation, Technological Forecasting & Social Change 72 (2005) 980–986
  44. Bob Seidensticker, Future Hype: The Myths of Technology Change, Berrett-Koehler Publishers, Inc., 2006
  45. David Bodanis, Slow Forward, Is the speed of technological change an illusion? Discover, Vol. 27 No. 06, June 2006.
  46. Our world does not evolve along a single path but by multiple inter-related networked processes. Singularity Summit 2009: The Singularity Is Near, Ray Kurzweil
  47. « What I want to say is that Kurzweil and the singularitarians are indulging in some sort of para-science, which differs from real science in matters of methodology and rigor. They tend to overlook rigorous scientific practices such as focusing on natural laws, giving precise definitions, verifying the data meticulously, and estimating the uncertainties. […] Kurzweil and the singularitarians are more believers than they are scientists »
  48. « Kurzweil makes an impressive argument about the acceleration of change. He uses many exponential growth curves, primarily drawn from electronics, nano-technology and computers, but including Internet and biology. He shows similar growth in real US GDP and GDP per capita. He also uses as one major source work by Modis on the shortening time between paradigm shifts. He argues for the acceleration of the past rate of acceleration and by implication the inevitability that this momentum will carry on. However, extrapolation in any guise is dangerous and ultimately bound to be wrong »
  49. « Although I don’t think Kurzweil has proved his case about AI (and I have had nothing to say about his arguments on genetics, nanotechnology, politics, or ecology), he may be right. But right or wrong, I wish he would stop writing these books! The field of AI is periodically plagued by “hype hurricanes” that seem to surge up from the slightest perturbation »
  50. D. McDermott, Kurzweil’s argument for the success of AI, Artificial Intelligence 170 (2006) 1227–1233
  51. "Unique university coming to Bay Area this year" 3 février 2009
  52. Kill the tech bro, save the world: how CEOs became Hollywood's new supervillains, The Guardian, 6/6/2018
  53. Johann A R Roduit, Flesh & Foil, BioéthiqueOnline, (lire en ligne)

Voir aussi

Bibliographie

  • Ray Kurzweil, « Humanité 2.0 : La bible du changement », M21 Éditions, 2007, (ISBN 9782916260044) (traduction de « The Singularity is near »)
  • Serge Boisse, « L'esprit, l'IA et la Singularité », (ISBN 978-2-9530512-1-6)
  • Kate Darling, Alain Bensoussan, Yannis Constantinides, Jean-Gabriel Ganascia, John Mc Carthy, Olivier Tesquet, « En compagnie des robots », (ISBN 979-10-94841-17-4)

Articles connexes

Notions générales

Penseurs « pro-singularité »

Penseurs « anti-singularité »

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.