Éthique de l'intelligence artificielle
L'éthique de l'intelligence artificielle est le domaine de l'éthique de la technologie (en) propre aux robots et autres entités artificiellement intelligents[1]. Il est généralement divisé en roboéthique, qui se préoccupe de l'éthique humaine pour guider la conception, la construction et l'utilisation des êtres artificiellement intelligents, et l'éthique des machines (en), préoccupée par le comportement moral des agents moraux artificiels.
Pour l'aspect philosophique de l'intelligence artificielle, voir Philosophie de l'intelligence artificielle.
Roboéthique
La « roboéthique » envisage l'aspect éthique de la conception, la construction, l'utilisation, et le traitement des robots par les humains[2]. Elle considère à la fois comment des êtres artificiellement intelligents peuvent être utilisés pour nuire à l'homme et comment elles peuvent être utilisées au profit de celui-ci.
Droits des robots
Les droits des robots sont les obligations morales de la société vis-à -vis de ses machines, similairement aux droits de l'homme et aux droits des animaux[3]. Il peut s'agir du droit à la vie et à la liberté, à la liberté de pensée et d'expression et à l'égalité devant la loi[4]. La question a été examinée par l'Institute for the Future[5] et par le Department of Trade and Industry du Royaume-Uni[6].
Les experts ne s'accordent pas pour déterminer si des lois spécifiques et détaillées seront requises dans un avenir lointain[6]. Glenn McGee rapporte qu'un grand nombre de robots humanoïdes peuvent apparaître d'ici 2020[7]. Ray Kurzweil fixe la date à 2029[8]. Un autre groupe de scientifiques réunis en 2007 a supposé qu'au moins 50 ans devaient passer avant qu'un système suffisamment avancé n'existe[9].
Atteinte à la vie privée
Le premier cercle d'Aleksandr Solzhenitsyn décrit l'utilisation de la technologie de la reconnaissance vocale au service de la tyrannie[10]. Si un programme d'IA existe qui peut comprendre les voix et les langues naturelles, alors, avec une puissance de traitement adéquate, il pourrait théoriquement écouter chaque conversation téléphonique et lire chaque courriel dans le monde, les comprendre et rendre compte ce qu'est dit et par qui. Un programme d'IA comme celui-ci pourrait permettre aux gouvernements ou à d'autres entités de supprimer efficacement la dissidence et d'attaquer leurs ennemis.
Atteinte à la dignité humaine
Joseph Weizenbaum a soutenu en 1976 que la technologie de l'IA ne devrait pas être utilisée pour remplacer des personnes dans des positions qui exigent le respect et les soins, tels que :
- Un représentant du service à la clientèle (la technologie AI est déjà utilisée aujourd'hui pour les systèmes téléphoniques interactifs de réponse vocale)
- Un thérapeute (comme le proposait sérieusement Kenneth Colby dans les années 1970)
- Une assistance aux personnes âgées (comme l'a rapporté Pamela McCorduck dans son livre The Fifth Generation)
- Un soldat
- Un juge
- Un policier
Weizenbaum explique que nous avons besoin d'authentiques sentiments et d'empathie de la part des personnes occupant ces postes. Si les machines les remplacent, nous nous retrouverons aliénés, dévalués et frustrés. L'intelligence artificielle, si elle est utilisée de cette façon, représente une menace pour la dignité humaine[11].
Le fondateur d'IA John McCarthy s'oppose au ton moralisateur de la critique de Weizenbaum. « Quand la moralisation est à la fois véhémente et vague, elle invite l'abus autoritaire », écrit-il.
Bill Hibbard (en)[12] écrit que « la dignité humaine exige que nous nous efforcions d'éliminer notre ignorance de la nature de l'existence, et l'IA est nécessaire pour cet effort. »
Transparence et open source
Bill Hibbard soutient que parce que l'IA aura un effet profond sur l'humanité, les développeurs d'IA sont des représentants de l'humanité future et ont donc l'obligation éthique d'être transparents dans leurs travaux[13]. Ben Goertzel et David Hart ont créé OpenCog, un cadre open source pour le développement de l'IA[14]. OpenAI est une société de recherche à but non lucratif créée par Elon Musk, Sam Altman et d'autres pour développer l'IA open source[15]. De nombreux autres développements Open Source d'intelligence artificielle ont vu jour.
La transparence de l'IA est la capacité pour ses utilisateurs de comprendre comment les décisions sont prises par les algorithmes. Les décisions prises par l'IA peuvent avoir un impact significatif sur les humains, il est donc crucial que les intelligences artificielles soient transparentes en ce qui concerne leurs décisions, de façon à permettre d'identifier leurs biais potentiels. Cela pourra également permettre de renforcer la confiance envers les systèmes d'IA et de favoriser l'adoption de ces technologies dans le futur selon le besoin[16].
Quelques méthodes permettent de rendre les systèmes d'IA plus transparents. L'une des approches consiste à utiliser des techniques d'exploration de modèle pour comprendre comment l'IA prend ses décisions. Cela peut être fait en examinant les poids et les biais des algorithmes et en les comparant à des ensembles de données d'entraînement.
Une autre méthode consiste à rendre les systèmes d'IA plus interprétables. Des techniques telles que la représentation graphique des résultats permettent ainsi de visualiser comment les données sont traitées par l'IA. Ces méthodes ne permettent toutefois pas de comprendre réellement les décisions prises par les intelligences artificielles, donc ne permettent pas de les prédire[17].
La transparence de l'IA est également nécessaire pour s’assurer que les systèmes d'IA soient équitables et non discriminatoires[18].
Intelligence artificielle et armes autonomes
Certains experts et universitaires ont mis en doute l'utilisation de robots pour le combat militaire, surtout lorsque ces robots sont dotés d'un certain degré d'autonomie[19] - [20]. La Marine américaine a financé un rapport qui indique que, à mesure que les robots militaires deviennent plus complexes, il faudrait accorder plus d'attention aux implications de leur autonomie[21] - [22]. Un chercheur affirme que les robots autonomes pourraient être plus humains, car ils pourraient prendre des décisions plus efficacement.
Les armes autonomes avec IA peuvent présenter un type de danger différent de celui des armes commandées par des humains. De nombreux gouvernements ont commencé à financer des programmes pour développer l'armement à base d'intelligence artificielle. La marine des États-Unis a annoncé des plans de développement des drones de combat autonomes, en parallèle des annonces similaires de la Russie et de la Corée.
En ce qui concerne la possibilité d'utiliser militairement des systèmes plus intelligents, l'Open Philanthropy Project écrit que ce scénario « semble potentiellement être aussi important que les risques liés à la perte de contrôle », mais que les organismes de recherche qui enquêtent sur l'impact social à long terme des IA ont consacré relativement peu de temps à cette préoccupation : « cette classe de scénarios n'a pas été un axe majeur pour les organisations les plus actives dans ce domaine, comme la Machine Intelligence Research Institute (MIRI) et Future of Humanity Institute (FHI), il semble y avoir eu moins d'analyses et de débats à leur sujet »[23].
« Priorités de recherche pour une intelligence artificielle robuste et bénéfique » (2015)
Stephen Hawking, Elon Musk, Max Tegmark et plusieurs autres de la communauté internationale en intelligence artificielle et en robotique ont signé une Lettre ouverte sur l'intelligence artificielle[24] du Future of Life Institute (« Institut de l'avenir de la vie »). Cette lettre fait référence à un article publié séparément sur les priorités en recherche sur l'IA.
« Armes autonomes : une lettre ouverte de chercheurs en IA et en robotique » (2015)
Une lettre ouverte sur les armes autonomes est publiée[25] : « Si une puissance militaire majeure avance avec le développement de l'arme de l'intelligence artificielle, une course aux armements mondiale est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikov de demain », dit la pétition, qui inclut le cofondateur de Skype, Jaan Tallinn et professeur de linguistique du MIT Noam Chomsky en tant que partisans supplémentaires contre l'armement des IA[26]. Le message porté par Hawking et Tegmark indique que les armes d'AI représentent un danger immédiat et que des mesures sont nécessaires pour éviter une catastrophe dans un avenir proche[27].
« Lettre ouverte à la Convention des Nations unies sur certaines armes classiques » (2017)
Une autre lettre ouverte[28] au sujet de la Convention sur certaines armes classiques des Nations unies cible spécifiquement le bannissement des armes autonomes dans le cadre des Nations unies. Cette lettre, « AN OPEN LETTER TO THE UNITED NATIONS CONVENTION ON CERTAIN CONVENTIONAL WEAPONS » , est signée par Elon Musk de Tesla et par Mustafa Suleyman (en) d'Alphabet ainsi que par 116 spécialistes de 26 pays.
« Les armes létales autonomes menacent de devenir la troisième révolution en armement. Une fois développées, ces armes permettront de combattre dans un conflit armé à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains ne peuvent le comprendre. Elles peuvent être des armes de terreur, des armes que des despotes et des terroristes utilisent contre des populations innocentes, et des armes piratées pour se comporter de manière indésirable. Nous n'avons pas longtemps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la fermer. Nous implorons donc les Hautes Parties contractantes de trouver un moyen de nous protéger tous de ces dangers. »
Le chercheur canadien Yoshua Bengio a écrit au premier ministre Trudeau pour demander, avec ses collègues, « que le Canada appuie les démarches en cours à l’ONU afin de bannir les robots tueurs. C’est pour cela que j’ai contribué, aux côtés de Stephen Hawkins et Elon Musk, à l’élaboration d’une autre lettre, cette fois-ci provenant de toute la communauté internationale en intelligence artificielle et en robotique, et exigeant un traité international pour bannir les robots tueurs[29]. »
Positions inflationniste et déflationniste
Abordé par le philosophe Nick Bostrom dans son ouvrage intitulé Superintelligence : chemins, dangers, stratégies, le « risque existentiel » engendré par l'intelligence artificielle est abordé à l'aide de deux positions éthiques : l'inflationnisme et le déflationnisme[30]. Selon Bostrom, l'émergence d'une intelligence bien plus importante que l'intelligence humaine serait à venir et ainsi, la divergence de points de vue opposerait ceux étant pour le développement à long terme de cette nouvelle technologie et ceux pensant plutôt aux enjeux actuels associés à son implantation dans notre société.
Point de vue inflationniste
« La perspective inflationniste met l’accent sur les conséquences à long terme du développement de l’IA en réfléchissant notamment aux enjeux et aux risques associés à l’émergence d’une IA générale (IAG)[31]. » Ainsi, les gens adhérant à ce point de vue désirent créer des machines considérées éthiques selon les valeurs présentes dans la société moderne[31]. Ils partagent l'idée qu'un jour l'intelligence des machines surpassera celle des humains et qu'une IA pourra « exercer la plupart des professions humaines au moins aussi bien qu’un être humain moyen ». Par exemple, l’astrophysicien Stephen Hawking a déclaré :
« [j]e pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité. Une fois que les humains auraient développé l’IA, celle-ci décollerait seule, et se redéfinirait de plus en plus vite. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés. »
En janvier 2015, la lettre ouverte sur l'intelligence artificielle, défendue par des dizaines d'experts en intelligence artificielle et des personnalités comme Stephen Hawking et Elon Musk, semble concorder avec la position inflationniste en déclarant que bien que l'intelligence puisse éradiquer diverses maladies et la pauvreté, il est nécessaire de superviser son progrès de près pour éviter une perte de contrôle. Intitulé Priorités de recherches pour une intelligence artificielle solide et bénéfique : Lettre ouverte (en version originale en anglais Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter), ce document vise à mettre en place des priorités pour les enjeux économiques, éthiques et sociaux, entre autres[32]. Par exemple, « [u]n autre [enjeu] fréquemment évoqué est celui de systèmes d’IA fortes capables de programmer de façon autonome des algorithmes d’IA toujours plus performants, créant ainsi une distance supplémentaire entre l’IA et l’être humain »[33].
Point de vue déflationniste
La perspective déflationniste « cherche plutôt à penser les enjeux éthiques spécifiques qui sont actuellement associés au développement des systèmes d’IA réels et à leur implantation dans nos sociétés »[34]. En se concentrant sur les enjeux liés à l'intelligence artificielle, les partisans se ralliant à la philosophie déflationniste priorisent les réglementations visant à limiter et réduire les possibles dégâts causés par une utilisation inadéquate de cette nouvelle technologie[35]. Dans cette même optique de création de normes, le Forum IA responsable, appuyé par l'institut québécois de l'intelligence artificielle Mila, a proposé une première version de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle. Celle-ci appuie la position déflationniste afin de prioriser le développement de l’IA dans l’intérêt de l’humanité : « [l]e document déclare que l’IA doit ultimement promouvoir le bien-être de tous les êtres sensibles, la participation éclairée à la vie publique et les débats démocratiques »[36]. Suivant cette perspective, plusieurs autres grandes organisations ont rédigé des documents visant à réguler l'utilisation de l'intelligence artificielle. Un exemple de réglementations mises en place pour favoriser son usage sont les normes ISO. Selon l'Organisation internationale de normalisation, ces « document[s], établi[s] par consensus et approuvé[s] par un organisme reconnu » sont nécessaires afin de démystifier les effets potentiels de l'IA[37] - [38]. L'objectif visant à la « normalisation » de l'IA s'inscrit dans une perspective déflationniste afin que l'intelligence artificielle tienne compte de plusieurs enjeux éthiques tels que l'espionnage informatique et les biais algorithmiques[38] :
« La future norme ISO/IEC CD 23894, quant à elle, portera sur la gestion des risques des systèmes d’intelligence artificielle. Ce projet de norme s’appuie sur la norme ISO 31000:2018 - Management du risque, qui permet l’analyse et l’évaluation des risques, tels que les atteintes à la réputation ou à la marque, la cybercriminalité ou encore les risques politiques et le terrorisme. »
Une autre proposition de réglementation a été publiée en Europe le 21 avril 2021, dite Législation sur l'intelligence artificielle (Artificial Intelligence Act), et vise à rendre les appareils « digne[s] de confiance, centré[s] sur l’humain, éthique[s], durable[s] et inclusi[fs] »[39], appuyant ainsi le point de vue déflationniste.
Effervescence des guides d'éthique en intelligence artificielle et principes non uniformisés
Anna Jobin, Marcello Ienca et Effy Vayena[40] ont identifié 11 principes éthiques : transparence, justice/équité, non-malfaisance, responsabilité, respect de la vie privée, bienfaisance, liberté et autonomie, confiance, durabilité, dignité humaine et solidarité. Ces principes sont ici rangés du plus représenté au moins représenté. Les 84 documents qu’ils ont utilisés sont issus de différents types d’institutions : du secteur privé, du secteur public, des institutions académiques et de recherche, des associations professionnelles et sociétés scientifiques, des organisations sans but lucratif, etc.
Les principes ne figurent pas tous de manière systématique dans les guides éthiques, l’éthique de l’intelligence artificielle n’est donc pas un domaine unifié. Comme l’expliquent les auteurs, la notion d’éthique dans le domaine de l’IA est une notion floue qui peut recouvrir plusieurs réalités. On ne retrouve aucun principe éthique commun à l’ensemble de ces textes. Certains d'entre eux se démarquent tout de même tandis que d’autres se retrouvent sous-représentés. La question de la transparence, par exemple, même si elle n’apparaît pas dans tous les documents, dessine une forme de convergence. À l’opposé, les principes tels que la dignité (humaine) et la durabilité (sustainability) se retrouvent sous-représentés.
Cette notion de durabilité renvoie la plupart du temps à l’empreinte écologique de ces technologies, qui sont très gourmandes en données et donc possèdent une forte empreinte écologique. En dehors de cela, les auteurs soulignent que ce principe de sustainability est intimement lié à celui de solidarité. En ce sens, en dehors des impacts négatifs qu’a l’intelligence artificielle sur l’environnement, il s’agit de créer une technologie qui puisse perdurer, avec des données traitées de façon durable et dont les enseignements sont exploitables dans le temps. L’intelligence artificielle pourrait être conçue, développée et régie dans le but d’augmenter son efficacité énergétique tout en limitant son empreinte écologique.
Le principe de solidarité est, dans la plupart des cas, évoqué en référence à la perte des emplois et à la substitution de l’homme par la machine. Les auteurs soulignent qu’il est nécessaire de questionner ce principe en regard de la question humanitaire, pour aider à résoudre les défis humanitaires notamment.
Des solutions pour rendre l'intelligence artificielle plus éthique sont évoquées dans ces guides. L’ethics by design ou éthique a priori, par exemple, fait référence à l’idée d’une éthique qui ne se concentrerait non plus sur l’aval de la conception de l’IA mais bien sur l’amont de celle-ci. Depuis plusieurs années, les questions d’éthique de l’intelligence artificielle retentissent de plus en plus, dans les médias, aussi bien que dans toutes les sphères impliquées, ce qui a poussé le retrait de certains produits, applications ou algorithmes du marché du numérique. La solution serait donc de penser en amont de la conception, les éventuelles dérives de ces technologies afin d’en limiter les conséquences néfastes. Des solutions techniques sont apportées en ce sens, par exemple, on tente de mettre en place des techniques pour "débiaiser" l'IA.
En dehors de la technologie, on retrouve dans deux documents l’importance de mieux protéger les lanceurs d’alerte[41], ici, nous faisons référence à la notion forgée par Francis Chateauraynaud en 1996. Cette protection pourrait permettre de libérer la parole afin d'éveiller les consciences sur les éventuelles dérives de cette technologie.
Principes d’Asilomar
Plusieurs milliers de signataires, dont Stephen Hawking et Elon Musk ont « adopté un guide de référence pour un développement éthique de l'intelligence artificielle »[42]. Ces principes furent élaborés durant la conférence Asilomar de 2017[43].
Éthique des machines
L'éthique des machines (ou morale de la machine) est le domaine de recherche qui se consacre à la conception d'agents moraux artificiels (AMA), de robots ou d'ordinateurs artificiellement intelligents qui se comportent moralement[44] - [45] - [46] - [47].
Isaac Asimov a examiné cette question dans les années 1950 dans Les Robots. À l'insistance de son rédacteur John W. Campbell Jr., celui-ci a proposé les trois lois de la robotique dans le but de gouverner des systèmes artificiellement intelligents. Une grande partie de son travail a ensuite été consacrée à tester les limites de ses trois lois. Son travail suggère qu'aucun ensemble de lois fixes ne peut anticiper suffisamment toutes les circonstances possibles[48].
Certains experts et universitaires ont mis en doute l'utilisation de robots pour le combat militaire, surtout lorsque ces robots sont dotés d'un certain degré d'autonomie[21]. Le président de l'Association for the Advancement of Artificial Intelligence a commandé une étude afin d'examiner cette question[49]. Ils pointent vers des programmes d'Acquisition de Langage afin d'imiter l'interaction humaine.
Vernor Vinge a suggéré un point hypothétique de la civilisation humaine qui pourrait connaître une croissance technologique où certains ordinateurs deviendraient plus intelligents que les humains. Il appelle cela la « Singularité »[50]. Il suggère que celle-ci peut être très dangereuse pour l'humanité[51]. Ceci est discuté par la philosophie appelée Singularitarianisme. La Machine Intelligence Research Institute a suggéré la nécessité de construire des « intelligences artificielles amicales », ce qui signifie que les progrès qui sont déjà en cours avec l'IA devrait également inclure un effort pour rendre l'IA intrinsèquement amicale et humaine[52].
Dans Moral Machines: Teaching Robots Right from Wrong[53], Wendell Wallach et Colin Allen concluent que les tentatives d'enseigner les droits des robots à partir du mal vont probablement améliorer la compréhension de l'éthique humaine en motivant les humains à combler les lacunes de la théorie normative moderne et en fournissant une plate-forme pour l'investigation expérimentale. Nick Bostrom et Eliezer Yudkowsky ont plaidé pour des arbres de décision (tels que ID3) sur des réseaux de neurones et des algorithmes génétiques au motif que les arbres de décision obéissent aux normes sociales modernes de transparence et de prévisibilité[54].
Ethics Washing
Dans le domaine de l’intelligence artificielle, l’effervescence des principes éthiques questionne et nous renvoie à la notion d’ethics washing. Cette expression fait référence au phénomène qui ferait de l’éthique, un argument de vente, un phénomène de mode. En ce sens, les « ethics guidelines », créées par les entreprises et pour elles-mêmes, interrogent sur ce qui est mis derrière la notion d'éthique. Plusieurs auteurs pointent du doigt les discours sur l’éthique de l’intelligence artificielle tenus par certaines personnalités comme Elon Musk, Bill Gates ou encore Stephen Hawking. Ils semblent transformer la science-fiction en science, ce qui nous renvoie au phénomène de transhumanisme ou de Singularité technologique évoquée par Jean-Gabriel Ganascia[55]. Cette notion d’ethics washing semble questionner les raisons pour lesquelles autant d’acteurs s’emparent de cette notion d’éthique en intelligence artificielle. Il s'agirait de voir si l’intérêt de ces guides est légitime, ou s’il s’agit d’un moyen de casser la controverse et de limiter l’ingérence d’un pouvoir coercitif qui entraverait la recherche des acteurs.
Conséquences inattendues
De nombreux chercheurs ont fait valoir que, dans le cadre d'une « explosion de l'intelligence » au cours du XXIe siècle, une IA auto-améliorée pourrait devenir tellement plus puissante que les humains ne pourraient pas l'empêcher d'atteindre ses objectifs[56]. Dans son article Ethical Issues in Advanced Artificial Intelligence, Le philosophe d'Oxford Nick Bostrom soutient même que l'intelligence artificielle a la capacité de provoquer l'extinction humaine. Il prétend que la super-intelligence serait capable d'initiative indépendante et de faire ses propres plans. Puisque les intellects artificiels n'ont pas besoin de partager nos tendances de motivation humaines, ça serait aux concepteurs de celle-ci de spécifier ses motivations originales. En théorie, une intelligence artificielle ultra-intelligente serait en mesure d'aboutir à presque tous les résultats possibles et de contrecarrer toute tentative d'empêcher la mise en œuvre de son objectif principal, de nombreuses conséquences involontaires et incontrôlées pourraient alors survenir. Il pourrait tuer tous les autres agents, les persuader de changer de comportement ou bloquer leurs tentatives d'interférence[57].
Bill Hibbard[12] propose une conception de l'IA qui évite plusieurs types de comportement non intentionnel de celle-ci, y compris l'auto-désillusion, les actions instrumentales non intentionnelles et la corruption du générateur de récompense.
Dans son film Singularity (2017) Robert Kouba imagine qu'un super ordinateur (Kronos) décrète que l’homme est la plus grande menace pour la planète, et cherche à éradiquer l'espèce humaine.
Au lieu de conduire la race humaine à son extinction, Nick Bostrom croit qu'une super-intelligence peut nous aider à résoudre de nombreux problèmes difficiles tels que la maladie, la pauvreté et la dégradation de l'environnement, et pourrait nous aider à nous « améliorer »[58]
L'éthique de l'IA, l'IA digne de confiance et l'Europe
Face à des usages de l'intelligence artificielle parfois décriés, tels que les applications de surveillance décernant un score aux citoyens chinois[59], l'Europe souhaite se positionner comme un garant de l'éthique de l'intelligence artificielle. Elle constitue le un comité consultatif de 52 experts indépendants, le Groupe d'experts indépendants de haut niveau sur l'intelligence artificielle (GEHN IA, ou High Level Group on Artificial Intelligence, AI HLEG)[60], dont le rôle est de rédiger des documents à consultation ouverte sur l'IA digne de confiance, notamment des lignes directrices[61] et des auto-évaluations[62].
Le 21 avril 2021, l'Europe vise à se doter d'un législation en matière d'IA. Elle propose en cela une ébauche de loi sur l'intelligence artificielle, l'IA Act[63], qui devrait être finalisée en 2023 pour entrer en vigueur en 2025. Cette loi sur l'intelligence artificielle précise notamment des pratiques interdites en matière d'IA ainsi qu'une catégorisation de systèmes d'IA à haut risques : les IA qui sont intégrée en tant que composant de sécurité dans des systèmes déjà soumis à législation, et les IA autonomes avec des implications principalement dans les droits fondamentaux (voir par exemple la première ligne de ce chapitre).
En France, la CNIL se dote en janvier 2023 d'un service de l’intelligence artificielle (SIA), chargé de la « prévention des risques pour la vie privée liées à la mise en œuvre de ces systèmes » afin de « préparer l’entrée en application du règlement européen sur l’IA »[64].
Voir aussi
- Alignement des intelligences artificielles
- Altruisme efficace
- Cerveau artificiel
- Cerveau global
- Conscience artificielle
- Cybernétique
- Cyborg
- Deep learning
- Échelle de Kardashev
- Explosion d'intelligence
- Infosphère
- Internet des objets
- Intelligence artificielle
- Intelligence artificielle amicale
- Intelligence artificielle digne de confiance
- Intelligence artificielle forte
- Histoire de l'intelligence artificielle
- Intelligence collective
- NBIC
- Noosphère
- Philosophie de l'intelligence artificielle
- Planétarisation
- Progrès
- Risque de catastrophe planétaire
- Singularité technologique
- Superintelligence
- Superintelligence: Paths, Dangers, Strategies
- Transhumanisme
- Vie artificielle
Chercheurs
- Yoshua Bengio
- Nick Bostrom
- Timnit Gebru
- Micha Gorelick
- Ray Kurzweil
- Peter Norvig
- Steve Omohundro (en)
- Stuart J. Russell
- Anders Sandberg (en)
- Eliezer Yudkowsky
Organisations
Références
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Ethics of artificial intelligence » (voir la liste des auteurs).
- Andreas Kaplan. 2020. Artificial Intelligence: Emphasis on Ethics and Education.International Journal of Swarm Intelligence and Evolutionary Computation, 9(3)
- (en) Veruggio, Gianmarco, The Roboethics Roadmap, Scuola di Robotica, (lire en ligne [archive du ]), p. 2.
- (en) Woody Evans, Posthuman Rights : Dimensions of Transhuman Worlds, Universidad Complutense Madrid, (lire en ligne).
- The American Heritage Dictionary of the English Language, Quatrième Édition.
- (en) « Robots could demand legal rights », BBC News,‎ (lire en ligne, consulté le ).
- (en) Mark Henderson, « Human rights for robots? We're getting carried away », The Times Online, The Times of London,‎ (lire en ligne, consulté le ).
- (en) Glenn McGee, « A Robot Code of Ethics », The Scientist.
- (en) Ray Kurzweil, The Singularity is Near : When Humans Transcend Biology, Penguin Books, , 652 p. (ISBN 0-670-03384-7).
- The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper.
- (McCorduck 2004, p. 308).
- Joseph Weizenbaum, cité dans McCorduck 2004, p. 356, 374–376.
- Hibbard, Bill (2014): "Ethical Artificial Intelligence".
- (en) Bill Hibbard, « Open Source AI] », proceedings of the First Conference on Artificial General Intelligence,‎ (lire en ligne [PDF]).
- (en) David Hart et Ben Goertzel, « OpenCog: A Software Framework for Integrative Artificial General Intelligence », proceedings of the First Conference on Artificial General Intelligence,‎ (lire en ligne [PDF]).
- Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.
- Charles-Étienne Daniel, « Quelle(s) forme(s) de gouvernance juridique pour l’encadrement de l’IA et de la robotique interactive ? », dans La personne transformée. Nouveaux enjeux éthiques et juridiques, Presses de l'Université Laval, (DOI 10.2307/j.ctv1h0p1qk.11), p. 113–146.
- Moustafa Zouinar, « Évolutions de l’intelligence artificielle : quels enjeux pour l’activité humaine et la relation humain‑machine au travail ? », Activités, nos 17-1,‎ (ISSN 1765-2723, DOI 10.4000/activites.4941).
- « Technologies numériques, intelligence artificielle et responsabilité », 28e Rencontres Santé Société Georges Canguilhem (Euro Cos Humanisme & Santé), Strasbourg,‎ (lire en ligne, consulté le ).
- (en) Jason Palmer, Call for debate on killer robots, BBC News, .
- (en) David Axe, Robot Three-Way Portends Autonomous Future, Wired, 13 août 2009.
- (en) Jason Mick, New Navy-funded Report Warns of War Robots Going "Terminator", dailytech.com (blog), 17 février 2009.
- (en) Joseph L. Flatley Navy report warns of robot uprising, suggests a strong moral compass, engadget.com, 18 février 2009.
- GiveWell, Potential risks from advanced artificial intelligence, (lire en ligne).
- An Open Letter Research priorities for robust and beneficial artificial intelligence
- AUTONOMOUS WEAPONS: AN OPEN LETTER FROM AI & ROBOTICS RESEARCHERS This open letter was announced July 28 at the opening of the IJCAI 2015 conference on July 28.
- (en) Cat Zakrzewski, « Musk, Hawking Warn of Artificial Intelligence Weapons », WSJ.
- (en) Zach Musgrave and Bryan W. Roberts, « Why Artificial Intelligence Can Too Easily Be Weaponized - The Atlantic », The Atlantic.
- AN OPEN LETTER TO THE UNITED NATIONS CONVENTION ON CERTAIN CONVENTIONAL WEAPONS
- Bengio 2017
- (en) Nick Bostrom, Superintelligence : Paths, Dangers, Strategies, Royaume-Uni, Oxford University Press, , 328 p. (lire en ligne [PDF]).
- Frédérick Bruneault et Andréane Sabourin Laflamme, « Éthique de l’intelligence artificielle et ubiquité sociale des technologies de l’information et de la communication : comment penser les enjeux éthiques de l’IA dans nos sociétés de l’information ? », tic&société, vol. 15, no 1,‎ , p. 159–189 (DOI 10.4000/ticetsociete.5999, lire en ligne, consulté le )
- (en) Stuart Russell, Daniel Dewey et Max Tegmark, Research Priorities for Robust and Benefcial Artifcial Intelligence, Association for the Advancement of Artificial Intelligence, (lire en ligne [PDF]), p. 106, 107.
- Jocelyn Maclure et Marie-Noëlle Saint-Pierre, Le nouvel âge de l’intelligence artificielle : une synthèse des enjeux éthiques, (lire en ligne [PDF]), p. 750.
- Gabriel Girard, « Penser les tensions politiques et émotionnelles des expérimentations dans le domaine du VIH/SIDA », dans Les sociétés de l'expérimentation, Presses de l'Université du Québec, (DOI 10.2307/j.ctvhn0cr5.14), p. 181–198.
- Éric Martin, « L’éthique de l’intelligence artificielle, ou la misère de la philosophie 2.0 à l’ère de la quatrième révolution industrielle », Cahiers Société,‎ (lire en ligne [PDF]).
- « Intelligence artificielle (IA) au Canada », sur L'Encyclopédie canadienne (consulté le ).
- « 1. Les normes dans le monde d’aujourd’hui », Les consommateurs et les normes: un partenariat pour un monde meilleur, sur Organisation internationale de normalisation (consulté le ).
- Intelligence artificielle - Enjeux éthiques et juridiques (lire en ligne), « Enjeux des normes ISO ».
- Intelligence artificielle - Enjeux éthiques et juridiques (lire en ligne), « Recommandations ».
- (en) Anna Jobin, Marcello Ienca et Effy Vayena, « The global landscape of AI ethics guidelines », Nature Machine Intelligence, vol. 1, no 9,‎ , p. 389–399 (ISSN 2522-5839, DOI 10.1038/s42256-019-0088-2, lire en ligne, consulté le ).
- « Alertes et lanceurs d'alerte », sur www.puf.com (consulté le ).
- Les « 23 principes d’Asilomar » veulent encadrer le développement de l’intelligence artificielle
- ASILOMAR AI PRINCIPLES
- (en) Anderson, « Machine Ethics » (consulté le )
- (en) Machine Ethics, Cambridge University Press, (ISBN 978-0-521-11235-2)
- (en) « Special Issue on Machine Ethics », IEEE Intelligent Systems, vol. 21, no 4,‎ july–august 2006, p. 10–63 (ISSN 1541-1672, DOI 10.1109/mis.2006.70, lire en ligne)
- (en) Michael Anderson et Susan Leigh Anderson, « Machine Ethics: Creating an Ethical Intelligent Agent », American Association for Artificial Intelligence, vol. 28, no 4,‎ , p. 15–26 (ISSN 0738-4602, lire en ligne)
- (en) Isaac Asimov, I, Robot, New York, Bantam, , 224 p. (ISBN 978-0-553-38256-3 et 0-553-38256-X)
- AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
- Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
- The Coming Technological Singularity: How to Survive in the Post-Human Era, par Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 par Vernor Vinge.
- (en) Eliezer Yudkowsky, « Why We Need Friendly AI » [archive du ], sur asimovlaws.com, .
- (en) Wendell Wallach et Colin Allen, Moral Machines : Teaching Robots Right from Wrong, USA, Oxford University Press, , 275 p. (ISBN 978-0-19-537404-9)
- (en) Nick Bostrom et Eliezer Yudkowsky, « The Ethics of Artificial Intelligence » [PDF], Cambridge Handbook of Artificial Intelligence, Cambridge Press,
- Jean-gabriel Ganascia, Le Mythe de la Singularité. Faut-il craindre l'intelligence artificielle ?, Editions du Seuil, (ISBN 978-2-02-131001-6, lire en ligne).
- Muehlhauser, Luke, and Louie Helm. 2012. "Intelligence Explosion and Machine Ethics". In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
- Bostrom, Nick. 2003. "Ethical Issues in Advanced Artificial Intelligence". In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12–17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
- (en-US) « Sure, Artificial Intelligence May End Our World, But That Is Not the Main Problem », sur WIRED (consulté le )
- Camcha Dit, « En Chine, le score social à la Black Mirror a déjà empêché des millions de trajets », sur L'ADN, (consulté le ).
- Johanna Diaz, « La Commission européenne dévoile l'European AI Alliance et les 52 experts de son comité consultatif sur l'IA », sur Actu IA, (consulté le ).
- Groupe d’experts indépendants de haut niveau sur l’intelligence artificielle mandatés par la Commission européenne (GEHN IA), Lignes directrices en matière d'éthique pour une IA digne de confiance, Bruxelles, Commission européenne, , 56 p. (lire en ligne).
- (en) Independant High Level Group on Artificial Intelligence (AI HLEG) set up by the european commission, The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment, Bruxelles, Commission européenne, , 34 p. (lire en ligne).
- « Proposition de règlement établissant des règles harmonisées en matière d’intelligence artificielle », sur digital-strategy.ec.europa.eu (consulté le ).
- « Création d’un service de l’intelligence artificielle à la CNIL et lancement des travaux sur les bases de données d’apprentissage », sur CNIL (consulté le ).
Bibliographie
- (en) Pamela McCorduck, Machines Who Think : A Personal Inquiry into the History and Prospects of Artificial Intelligence, , 2e éd., 565 p. (ISBN 1-56881-205-1)
Liens externes
- Yoshua Bengio, « La communauté de l’intelligence artificielle a bien fait ses devoirs », Le Devoir,‎ (lire en ligne)
- Robotics: Ethics of artificial intelligence. "Four leading researchers share their concerns and solutions for reducing societal risks from intelligent machines." Nature, 521, 415–418 (28 May 2015) doi:10.1038/521415a
- Sujets concernant l'intelligence artificielle en éthique
- Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture
- Research Paper: Philosophy of Consciousness and Ethics in Artificial Intelligence
- 3 Laws Unsafe Campaign - Asimov's Laws & I, Robot
- BBC News: Games to take on a life of their own
- Who's Afraid of Robots?, Un article sur la peur de l'humanité de l'intelligence artificielle.
- A short history of computer ethics
- ASPCR - The American Society for the Prevention of Cruelty To Robots