Partenariat sur l'IA
Le Partenariat sur l'IA ou, pour les anglophones, Partnership on AI (dont le nom complet est Partnership on Artificial Intelligence to Benefit People and Society ) est une coalition, à but non lucratif, visant une utilisation responsable de l'intelligence artificielle dans le monde, face aux potentialités et aux preuves d'utilisations abusives ou malveillantes de l'IA (respectivement illustrées par exemple par le deepfake et le double scandale Facebook-Cambridge Analytica/AggregateIQ ou plus récemment par l'utilisation de l'IA pour manipuler le marché des cryptomonnaies en influençant de potentiels investisseurs).
Annoncée en 2016, et regroupant une centaine de partenaires (en 2019), ce groupe se propose de définir des règles de gouvernance et de meilleures pratiques relatives aux systèmes d'intelligence artificielle existants ou émergents.
Ce Partenariat veut éduquer le public à propos de l'IA.
C'est l'une des premières initiatives mondiales relatives aux aspects éthiques, moraux, sociaux, économiques, écologiques et juridiques de l'IA. D'autres partenariats de ce type existent à des échelles mondiales ou plus locales, notamment soutenues par le G7 et l'OCDE (Partenariat GPAI, qui se prononce gee-pay).
Histoire
Au fur et à mesure des progrès dans le domaine de l'intelligence artificielle (IA) et alors qu'approchait le stade d'une intelligence artificielle générale (IAG) apparu le besoin d'un cadre de coopération mondiale sur l'IA, sa régulation et sa gouvernance[1] - [2].
Alors que de futurs lanceurs d'alerte s'inquiètent des possibilités émergentes mais concrétisées d'usages malveillants du deepfake, et que se prépare le double scandale Facebook-Cambridge Analytica/AggregateIQ, scandale permis par le vol de données de dizaines de millions d'utilisateurs de Facebook, et l'utilisation d'une IA baptisée Ripon[3] qui semblent avoir permis l'élection de Donald Trump et l'avènement du Brexit[4] - [5], puis le Brexit[6]), cette coalition est annoncée publiquement le 28 septembre 2016 par ses membres fondateurs (Amazon, Facebook, Google, DeepMind, Microsoft et IBM), avec les coprésidents par intérim Eric Horvitz de Microsoft Research et Mustafa Suleyman de DeepMind[7] - [8] - [9] - [10].
Apple a rejoint le consortium 4 mois plus tard (en janvier 2017), également comme membre fondateur[11]. C'est Tom Gruber (chargé du développement avancé de Siri au sein du groupe Apple) qui représente le groupe au sein du conseil d'administration de "Partnership on AI"[12].
En 2019, ce sont plus de 100 partenaires du milieu universitaire, de la société civile, de l'industrie et des organisations à but non lucratif qui ont rejoint ce partenariat[13].
Fonctionnement
En 2017, Terah Lyons rejoint (en octobre) le Partenariat sur l'IA en tant que directrice exécutive fondatrice de l'organisation[14] ; Lyons y apporte son expertise en gouvernance technologique, avec un accent particulier sur l'intelligence artificielle, l'IA et la politique de la robotique. Elle était antérieurement conseillère politique auprès de la directrice de la technologie des États-Unis, Megan Smith.
Lyons est ensuite remplacé par Rebecca Finlay, membre du conseil d'administration du partenariat, en tant que directrice exécutive par intérim avant d'être nommée PDG du partenariat (le 26 octobre 2021).
En 2018, Baidu est la première entreprise chinoise à rejoindre (en octobre) le Partenariat[15].
En 2020, le Partenariat sur l'IA annonce, en novembre, que la base de données des incidents d'IA (AIID)[16] deviendrait une nouvelle entité, à but non lucratif, indépendante et à but spécifique en 2022[17].
En 2021, le 26 octobre, Rebecca Finlay est nommée PDG du partenariat[18].
Démarches similaires
- Dutch AI Coalition (NLAIC), qui a proposé un partenariat public-privé" pour travailler ces sujets à échelle européenne.
- Partenariat mondial sur l'intelligence artificielle (GPAI pour Global Partnership on Artificial Intelligence ) : c'est une initiative multipartite lancée en Juin 2020. Ce partenariat est soutenu par le G7 et l'OCDE[19]. L'OCDE après avoir publié une « Recommandation de l'OCDE sur l'intelligence artificielle » a lancé le GPAI et en abrite le secrétariat. L'OCDE a aussi créé un réseau d'experts de l'OCDE sur l'IA (ONE AI), ainsi qu'un Observatoire politique de l'OCDE sur l'intelligence artificielle (devenu une ressource pour le GPAI)[19].
Selon l'OCDE (2023), le GPAI vise à rassembler et coordonner des experts issus du monde de la science, de l'industrie, de la société civile, des gouvernements, des organisations internationales et du milieu universitaire soutenir la recherche de pointe et les activités appliquées sur les priorités liées à l'IA, en respectant les principes de droits de l'homme, d'inclusion, de diversité, d'innovation et de croissance économique[19]. L'OCDE encadre ainsi (en 2023) quatre premiers groupes de travail sur les thèmes suivants : IA responsable (avec un sous-groupe sur l'IA et la réponse à la pandémie), IA et gouvernance des données, IA et avenir du travail, IA et innovation et commercialisation[19].
L'OCDE soutient des politiques nationales et cette coopération internationale pour une IA digne de confiance, avec 5 objectifs :
- « Investir dans la recherche et le développement de l'IA » ;
- « Favoriser un écosystème numérique pour l'IA » ;
- « Façonner un environnement politique favorable à l'IA » ;
- « Renforcer les capacités humaines et se préparer à la transformation du marché du travail » ;
- « une coopération internationale pour une IA digne de confiance ».
Notes et références
- (en) Gijs Leenders, « The Regulation of Artificial Intelligence — A Case Study of the Partnership on AI », Becoming Human: Artificial Intelligence Magazine,‎ (lire en ligne, consulté le ).
- (en) Bertrand Braunschweig et Malik Ghallab, « Reflections on AI for Humanity: Introduction », dans Reflections on Artificial Intelligence for Humanity, Springer International Publishing, , 1–12 p. (ISBN 978-3-030-69128-8, DOI 10.1007/978-3-030-69128-8_1, lire en ligne)
- (en) « The Aggregate IQ Files, Part One: How a Political Engineering Firm Exposed Their Code Base », sur upguard.com, (consulté le ).
- (en) Cadwalladr C, « The great British Brexit robbery: how our democracy was hijacked » [PDF], The Guardian, .
- (en) Colin J Bennett, « Trends in Voter Surveillance in Western Societies: Privacy Intrusions and Democratic Implications », Surveillance & Society (en), vol. 13, nos 3/4,‎ , p. 370–384 (ISSN 1477-7487, DOI 10.24908/ss.v13i3/4.5373, lire en ligne, consulté le ).
- (en-GB) Patrick Foster et Martin Evans, « Exclusive: How a tiny Canadian IT company helped swing the Brexit vote for Leave », sur The Telegraph, (ISSN 0307-1235, consulté le )
- Alex Hern, « 'Partnership on AI' formed by Google, DeepMind, Facebook, Amazon, IBM and Microsoft | Technology », The Guardian,‎ (lire en ligne, consulté le )
- « AI is ‘Next Big Thing’ to worry about », Financial Times,‎ (lire en ligne, consulté le )
- « Amazon, Google, Facebook, IBM, and Microsoft form AI non-profit », ZNet,‎ (lire en ligne, consulté le )
- Ben Fox Rubin et Roger Cheng, « The AI Super Friends assemble! (The 3:59, Ep. 115) », CNET,‎ (lire en ligne [archive du ], consulté le )
- « Partnership on AI Update », Partnership on AI (consulté le )
- Aaron Tilley, « Why Apple Joined Rivals Amazon, Google, Microsoft In AI Partnership », Forbes,‎ (lire en ligne, consulté le )
- « New Partners To Bolster Perspective For Responsible AI »
- (en-US) « Partnership on AI Announces Executive Director Terah Lyons and Welcomes New Partners - The Partnership on AI », The Partnership on AI,‎ (lire en ligne, consulté le )
- « Baidu becomes the first Chinese firm to join US-led A.I. body », CNBC,‎ (lire en ligne [archive du ], consulté le ).
- McGregor, « When AI Systems Fail: Introducing the AI Incident Database », partnershiponai.org, Partnership on AI, (consulté le ) : « Avoiding repeated AI failures requires making past failures known. Therefore, today we introduce a systematized collection of incidents where intelligent systems have caused safety, fairness, or other real-world problems: The AI Incident Database (AIID). »
- Schwartz, « RAIC Holds First All-Hands Meeting », incidentdatabase.ai, Responsible AI Collaborative, (consulté le ) : « RAIC is the new non-profit behind the Artificial Intelligence Incident Database (AIID) and will be presenting critical safety and social issues through incidents to learn from the past and inspire positive change in the fast-growing AI sector. »
- (en-US) « Rebecca Finlay named as CEO: A Letter from Eric Horvitz, Chair of the Board of Directors », Partnership on AI, (consulté le ).
- (en) « Global Partnership on Artificial Intelligence - GPAI », sur gpai.ai (consulté le )
Voir aussi
Articles connexes
Aspects juridiques
- Digital Services Act, ou loi sur les services numériques de l'Union européenne
Notions générales
- Intelligence artificielle
- Agent intelligent
- Agent logiciel
- Agent virtuel
- Algorithme
- Algorithme génétique
- Applications de l'intelligence artificielle
- Automation
- Bio-informatique
- Cerveau artificiel
- Cyborg
- Déclaration de Montréal pour un développement responsable de l'intelligence artificielle
- Effet IA
- Éthique de l'intelligence artificielle
- Explosion d'intelligence
- Histoire de l'intelligence artificielle
- Interactions homme-machine
- Philosophie de l'intelligence artificielle
- Principaux projets et réalisations en intelligence artificielle
- Progrès
- Progrès technique
- Réseau de neurones artificiels
- Singularité technologique
- Singularitarisme
- Système expert
- Téléchargement de l'esprit
- Test de Turing
- Vie artificielle
Notions techniques
- Agent conversationnel
- Apprentissage automatique
- Apprentissage par renforcement
- Apprentissage profond (Deep learning)
- Architecture cognitive
- Diagnostic
- Exploration de données
- Forêt d'arbres décisionnels
- Inférence bayésienne
- Intelligence artificielle amicale
- Intelligence artificielle distribuée
- Intelligence artificielle faible
- Logique floue
- Machine à vecteurs de support
- Métaheuristiques
- Planification
- Problème de satisfaction de contraintes
- Programmation génétique
- Programmation par contraintes
- Raisonnement par cas
- Réseaux de neurones
- Système multi-agents
- Théorème de Cox-Jaynes
Laboratoires et projets renommés de recherche en intelligence artificielle
- Le Stanford Artificial Intelligence Laboratory (SAIL) (en), fondé en 1963 par John McCarthy
- L'Augmentation Research Center (ARC) (en) du Stanford Research Institute, fondé au début des années 1960 par Douglas Engelbart
- Le projet MAC (en) de l'institut de technologie du Massachusetts, lancé le et dirigé par Robert Fano
- Le laboratoire de recherche en intelligence artificielle (AILab) du Massachusetts Institute of Technology, fondé en 1970 –pour remédier au manque d'espace dont souffre le groupe IA du nouveau projet MAC– et fusionné en 2003 avec le laboratoire de recherche en informatique (LCS) ; à nouveau réunies, les deux entités prennent le nom de MIT Computer Science and Artificial Intelligence Laboratory (CSAIL)
- l'Institut des sciences de l'information (ISI) (en) de l'Université de Californie du Sud (USC), fondé en 1972 par Keith Uncapher (en)
- OpenAI, société fondatrice des projets GPT-3, DALL-E et ChatGPT.
Bibliographie
- Edward Curry, Fredrik Heintz, Morten Irgens et Arnold W. M. Smeulders, « Partnership on AI, data, and robotics », Communications of the ACM, vol. 65, no 4,‎ , p. 54–55 (ISSN 0001-0782 et 1557-7317, DOI 10.1145/3513000, lire en ligne, consulté le ).
- (en) Gijs Leenders, « The Regulation of Artificial Intelligence — A Case Study of the Partnership on AI », Becoming Human: Artificial Intelligence Magazine,‎ (lire en ligne, consulté le ).
- Larry Medsker, « AI policy matters », AI Matters, vol. 5, no 1,‎ , p. 17–19 (ISSN 2372-3483, DOI 10.1145/3320254.3320262, lire en ligne, consulté le ).
- (en) « How to be responsible in AI publication », Nature Machine Intelligence, vol. 3, no 5,‎ , p. 367–367 (ISSN 2522-5839, DOI 10.1038/s42256-021-00355-6, lire en ligne, consulté le ).
- Abhishek Gupta, Camylle Lanteigne et Victoria Heath, « Report prepared by the Montreal AI Ethics Institute (MAIEI) on Publication Norms for Responsible AI », arXiv:2009.07262 [cs],‎ (lire en ligne, consulté le ).