Accueil🇫🇷Chercher

Ligue de justice algorithmique

L'Algorithmic Justice League (AJL) est une organisation à but non lucratif de défense numérique basée à Cambridge, dans le Massachusetts.

Algorithmic Justice League
Organisation
Fondatrice
Sponsor
Code for Science & Society (d)
Site web

Fondée en 2016 par l'informaticienne Joy Buolamwini, l'AJL utilise la recherche, les œuvres d'art et la défense des politiques pour sensibiliser à l'utilisation de l'intelligence artificielle (IA) dans la société, ainsi qu'aux méfaits et biais que l'IA peut causer à la société[1].

L'AJL s'est engagée dans divers séminaires en ligne ouverts et dans des initiatives de plaidoyers technologiques pour communiquer des informations sur les biais dans les systèmes d'IA et promouvoir l'action de l'industrie et du gouvernement afin d'atténuer la création et le déploiement de systèmes d'IA biaisés. Enfin, elle a fait plusieurs apparitions dans les médias.

En 2021, Fast Company a désigné l'AJL comme l'une des 10 entreprises d'IA les plus innovantes au monde[2] - [3].

Joy Buolamwini, la fondatrice de la ALJ, en 2018

Histoire

Joy Buolamwini a fondé la Ligue de justice algorithmique en 2016 en tant qu'étudiante diplômé du MIT Media Lab. Tout en expérimentant un logiciel de détection faciale dans ses recherches, elle a découvert que le logiciel ne pouvait pas détecter son visage « fortement mélanisé » jusqu'à ce qu'elle porte un masque blanc[4]. Après cet incident, Buolamwini a eu l'idée de fonder l'AJL pour attirer l'attention du public sur l'existence de préjugés dans l'intelligence artificielle et sur la menace qu'ils peuvent représenter pour les droits civiques[4]. Les premières campagnes de l'AJL se concentraient principalement sur les biais dans les logiciels de reconnaissance faciale ; les campagnes récentes ont traité plus largement des questions d'équité et de responsabilité dans l'IA, y compris le biais algorithmique, la prise de décision algorithmique, la gouvernance algorithmique et audit algorithmique.

Par ailleurs, il existe une communauté d'autres organisations qui poursuivent des objectifs similaires, notamment la Data and Society, la Data for Black Lives, le Distributed Artificial Intelligence Research Institute (DAIR) et Fight for the Future[5] - [6] - [7].

Travaux notables

Timnit Gebru en 2018

La reconnaissance faciale

La fondatrice d'AJL, Joy Buolamwini, a collaboré avec la spécialiste de l'éthique de l'IA Timnit Gebru. Elles ont publié en 2018 une étude sur les préjugés raciaux et sexistes existants dans les algorithmes de reconnaissance faciale utilisés par les systèmes commerciaux de Microsoft, IBM et Face++. Leur enquête, intitulée «Gender Shades» , a démontré que les modèles d'apprentissage automatique publiés par IBM et Microsoft étaient moins précis quant à l'analyse des visages féminins et à la peau foncée, en comparaison avec leurs performances sur les visages masculins et à la peau claire[8] - [9] - [10]. Le rapport « Gender Shades » s'est accompagné du lancement de Safe Face Pledge, une initiative conçue avec le Georgetown Center on Privacy & Technology, qui a exhorté les organisations technologiques et les gouvernements à interdire l'utilisation létale des technologies de reconnaissance faciale[11]. Le projet Gender Shades et les actions de plaidoyer entreprises par la suite par l'AJL et d'autres groupes similaires ont conduit de nombreuses entreprises technologiques, dont Amazon et IBM, à prendre en compte les préjugés dans le développement de leurs algorithmes et même à interdire temporairement l'utilisation de leurs produits par les forces de l'ordre en 2020[12] - [13].

Buolamwini et AJL ont été présentés dans le documentaire Netflix 2020 Coded Bias, qui a été présenté pour la première fois au Festival du film de Sundance[14] - [15]. Ce documentaire s'est concentré sur les efforts de recherche et de plaidoyer de l'AJL pour faire connaître les biais algorithmiques dans les systèmes de reconnaissance faciale[16] - [15].

Une collaboration de recherche impliquant l'AJL a publié un livre blanc en mai 2020 appelant à la création d'un nouveau bureau du gouvernement fédéral des États-Unis pour réglementer le développement et le déploiement des technologies de reconnaissance faciale[17]. Le livre blanc proposait que la création d'un nouveau bureau du gouvernement fédéral dans ce domaine contribuerait à réduire les risques de surveillance de masse et de biais posés par les technologies de reconnaissance faciale envers les populations vulnérables[18].

Biais dans la reconnaissance vocale

L'AJL a mené des initiatives pour sensibiliser le public aux biais algorithmiques et aux inégalités dans les performances des systèmes d'IA pour la modélisation de la parole et du langage dans les populations de sexe et de race. Le travail de l'AJL dans cet espace se concentre sur la mise en évidence des disparités entre les sexes et les races dans les performances des systèmes commerciaux de reconnaissance vocale et de traitement du langage naturel, dont il a été démontré qu'ils étaient moins performants sur les minorités raciales et renforçaient les stéréotypes de genre[19] - [20] - [21].

En mars 2020, AJL a publié une pièce artistique de création parlée, intitulée Voicing Erasure, qui a sensibilisé le public aux préjugés raciaux dans les systèmes de reconnaissance automatique de la parole (ASR)[22] - [23]. La pièce a été interprétée par de nombreuses chercheuses et chercheuses non binaires dans le domaine, dont Ruha Benjamin, Sasha Costanza-Chock, Safiya Noble et Kimberlé Crenshaw[22] - [23]. AJL a basé son développement de « Erasure » un article PNAS de 2020, intitulé «Disparités raciales dans la reconnaissance vocale automatisée» qui a identifié les disparités raciales dans les performances de cinq systèmes ASR commerciaux[24].

Gouvernance algorithmique

En 2019, Buolamwini a représenté l'AJL lors d'une audience du Congrès du Comité de la Chambre des États-Unis sur la science, l'espace et la technologie, afin de discuter des applications des technologies de reconnaissance faciale dans le commerce et au sein du gouvernement[25] - [26]. Buolamwini a servi de témoin à l'audience et a parlé de la sous-performance des technologies de reconnaissance faciale pour identifier les personnes à la peau plus foncée et aux traits féminins et a soutenu sa position avec les recherches du projet AJL « Gender Shades »[27] - [28].

En janvier 2022, l'AJL a collaboré avec Fight for the Future et l' Electronic Privacy Information Center pour publier une pétition en ligne appelée DumpID.me, appelant l'IRS à cesser d'utiliser ID.me, une technologie de reconnaissance faciale qu'ils utilisaient sur les utilisateurs. lorsqu'ils se connectent[29]. L'AJL et d'autres organisations ont envoyé des lettres aux législateurs et leur ont demandé d'encourager l'IRS à arrêter le programme. En février 2022, l'IRS a accepté d'arrêter le programme et de cesser d'utiliser la technologie de reconnaissance faciale[30]. L'AJL a maintenant réorienté ses efforts pour convaincre d'autres agences gouvernementales de cesser d'utiliser la technologie de reconnaissance faciale. Depuis mars 2022, la pétition DumpID.me a pivoté pour arrêter l'utilisation d'ID.me dans toutes les agences gouvernementales[29].

Campagne Olay Décodez les préjugés

En septembre 2021, Olay a collaboré avec AJL et O'Neil Risk Consulting & Algorithmic Auditing (ORCAA) pour mener la campagne Decode the Bias, qui comprenait un audit visant à déterminer si le Olay Skin Advisor (OSA). Le système comprenait des préjugés contre les femmes de couleur[31]. L'AJL a choisi de collaborer avec Olay en raison de son engagement à obtenir le consentement des clients pour que leurs selfies mais aussi leurs données de peau soient utilisés dans cet audit[32]. L'audit de l'AJL et de l'ORCAA a révélé que le système OSA contenait des biais dans ses performances en fonction de la couleur de peau et de l'âge des participants[32]. Le système OSA a démontré une plus grande précision pour les participants ayant des tons de peau plus clairs, selon les échelles de classification du type de peau Fitzpatrick et de l'angle de typologie individuelle de la peau. Le système OSA a également démontré une plus grande précision pour les participants âgés de 30 à 39 ans[33]. Olay a depuis, pris des mesures pour auditer en interne et atténuer les biais du système OSA[32]. De plus, il a également financé 1 000 filles pour participer au camp Black Girls Code, afin d'encourager les filles afro-américaines à poursuivre des carrières STEM[32].

Projet CRASH

En juillet 2020, le projet Community Reporting of Algorithmic System Harms (CRASH) a été lancé par AJL[34]. Ce projet a débuté en 2019 lorsque Buolamwini et la chercheuse en sécurité numérique Camille François (en) se sont rencontrés au Bellagio Center Residency Program, hébergé par la Fondation Rockefeller. Depuis lors, le projet est également co-dirigé par la professeure du MIT et directrice de recherche de l'AJL, Sasha Costanza-Chock (en). Le projet CRASH s'est concentré sur la création d'un cadre pour le développement de programmes de primes de bugs (BBP) qui inciteraient les individus à découvrir et à signaler les cas de biais algorithmique dans les technologies d'IA[34] - [35]. Après avoir mené des entretiens avec des participants au BBP et une étude de cas du programme BBP de Twitter[36]. De plus, les chercheurs de l'AJL ont développé et proposé un cadre conceptuel pour la conception de programmes BBP qui compensent et encouragent les individus à localiser et à divulguer l'existence de biais dans les systèmes d'IA[37]. AJL souhaite que le cadre CRASH donne aux individus la possibilité de signaler les dommages algorithmiques et de stimuler le changement dans les technologies d'IA déployées par les entreprises, en particulier les individus qui ont traditionnellement été exclus de la conception de ces technologies d'IA [38] - [39].

Soutien et apparitions dans les médias

Les initiatives d'AJL ont été financées par la Fondation Ford, la Fondation MacArthur, la Fondation Alfred P. Sloan, la Fondation Rockefeller, la Fondation Mozilla et par des donateurs privés individuels[40] - [41]. Fast Company a reconnu l'AJL comme l'une des 10 entreprises d'IA les plus innovantes en 2021[42]. De plus, des sites tels que le magazine Time, le New York Times, NPR et CNN ont présenté le travail de Buolamwini avec l'AJL dans plusieurs interviews et articles[43] - [44] - [45].

Articles connexes

Notes et rréférences

  1. « Learn More » [archive du ], The Algorithmic Justice League (consulté le )
  2. (en) The Fast Company Staff, « The 10 most innovative companies in artificial intelligence »
  3. (en-US) Elías Villoro, « Coded Bias and the Algorithm Justice League », sur Boing Boing, (consulté le )
  4. (en) « Documentary 'Coded Bias' Unmasks The Racism Of Artificial Intelligence », sur www.wbur.org (consulté le )
  5. Nitasha Tiku, « Google fired its star AI researcher one year ago. Now she’s launching her own institute », sur The Washington Post,
  6. « DAIR » [archive du ], Distributed AI Research Institute (consulté le )
  7. (en) Rachel Metz, « Activists pushed the IRS to drop facial recognition. They won, but they're not done yet | CNN Business », sur CNN, (consulté le )
  8. Buolamwini, Joy et Gebru,Timnit, « Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification », Proceedings of the 1st Conference on Fairness, Accountability and Transparency, vol. 81,‎ , p. 77–91 (lire en ligne [archive du ], consulté le )
  9. « Gender Shades » [archive du ], gendershades.org (consulté le )
  10. Spencer Buell, « MIT Researcher: AI Has a Race Problem, and We Need to Fix It » [archive du ], Boston, (consulté le )
  11. « Announcement - Safe Face Pledge » [archive du ], (consulté le )
  12. (en) « The two-year fight to stop Amazon from selling face recognition to the police » [archive du ], MIT Technology Review (consulté le )
  13. (en) « IBM pulls out of facial recognition, fearing racial profiling and mass surveillance » [archive du ], Fortune (consulté le )
  14. Jennifer Lee, « When Bias Is Coded Into Our Technology »,
  15. (en) « Watch Coded Bias » [archive du ], www.netflix.com (consulté le )
  16. « Documentary Coded Bias Unmasks The Racism Of Artificial Intelligence » [archive du ], WBUR-FM (consulté le )
  17. (en-US) Chris Burt, « Biometrics experts call for creation of FDA-style government body to regulate facial recognition | Biometric Update » [archive du ], www.biometricupdate.com, (consulté le )
  18. Miller-Learned, Erik, Ordóñez, Vicente, Morgenstern, Jamie et Buolamwini, Joy, « Facial Recognition Technologies in the Wild: A Call for a Federal Office », White Paper,‎ , p. 3–49 (lire en ligne [archive du ], consulté le )
  19. (en) Emily M. Bender, Timnit Gebru, Angelina McMillan-Major et Shmargaret Shmitchell, « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 », Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, Virtual Event Canada, ACM, fAccT '21,‎ , p. 610–623 (ISBN 978-1-4503-8309-7, DOI 10.1145/3442188.3445922, S2CID 232040593, lire en ligne [archive du ], consulté le )
  20. Kiritchenko, Svetlana et Mohammad, Saif M., « Examining Gender and Race Bias in Two Hundred Sentiment Analysis Systems », Proceedings of the 7th Joint Conference on Lexical and Computational Semantics,‎ , p. 43–53 (DOI 10.18653/v1/S18-2005, arXiv 1805.04508, S2CID 21670658, lire en ligne [archive du ], consulté le )
  21. (en) Allison Koenecke, Andrew Nam, Emily Lake et Joe Nudell, « Racial disparities in automated speech recognition », Proceedings of the National Academy of Sciences, vol. 117, no 14,‎ , p. 7684–7689 (ISSN 0027-8424 et 1091-6490, PMID 32205437, PMCID PMC7149386, DOI 10.1073/pnas.1915768117, lire en ligne, consulté le )
  22. « Voicing Erasure » [archive du ], www.ajl.org (consulté le )
  23. (en-US) « Algorithmic Justice League protests bias in voice AI and media coverage » [archive du ], VentureBeat, (consulté le )
  24. (en) Allison Koenecke, Andrew Nam, Emily Lake et Joe Nudell, « Racial disparities in automated speech recognition », Proceedings of the National Academy of Sciences, vol. 117, no 14,‎ , p. 7684–7689 (ISSN 0027-8424, PMID 32205437, PMCID 7149386, DOI 10.1073/pnas.1915768117, Bibcode 2020PNAS..117.7684K)
  25. (en) Katyanna Quach, « We listened to more than 3 hours of US Congress testimony on facial recognition so you didn't have to go through it » [archive du ], The Register, (consulté le )
  26. (en) « U.S. government study finds racial bias in facial recognition tools », Reuters,‎ (lire en ligne, consulté le )
  27. (en-US) Chris Mills Rodrigo, « Dozens of advocacy groups push for Congress to ban facial recognition technology » [archive du ], The Hill, (consulté le )
  28. Jan Wolfe et Jeffrey Dastin, « U.S. government study finds racial bias in facial recognition tools »,
  29. (en-US) « Demand All Government Agencies Drop ID.me » [archive du ], Fight for the Future (consulté le )
  30. Rachel Metz, « IRS halts plan to require facial recognition for logging in to user accounts » [archive du ], CNN, (consulté le )
  31. (en) « Decode the Bias & Face Anything | Women in STEM | OLAY » [archive du ], www.olay.com (consulté le )
  32. (en) Gabby Shacknai, « Olay Teams Up With Algorithmic Justice Pioneer Joy Buolamwini To #DecodetheBias In Beauty » [archive du ], Forbes, (consulté le )
  33. (en) « ORCAA's Report » [archive du ], www.olay.com (consulté le )
  34. « Algorithmic Vulnerability Bounty Project (AVBP) » [archive du ], www.ajl.org (consulté le )
  35. (en-US) Molly Laas, « Bug Bounties For Algorithmic Harms? | Algorithmic Justice League » [archive du ], MediaWell, (consulté le )
  36. (en) James Vincent, « Twitter's photo-cropping algorithm prefers young, beautiful, and light-skinned faces » [archive du ], The Verge, (consulté le )
  37. « AJL Bug Bounties Report.pdf » [archive du ], Google Docs (consulté le )
  38. (en) Algorithmic Justice League, « Happy Hacker Summer Camp Season! », sur Medium, (consulté le )
  39. (en) TED Radio, « Joy Buolamwini: How Do Biased Algorithms Damage Marginalized Communities? »
  40. (en) Algorithmic Justice League, « Happy Hacker Summer Camp Season! » [archive du ], Medium, (consulté le )
  41. « AJL Bug Bounties Report.pdf » [archive du ], Google Docs (consulté le )
  42. (ang) Fast Company Staff, « The 10 most innovative companies in artificial intelligence » [archive du ], Fast Company, (consulté le )
  43. Rachel Metz, « Activists pushed the IRS to drop facial recognition. They won, but they're not done yet » [archive du ], CNN, (consulté le )
  44. (en) « Artificial Intelligence: Societal and Ethical Implications » [archive du ], House Committee on Science, Space and Technology, (consulté le )
  45. « Joy Buolamwini: How Do Biased Algorithms Damage Marginalized Communities? » [archive du ], NPR (consulté le )

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.