AccueilđŸ‡«đŸ‡·Chercher

Biais algorithmique

Un biais algorithmique est le fait que le résultat d'un algorithme d'apprentissage ne soit pas neutre, loyal ou équitable.

Organigramme représentant l'algorithme derriÚre un moteur de recommandation.

Le biais algorithmique peut se produire lorsque les données utilisées pour entraßner un algorithme d'apprentissage automatique reflÚtent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données[1]. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche[2], les services de réseautage social[3], le respect de la vie privée[4], et le profilage racial[5]. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux ou culturels, malgré la neutralité supposée des données[6]. Un exemple concret est celui des interprÚtes en ligne qui traduisent systématiquement le terme anglais "nurse" (neutre) en "infirmiÚre" (féminin) et le terme "doctor" (neutre) en "docteur" (masculin). L'étude des biais algorithmiques s'intéresse particuliÚrement aux algorithmes qui reflÚtent une discrimination « systématique et injuste »[7].

Le biais algorithmique n'est pas nécessairement une volonté délibérée des concepteurs de l'algorithme de tromper les utilisateurs. Il est d'autant plus important pour ceux-ci d'en avoir conscience que l'usage d'un algorithme biaisé que l'on suppose objectif peut fortement influencer leurs opinions. Cette problématique pose la question du manque de rétrocontrÎle des concepteurs d'algorithmes sur leur création déjà soulevée par les ingénieurs des grandes plateformes de l'Internet[8].

DĂ©finitions

Un algorithme est biaisé lorsque son résultat n'est pas neutre, loyal ou équitable. Cette définition repose donc sur trois notions : la neutralité, la loyauté et l'équité. Les biais algorithmiques peuvent conduire à des situations de discrimination[9].

ÉquitĂ© algorithmique

Pour éviter que les algorithmes soient biaisés, certaines recherches comme Pedreshi 2008 visent à développer des algorithmes qui respectent des principes d'équité[9] - [10].

Cette approche suppose de définir l'équité. Corbett-Davies et Goel 2018 distinguent trois définitions[11] :

  • l'anti-classification consiste Ă  ne pas prendre en compte les variables susceptibles de discriminer (par exemple le genre ou la race)
  • la paritĂ© de classification consiste Ă  faire en sorte que la performance du modĂšle soit la mĂȘme entre les diffĂ©rents groupes
  • la calibration consiste Ă  faire en sorte que les rĂ©sultats conditionnellement au risque estimĂ© soient indĂ©pendants des diffĂ©rents groupes.

Hamilton (2016) distingue aussi l'Ă©quitĂ© individuelle et l'Ă©quitĂ© de groupe. L'Ă©quitĂ© individuelle garantit que les individus aux caractĂ©ristiques similaires soient traitĂ©es de la mĂȘme maniĂšre tandis que l'Ă©quitĂ© de groupe traite les personnes des diffĂ©rents groupes de maniĂšre diffĂ©rente de maniĂšre Ă  obtenir une Ă©galitĂ© de rĂ©sultats[12].

Origines

Les biais de l'algorithme peuvent résulter des biais cognitifs du programmeur de l'algorithme, des biais statistiques liées notamment aux données d'apprentissage ou encore des biais économiques[9].

Biais des programmeurs

Les programmeurs qui dĂ©veloppent des algorithmes peuvent ĂȘtre sujets Ă  de nombreux biais cognitifs. Parmi ces biais, le biais du mouton de Panurge consiste Ă  utiliser une modĂ©lisation populaire sans s'assurer de sa pertinence dans un contexte donnĂ©. Le biais de confirmation consiste Ă  favoriser sa vision du monde sans prendre en compte les donnĂ©es qui ne vont pas dans son sens[9].

Les data scientists qui programment les algorithmes ne sont pas représentatifs de la population en général. Une étude de l'institut AI Now de 2018 souligne que seuls 15% du personnel de recherche en intelligence artificielle chez Facebook et 10% chez Google sont des femmes[13] - [14].

La surreprésentation des hommes blancs parmi les data scientists et la sous représentation des minorités peut conduire les data scientists à ne pas assez prendre en compte les biais et les discriminations potentiels. C'est ce que D'Ignazio et Klein 2020 appellent le "risque de privilÚge" (privilege hazard)[14].

Biais statistiques

Les biais statistiques peuvent provenir des donnĂ©es contenues en entrĂ©e de l'algorithme ou de l'algorithme lui mĂȘme[9].

En 2015, un algorithme d'Ă©valuation de curriculum vitĂŠ dĂ©veloppĂ© par Amazon a Ă©tĂ© arrĂȘtĂ© quand on s'est aperçu qu'il discriminant fortement les CV feminins[9] - [15].

Les biais peuvent aussi venir de la méthode statistique par exemple le biais de variable omise, le biais de sélection ou le biais d'endogénéité[9].

Biais Ă©conomiques

Les biais économiques sont liés aux incitations économiques des acteurs[9].

Par exemple, Lambrecht et Tucker 2017 ont montré qu'il était plus rentable de cibler les annonces de publicité pour des emplois dans la technologie vers des hommes que vers des femmes[16] - [9].

Biais algorithmiques par domaine d'application

Plongements lexicaux

Les modĂšles de word embeddings (plongements lexicaux) peuvent reproduire les biais psychologiques humains.

Caliskan, Bryson et Narayanan 2017 étudient le modÚle de plongement vectoriel GloVe (en) et montrent que l'on retrouve des associations implicites entre des mots porteuses de préjugés. Ils proposent une méthode de mesure des préjugés inspirée du test d'association implicite[17].

Reconnaissance faciale

Selon Buolamwini et Gebru 2018, les femmes sont moins facilement reconnues par les logiciels de reconnaissance faciale d'IBM, Microsoft et Face ++. Sur 1270 portraits officiels de personnalités politiques qui leur ont été soumis, Face ++ a vu juste pour 99,3% des hommes, mais seulement 78,7% des femmes. Ainsi, 95,9% des erreurs de l'entreprise concernaient des femmes[18] - [19].

Algorithmes de recommandation

Les algorithmes de recommandation peuvent conduire à des résultats biaisés vers certains contenus.

Par exemple, les travaux de rétro-ingénierie sur l'algorithme de recommandation de YouTube mené par Guillaume Chaslot et l'association Algotransparency montrent que l'algorithme a tendance à favoriser les contenus à caractÚre complotistes[20].

Agents conversationnels

En 2016, l'agent conversationnel Tay dĂ©veloppĂ© par Microsoft et dĂ©ployĂ© sur Twitter a du ĂȘtre retirĂ© aprĂšs 24 heures Ă  la suite de la tenue de propos Ă  caractĂšre raciste[21].

Justice prédictive

Dans certains Ă©tats amĂ©ricains, la justice des libertĂ©s et de la dĂ©tention appuie ses dĂ©cisions de libĂ©ration anticipĂ©e des dĂ©tenus, sur des algorithmes d'Ă©valuation du risque ; on appelle cela la justice prĂ©dictive. En 2016, une enquĂȘte de l'ONG ProPublica a mis en Ă©vidence que l'algorithme de la sociĂ©tĂ© Northpointe (en), bien que ses concepteurs affirment ne pas prendre directement en compte la race, avait un biais raciste[22] - [23].

Lutte contre le biais algorithmique

Il existe plusieurs possibilitĂ©s pour lutter contre le biais algorithmique. Selon TechCrunch il faudrait crĂ©er des bases de donnĂ©es partagĂ©es et rĂšglementĂ©es qui empĂȘcheraient les individus de manipuler les donnĂ©es. En effet, en admettant que l'intelligence coĂŻncide avec l'absence de prĂ©jugĂ©s, les algorithmes ne sont pas encore assez intelligents, donc exempts de prĂ©jugĂ©s, pour se corriger eux-mĂȘmes ; en attendant qu'ils en soient capables il faut donc que des humains, conscients de ce qu'est un prĂ©jugĂ©, les contrĂŽlent afin d'Ă©viter qu'ils n'augmentent les orientations gauchies rĂ©sultant des donnĂ©es biaisĂ©es Ă  travers lesquelles ils apprennent[24].

L’une des principales difficultĂ©s de la lutte contre le biais algorithmique est l’opacitĂ© du fonctionnement des algorithmes[25]. Cette opacitĂ© peut avoir quatre origines[26] ; le secret intentionnellement mis en place par les entreprises qui veulent protĂ©ger leur propriĂ©tĂ© intellectuelle, l'analphabĂ©tisation des utilisateurs et des chercheurs, mais aussi le fait que avec leur Ă©volution au cours du temps certains algorithmes peuvent devenir illisible du fait de leur complexitĂ© et enfin certains algorithmes, notamment ceux des grands services en lignes, sont juste trop grands pour ĂȘtre Ă©tudiĂ©s[27]. Si certains chercheurs ont essayĂ© de dĂ©velopper des mĂ©thodes pour amĂ©liorer la transparence[28] d’autres, comme Shoshana Zuboff et Ruha Benjamin affirment que les algorithmes ne peuvent pas ĂȘtre approchĂ©s comme des objets isolĂ©s mais plutĂŽt comme faisant partie de grand assemblage culturel et socio-technique[29]

Audit des algorithmes et rétro ingénierie

Pour documenter les biais algorithmiques, il faut pouvoir les auditer. Pour cela, Angwin et al. 2016 ont collectĂ© des donnĂ©es et dĂ©veloppĂ© leur propre modĂšle pour ĂȘtre en mesure de mettre en Ă©vidence, le biais de l'algorithme d'Ă©valuation des risques de rĂ©cidive[23].

Théorie critique et approches éthnographiques

D'aprĂšs la sociologue AngĂšle Christin, il existe, avec les audits, deux autres façons d’aborder le problĂšme du biais algorithme[30]. La premiĂšre est l’approche historique et culturelle. Elle consiste en une reconsidĂ©ration des Ă©vĂšnements de biais algorithmique dans des sĂ©quences plus longues en s’appuyant sur la sociologie critique. Les algorithmes reproduiraient des structures prĂ©existentes de discrimination[31], surveillance[32] et de marchandisation[33]. Le seconde est l’approche ethnographique. Elle permet d’un cotĂ© de dĂ©terminer quelles forces structurelles permettent l’émergence de biais et de l’autre cotĂ©, considĂ©rer comment les algorithmes sont influencĂ©s par leurs usages quotidiens. AngĂšle Christin propose trois mĂ©thodes dans le cadre de cette approche pour Ă©tudier les algorithmes. “Algorithmic refraction” consiste en l’examen des reconfigurations qui ont lieu pendant l’usage des algorithmes et leur interaction avec le public et les institutions. “Algorithmic comparaison” dĂ©signe l’analyse de diffĂ©rents usages d’un mĂȘme algorithme dans diffĂ©rents domaines pour comprendre l’émergence de biais dans les diffĂ©rences d’applications et de fonctionnement. Finalement, “algorithmic triangulation” repose sur l’usage d’algorithmes secondaires pour recueillir des donnĂ©es sur l’algorithme Ă©tudiĂ©.

RĂ©gulations

États-Unis

Les États-Unis n'ont pas de lĂ©gislation d'ensemble qui rĂ©gule les biais algorithmiques. Le traitement de cette question peut se faire Ă  l'Ă©chelle fĂ©dĂ©rale ou Ă  l'Ă©chelle d'un Ă©tat, et varie selon les secteurs, selon l'utilisation qui en est faite et selon l'industrie ou l'administration concernĂ©e. En 2017, la ville de New York a votĂ© une loi instituant une commission contrĂŽlant l'utilisation des algorithmes dans la ville[34].

Critiques

Dans une tribune publiée sur le site de la revue Data & Society, la chercheuse Kinjal Dave critique l'usage du terme biais pour désigner les préjudices des algorithmes. Selon elle, le terme de biais issu de la psychologie sociale renvoie à une imperfection de l'individu alors que les algorithmes constitueraient selon elle des forces institutionnelles[35].

D'Ignazio et Klein 2020 reprennent aussi cette critique. Pour elles, parler de biais algorithmique et laisser croire que l'on pourrait corriger ces biais relÚverait de la diversion. PlutÎt que de parler de biais, elles préfÚrent parler d'oppression[23].

Bibliographie

  • Michael Rovatsos, Brent Mittelstadt et Ansgar Koene, Landscape summary: bias in algorithmic decision-making, Centre for Data Ethics and Innovation (en), pdf, 2019
  • Algorithme, contrĂŽle des biais S. V. P., rapport de l'Institut Montaigne, Mars 2020, lire en ligne

Filmographie

  • 2020 : Coded bias rĂ©alisĂ© par Shalini Kantayya[36]

Notes et références

  1. (en) Helen Nissenbaum, « How computer systems embody values », Computer, vol. 34, no 3,‎ , p. 120–119 (DOI 10.1109/2.910905, lire en ligne, consultĂ© le )
  2. (en) Lucas Introna et Helen Nissenbaum, « Defining the Web: the politics of search engines », Computer, vol. 33, no 1,‎ , p. 54–62 (DOI 10.1109/2.816269, lire en ligne, consultĂ© le )
  3. (en) Kate Crawford, « Can an Algorithm be Agonistic? Ten Scenes from Life in Calculated Publics », Science, Technology, & Human Values, vol. 41, no 1,‎ , p. 77–92 (DOI 10.1177/0162243915589635)
  4. (en) Zeynep Tufekci, « Algorithmic Harms beyond Facebook and Google: Emergent Challenges of Computational Agency », Colorado Technology Law Journal Symposium Essays, vol. 13,‎ , p. 203–216 (lire en ligne, consultĂ© le )
  5. (en) Lisa Nakamura, The new media of surveillance, Londres, Routledge, , 149–162 p. (ISBN 978-0-415-56812-8)
  6. (en) Laura Sydell, « Can Computers Be Racist? The Human-Like Bias Of Algorithms », sur NPR.org, National Public Radio / All Things Considered (consulté le )
  7. (en) Batya Friedman et Helen Nissenbaum, « Bias in Computer Systems », ACM Transactions on Information Systems, vol. 14, no 3,‎ , p. 330–347 (lire en ligne, consultĂ© le )
  8. (en) Paul Lewis, « ‘Our minds can be hijacked’: the tech insiders who fear a smartphone dystopia », Daily,‎
  9. Patrice Bertail, David Bounie, Stephan Clémençon et Patrick Waelbroeck, « Algorithmes : biais, discrimination et équité », sur https://www.telecom-paris.fr (consulté le ).
  10. (en) Pedreshi, « Discrimination-aware data mining », Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining,‎ (DOI 10.1145/1401890.1401959, lire en ligne, consultĂ© le )
  11. (en) Sam Corbett-Davies et Sharad Goel, « The Measure and Mismeasure of Fairness: A Critical Review of Fair Machine Learning », Arxiv.org,‎ (lire en ligne).
  12. Evan Hamilton, Benchmarking Four Approaches to Fairness-Aware Machine Learning, Haverford College Computer Science, 2016
  13. Sarah West Myers, Meredith Whittaker, and Kate Crawford. “Discriminating Systems: Gender, Race and Power in AI,” AI Now Institute, 2019, https://ainowinstitute.org/discriminatingsystems.pdf.
  14. (en) Catherine D'Ignazio et Lauren F. Klein, « 1. The Power Chapter », dans Data Feminism, MIT Press, (lire en ligne).
  15. (en) Jeffrey Dastin, « Amazon scraps secret AI recruiting tool that showed bias against women », sur Reuters.com, (consulté le ).
  16. (en) Anja Lambrecht et Catherine Tucker, « Algorithmic discrimination ? : apparent algorithmic bias in the serving of stem ads », Unpublished manuscript, Massachusetts Institute of Technology,‎
  17. (en) Aylin Caliskan, Joanna J. Bryson et Arvind Narayanan, « Semantics derived automatically from language corpora contain human-like biases », Science,‎ (DOI 10.1126/science.aal4230, lire en ligne).
  18. (en) Joy Buolamwini et Timnit Gebru, « Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification – MIT Media Lab », Proceedings of Machine Learning Research,‎ (lire en ligne)
  19. (en) « Gender Shades », sur gendershades.org (consulté le ).
  20. (en) Paul Lewis et Erin McCormick, « How an ex-YouTube insider investigated its secret algorithm », The Guardian,‎ (lire en ligne).
  21. (en) James Vincent, « Twitter taught Microsoft’s friendly AI chatbot to be a racist asshole in less than a day », The Verge,‎ (lire en ligne).
  22. (en) Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, « Machine Bias », ProPublica,‎ (lire en ligne)
  23. (en) Catherine D'Ignazio et Lauren F. Klein, « 2. Collect, Analyze, Imagine, Teach », dans Data Feminism, MIT Press, (lire en ligne)
  24. « Comment lutter contre les biais algorithmiques ? », sur Microsoft RSLN, (consulté le )
  25. Frank Pasquale, The Black Box Society, Harvard University Press, (ISBN 978-0-674-73606-1, lire en ligne)
  26. Jenna Burrell, « How the machine ‘thinks’: Understanding opacity in machine learning algorithms », Big Data & Society, vol. 3, no 1,‎ , p. 205395171562251 (ISSN 2053-9517 et 2053-9517, DOI 10.1177/2053951715622512, lire en ligne, consultĂ© le )
  27. (en-US) « Google Is 2 Billion Lines of Code—And It's All in One Place », Wired,‎ (ISSN 1059-1028, lire en ligne, consultĂ© le )
  28. Diakopoulos, N et Friedler, S, « How to hold algorithms accountable », MIT Technology Review,‎
  29. Nick Seaver, « Algorithms as culture: Some tactics for the ethnography of algorithmic systems », Big Data & Society, vol. 4, no 2,‎ , p. 205395171773810 (ISSN 2053-9517 et 2053-9517, DOI 10.1177/2053951717738104, lire en ligne, consultĂ© le )
  30. (en) AngĂšle Christin, « The ethnographer and the algorithm: beyond the black box », Theory and Society, vol. 49, nos 5-6,‎ , p. 897–918 (ISSN 0304-2421 et 1573-7853, DOI 10.1007/s11186-020-09411-3, lire en ligne, consultĂ© le )
  31. (en-US) Ruha Benjamin, Race after technology : abolitionist tools for the New Jim Code, (ISBN 978-1-5095-2640-6, 1-5095-2640-4 et 978-1-5095-2639-0, OCLC 1078415817, lire en ligne)
  32. ç„–ćšć€« (Zuboff, Shoshana), 1951- æ–‡ć­—äœœè€…, ç›ŁæŽ§èł‡æœŹäž»çŸ©æ™‚ä»Ł = The age of surveillance capitalism : the fight for a human future at the new frontier of power (ISBN 978-957-13-8116-9, 957-13-8116-0 et 978-957-13-8117-6, OCLC 1199122574, lire en ligne)
  33. David Beer, The Data Gaze: Capitalism, Power and Perception, SAGE Publications Ltd, (ISBN 978-1-5264-3692-4 et 978-1-5264-8534-2, lire en ligne)
  34. (en) Julia Powles, « New York City’s Bold, Flawed Attempt to Make Algorithms Accountable », The New Yorker,‎ (ISSN 0028-792X, lire en ligne, consultĂ© le )
  35. (en) Kinjal Dave, « Systemic Algorithmic Harms », Data & Society,‎ (lire en ligne).
  36. (en) « Filmmaker — CODED BIAS », sur CODED BIAS (consultĂ© le ).

Voir aussi

Articles connexes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.