Accueil🇫🇷Chercher

Biais cognitif

Un biais cognitif est une déviation dans le traitement cognitif d'une information. Le terme biais fait référence à une déviation systématique de la pensée logique et rationnelle par rapport à la réalité. Les biais cognitifs conduisent le sujet à accorder des importances différentes à des faits de même nature et peuvent être repérés lorsque des paradoxes ou des erreurs apparaissent dans un raisonnement ou un jugement.

180+ cognitive biases, designed by John Manoogian III (jm3)
Les biais cognitifs peuvent être organisés en quatre catégories : les biais qui découlent de trop d'informations, pas assez de sens, la nécessité d'agir rapidement et les limites de la mémoire.
Modèle Algorithmique: John Manoogian III (jm3)
Modèle Organisationnel: Buster Benson.

L'étude des biais cognitifs fait l'objet de nombreux travaux en psychologie cognitive, en psychologie sociale et plus généralement dans les sciences cognitives.

Ces travaux ont identifié de nombreux biais cognitifs propres à l'esprit humain[1] à travers de multiples domaines : perception, statistiques, logique, causalité, relations sociales, etc. Du point de vue de leurs domaines, on peut distinguer entre autres des erreurs de perception, d'évaluation, d'interprétation logique. Ces biais cognitifs ne sont généralement pas conscients. Leur caractérisation est importante aussi bien dans les domaines judiciaire que scientifique puisqu'ils sont néfastes dans un processus logique. La publicité exploite souvent des biais cognitifs pour faire passer ses messages (raisonnement fallacieux, oubli de la fréquence de base).

Certains de ces biais peuvent en fait être efficaces dans un milieu naturel tel que ceux qui ont hébergé l'évolution humaine, permettant une évaluation ou une action plus performante ; tandis qu'ils se révèlent inadaptés à un milieu artificiel moderne.

DĂ©finition

Selon Jean-François Le Ny, psychologue spécialisé dans la cognition : « Un biais est une distorsion (déviation systématique par rapport à une norme) que subit une information en entrant dans le système cognitif ou en sortant. Dans le premier cas, le sujet opère une sélection des informations, dans le second, il réalise une sélection des réponses »[2].

Historique et débats

Le terme de biais cognitif a été introduit au début des années 1970 par les psychologues Daniel Kahneman et Amos Tversky pour expliquer certaines tendances vers des décisions irrationnelles dans le domaine économique[1].

De nombreux chercheurs ont contribué sur le sujet, avec des avis contradictoires, suscitant débats et polémiques[3].

La rationalité limitée de l'individu est évoquée du fait des limitations inhérentes au système cognitif dans le traitement des informations, qui conduit à des biais inévitables. Certains y voient un échec de la rationalité humaine, tandis que pour d'autres, tels que Jonathan St. B. T. Evans, l'existence de ces biais est « en raison plutôt qu’en dépit de la nature de notre intelligence ». Gerd Gigerenzer, « virulent contradicteur » de Kahneman et Tversky, développe une vision « optimiste » de la question, mettant en évidence les situations courantes qui nécessitent, à propos, des heuristiques de jugement[3].

Selon Albert Moukheiber, docteur en neurosciences cognitives[4], les biais cognitifs peuvent être utilisés pour se donner des repères dans la société et justifier nos prises de décisions ; les heuristiques permettent la survie face à un danger imminent[5]. De fait, dès leurs premières recherches dans les années 1970, Kahneman et Tversky ont proposé une vision nuancée des heuristiques qui bien que menant à des biais, peuvent parfois conduire à des jugements raisonnables[3].

Liste de biais cognitifs

Biais sensori-moteurs

S'agissant des processus sensori-moteurs, on parle par habitude plutĂ´t d'illusions que de biais.

Biais attentionnels

  • Biais d'attention — avoir ses perceptions influencĂ©es par ses propres centres d’intĂ©rĂŞt.

Biais mnésique

  • Biais de nĂ©gativitĂ© — Ă©galement connu sous le nom d'effet de nĂ©gativitĂ©, est la notion que, mĂŞme Ă  intensitĂ© Ă©gale, les choses de nature plus nĂ©gative ont un effet plus important sur l'Ă©tat et les processus psychologiques que les choses neutres ou positives
  • Effet de rĂ©cence — mieux se souvenir des dernières informations auxquelles on a Ă©tĂ© confrontĂ©.
  • Effet de simple exposition — avoir prĂ©alablement Ă©tĂ© exposĂ© Ă  une personne ou Ă  une situation la rend plus positive.
  • Effet de primautĂ© — mieux se souvenir des premiers Ă©lĂ©ments d'une liste mĂ©morisĂ©e.
  • Oubli de la frĂ©quence de base — oublier de considĂ©rer la frĂ©quence de base de l'occurrence d'un Ă©vĂ©nement alors qu'on cherche Ă  en Ă©valuer une probabilitĂ©.

Biais de jugement

  • Appel Ă  la probabilitĂ© — tendance Ă  prendre quelque chose pour vrai parce que cela peut probablement ĂŞtre le cas.
  • Aversion Ă  la dĂ©possession — tendance Ă  donner plus de valeur Ă  un bien ou un service lorsque celui-ci est sa propriĂ©tĂ©.
  • Biais d'ancrage — influence laissĂ©e par la première impression.
  • Biais d'attribution (attribution causale) — façon d'attribuer la responsabilitĂ© d'une situation Ă  soi ou aux autres.
  • Biais d'auto-complaisance — se croire Ă  l'origine de ses rĂ©ussites, mais pas de ses Ă©checs.
  • Biais d'engagement — tendance Ă  poursuivre l'action engagĂ©e malgrĂ© la confrontation Ă  des rĂ©sultats de plus en plus nĂ©gatifs.
  • Biais d'Ă©quiprobabilitĂ© — tendance Ă  penser qu'en l'absence d'information, des Ă©vènements sont Ă©quiprobables.
  • Biais d'immunitĂ© Ă  l'erreur — ne pas voir ses propres erreurs.
  • Biais d'intentionnalitĂ© — consiste Ă  percevoir l'action d'une volontĂ© ou d'une dĂ©cision derrière ce qui est fortuit ou accidentel.
  • Biais de confirmation — tendance Ă  valider ses opinions auprès des instances qui les confirment, et Ă  rejeter d'emblĂ©e les instances qui les rĂ©futent.
  • Biais de normalitĂ© — tendance Ă  penser que tout va se passer comme d'habitude et Ă  ignorer les signes avant-coureurs[6]
  • Biais de prĂ©sentĂ©isme — privilĂ©gier les facteurs prĂ©sents est plus Ă©conomique cognitivement Ă  modĂ©liser que les facteurs absents.
  • Biais de proportionnalitĂ© — favoriser l'idĂ©e fausse que si l'on observe une augmentation des manifestations d'un phĂ©nomène, c'est que le nombre d'occurrences de ce phĂ©nomène croĂ®t en effet, sans voir que cette augmentation peut n'ĂŞtre que la consĂ©quence de l'amĂ©lioration de l'outil d'observation.
  • Biais de statu quo — la nouveautĂ© est vue comme apportant plus de risques que d'avantages possibles et amène une rĂ©sistance au changement.
  • Biais Ă©gocentrique — se juger sous un meilleur jour qu'en rĂ©alitĂ©.
  • Biais rĂ©trospectif ou l'effet « je le savais depuis le dĂ©but » — tendance Ă  juger a posteriori qu'un Ă©vĂ©nement Ă©tait prĂ©visible.
  • Croyance en un monde juste — tendance Ă  considĂ©rer que la bonne action d'une personne lui sera nĂ©cessairement bĂ©nĂ©fique tandis qu'une mauvaise action lui sera nĂ©cessairement nĂ©faste
  • Effet d'ambiguĂŻtĂ© — tendance Ă  Ă©viter les options pour lesquelles on manque d'information.
  • Effet de halo — une perception sĂ©lective d'informations allant dans le sens d'une première impression que l'on cherche Ă  confirmer.
  • Effet de simple exposition — avoir prĂ©alablement Ă©tĂ© exposĂ© Ă  quelqu'un ou Ă  une situation le/la rend plus positive.
  • Effet Dunning-Kruger — les moins compĂ©tents dans un domaine surestiment leur compĂ©tence, alors que les plus compĂ©tents ont tendance Ă  sous-estimer leur compĂ©tence.
  • Effet Ikea — tendance pour les consommateurs Ă  accorder une valeur supĂ©rieure aux produits qu'ils ont partiellement crĂ©Ă©s.
  • Effet Stroop — incapacitĂ© d'ignorer une information non pertinente.
  • Effet râteau — exagĂ©rer la rĂ©gularitĂ© du hasard.
  • Erreur fondamentale d'attribution (ou biais d'internalitĂ©) — accorder plus d'importance aux facteurs internes Ă  l'orateur (intentions, Ă©motions) qu'Ă  son discours ou Ă  ses actes (faits tangibles). Couramment utilisĂ© pour discrĂ©diter les Ă©lĂ©ments rationnels par des Ă©lĂ©ments Ă©motionnels, qui sont en pratique souvent imaginĂ©s et attribuĂ©s sans preuve Ă  l'orateur puisque ses Ă©motions internes sont difficilement discernables a priori.
  • Illusion de savoir — dans une situation en apparence identique Ă  une situation commune, rĂ©agir de manière habituelle, sans Ă©prouver le besoin de rechercher les informations complĂ©mentaires qui auraient mis en Ă©vidence une diffĂ©rence par rapport Ă  la situation habituelle. Il peut ainsi faire Ă©tat d'une mauvaise croyance face Ă  la rĂ©alitĂ©.
  • Illusion monĂ©taire — confusion d'un agent Ă©conomique entre variation du niveau gĂ©nĂ©ral des prix et variation des prix relatifs.
  • Illusion de transparence et illusion de connaissance asymĂ©trique.
  • Loi de l'instrument (ou marteau de Maslow) — tentation qui consiste Ă  travestir la rĂ©alitĂ© d'un problème en le transformant en fonction des rĂ©ponses (les outils) dont on dispose.
  • Sophisme gĂ©nĂ©tique — tendance Ă  juger le contenu en fonction du contenant, le message en fonction du messager, le fond suivant la forme.
  • SupĂ©rioritĂ© illusoire — surestimation de ses propres qualitĂ©s et capacitĂ©s.
  • Tache aveugle Ă  l'Ă©gard des prĂ©jugĂ©s — tendance Ă  ne pas percevoir les biais cognitifs Ă  l'Ĺ“uvre dans ses propres jugements ou dĂ©cisions, et ce, aux dĂ©pens d'informations plus objectives.

Biais de raisonnement

Biais liés à la personnalité

  • Biais d'optimisme — optimisme dispositionnel[8], optimisme irrĂ©aliste[9], parfois prĂ©sentĂ© comme un « non-pessimisme dispositionnel »[10] et d'optimisme comparatif[11] - [12] qui semble très ancrĂ©e chez l'ĂŞtre humain ; il s'agit d'une croyance individuelle qui est que le sujet se juge moins exposĂ© Ă  la plupart des risques qu'autrui[13] - [14]. On peut Ă©valuer le degrĂ© d'adhĂ©sion Ă  cette croyance en demandant au sujet d’évaluer son risque de rencontrer un Ă©vĂ©nement nĂ©gatif en comparaison Ă  celui d’autrui[14]. Cette croyance aggrave certaines prises de risques et est souvent impliquĂ©e dans l'accidentologie routière (le conducteur s'estimant Ă  tort plus habile que les autres pour Ă©viter les accidents, mĂŞme quand il ne respecte pas le code de la route, en raison d'une surestimation infondĂ©e et irrĂ©aliste de ses capacitĂ©s)[15] - [16] - [17] - [18].
  • Effet Barnum — accepter une vague description de la personnalitĂ© comme s'appliquant spĂ©cifiquement Ă  soi-mĂŞme (ex. : horoscope).

Et aussi

Aspects psychiques et sociaux

À noter, au-delà du cognitif, lié à l'intellect, l'interférence inconsciente ou consciente de facteurs émotionnels (biais émotionnel) ou instinctifs. En fait, certains biais cognitifs résultent de biais émotionnels qui perturbent le processus cognitif. Toute prise de décision mettant en jeu, pour prendre une image, la tête, le cœur et/ou les tripes, est naturellement plus exposée à certains biais. Il s'avère donc utile de reconnaître les affects agissants en surveillant ces trois « organes » avant de décider.

L'individu n'étant pas isolé dans ses décisions, la psychologie sociale (phénomènes de groupe et de foule) apporte aussi un éclairage. Le biais cognitif est, selon les cas, exclusivement dû à l'individu, ou lié à la pression sociale sur cet individu. Certaines techniques de persuasion, propagande et manipulation mentale cherchent à exploiter ce travers.

Recherche en Ă©conomie et finance

Les divers types de biais cognitifs (ancrage, représentativité, cadrage…) ont particulièrement été mis en lumière par la finance comportementale comme étant source de diverses anomalies affectant les comportements économiques et l'efficience des marchés.

C'est du fait de ces travaux que le psychologue Daniel Kahneman a obtenu le prix Nobel d’économie en 2002.

Enseignement

Les neurosciences étudient l'importance des biais dans l’enseignement qui sont à l'origine de nombreuses réponses considérées comme étant des erreurs par les enseignants, alors même que l'élève concerné a acquis la compétence impliquée dans l'exercice (voir, par exemple, les travaux d'Olivier Houdé[19]). Il est cependant à noter que l'enseignant lui aussi est exposé aux biais, dans son rapport aux élèves et au moment de sa correction[20].

Méthodes scientifiques de réduction des biais

Les institutions scientifiques organisent des relectures par les pairs, des conférences de consensus, des revues systématiques d'études (basées sur les techniques de méta-analyse) et des cartographies systématiques des connaissances pour les mettre périodiquement à jour, en cherchant à détecter et minimiser les biais afin d'apporter des informations complètes et objectivées aux scientifiques, mais aussi aux décideurs et parfois aux négociateurs, par exemple pour le GIEC ou les négociations internationales portant sur la biodiversité, deux sujets de préoccupation mondiale suivis par l'ONU. En Europe, certains organismes ont une accréditation pour produire des formations à ces méthodes (c'est par exemple le cas en France de la FRB qui a été désignée Centre français de la Collaboration for Environmental Evidence[21] - [22]).

Notes et références

  1. Kahneman 2012, p. 135 Ă  238
  2. « Biais », Grand Dictionnaire de la Psychologie, Larousse, 1991.
  3. Pascal Wagner-Egger, « Les canons de la rationalité : essai de classification des points de vue dans le débat sur les biais cognitifs et la rationalité humaine », L’Année psychologique, vol. 111, no 01,‎ , p. 191 (ISSN 0003-5033 et 1955-2580, DOI 10.4074/s0003503311001072, lire en ligne, consulté le )
  4. « Fake news et neurosciences - Albert Moukheiber : "Notre cerveau est attiré par les explications" », sur www.franceinter.fr (consulté le )
  5. A la découverte de notre cerveau | Albert Moukheiber | TEDxLaRochelle
  6. Fédération professionnelle des journalistes du Québec, « Le petit guide des raccourcis mentaux », sur COVID-19 : dépister la désinformation (consulté le )
  7. Sandoss Ben Abid-Zarrouk, « Innovations pédagogiques, incertitude et biais cognitifs. Une approche par les sciences économiques comportementales », Recherches & éducations, no 6,‎ , p. 55–70 (ISSN 1969-0622, DOI 10.4000/rechercheseducations.1223, lire en ligne, consulté le )
  8. Scheier MF & Carver CS (1985) Optimism, coping, and health: assessment and implications of generalized outcome expectancies. Health Psychology (journal) (en), 4(3), 219.
  9. Weinstein, N. D. (1980). Unrealistic optimism about future life events. Journal of Personality and Social Psychology, 39, 806-820.
  10. Sultan S & Bureau B (1999) Quel optimisme en psychologie de la santé ?. European review of applied psychology, 49(1), 43-51.
  11. Harris P & Middleton W (1994) The illusion of control and optimism about health : On being less at risk but no more in control than others. British Journal of Social Psychology, 33, 369-386.
  12. Dejoy DM (1989) The optimism bias and traffic accident risk perception ; Accident Analysis and Prevention, 21, 333-340 (http://www.sciencedirect.com/science/article/pii/0001457589900249 résumé]).
  13. Delhomm, P & Meyer T (1999) Un instrument d’analyse : l'optimisme comparatif. Risques, 39, 1-6.
  14. Weinstein ND (1980) Unrealistic optimism about future life events. Journal of Personality and Social Psychology, 39, 806-820.
  15. Delhomme, P. (1991). Comparing one’s driving with others’ : Assessment of abilities and frequency of offences. Evidence for a superior conformity of self-bias ? Accident Analysis and Prevention, 23, 493-508.
  16. Delhomme, P. (1994). Liens entre surestimation de ses propres capacités, expérience de la conduite et activité de conduite (Rapport no 187). Arcueil : Institut national de recherche sur les transports et leur sécurité.
  17. Delhomme P (2000) Optimisme comparatif chez les usagers de la route : Une protection contre le risque ? Pratiques psychologiques, 1, 99-109.
  18. McCormick IA, Walkey FH & Green DE (1986). Comparative perceptions of driver ability : A confirmation and expansion. Accident Analysis and Prevention, 18, 205-208.
  19. « Des sciences cognitives à la classe : Entretien avec Olivier Houdé », sur cafepedagogique.net (consulté le )
  20. « L’erreur vue par les enseignants : biais et statut de l’erreur », sur fairecours.com, (consulté le ).
  21. www.environmentalevidence.org
  22. La FRB centre français de la Collaboration for Environmental Evidence

Voir aussi

Bibliographie

Les références suivantes couvrent certains biais cognitifs.

  • Daniel Kahneman (trad. de l'anglais), Système1 / Système2 : Les deux vitesses de la pensĂ©e, Paris, Flammarion, coll. « Essais », , 545 p. (ISBN 978-2-08-121147-6).
  • Eric Lafon (2012). « Est-ce que quelqu'un m'entend ? », Éditions terre des graves (ISBN 978-2-917165-17-1).
  • Rolf Dobelli (2008). ArrĂŞtez de vous tromper : 52 erreurs de jugement qu'il vaut mieux laisser aux autres… Éditions Eyrolles.
  • Dan Ariely (2008). C'est (vraiment ?) moi qui dĂ©cide. Flammarion.
  • Malcolm Gladwell (2006); La force de l'intuition (titre anglais : Blink: The Power of Thinking Without Thinking (en)). Édition Pocket (2007), Édition Robert Laffon (2006).
  • Steven Levitt (2006). Freakonomics. Éditions DenoĂ«l.
  • Nassim Nicholas Taleb (2008) Le Cygne Noir. La puissance de l'imprĂ©visible, Les Belles Lettres (2008). (ISBN 978-2-251-44348-5).
  • Christophe Gautheron (2009). Comprendre les Ă©motions qui interviennent dans le trading. Éditions Valys. (ISBN 978-2-915-401363).
  • Nicolas GuĂ©guen (2008). Psychologie du consommateur : Pour mieux comprendre comment on vous influence. Dunod. (ISBN 978-2100523122).
  • SĂ©bastien DathanĂ© (2015). DĂ©cider dans un monde complexe : voyage au cĹ“ur de nos dĂ©cisions. Éditions Maxima (ISBN 9782840018414).
  • Thomas C. Durand (2018). L'ironie de l'Ă©volution, Éditions du Seuil. (ISBN 978-2-02-131165-5).
  • Gilles Bellevaut, Pascal Wagner-Egger (2022). MĂ©fiez-vous de votre cerveau : 30 biais cognitifs dĂ©crits et expliquĂ©s pour moins se tromper et mieux raisonner. Editions 41. (ISBN 978-2-88915-482-1)

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.