Accueil🇫🇷Chercher

Erreur humaine


Une erreur humaine est une action ou réponse inappropriée d'un être humain ou d'un groupe d’êtres humains qui entraîne ou pourrait entraîner un résultat non conforme à un attendu[1].

L'erreur humaine est considérée comme la cause la plus importante de désastres ou d'accidents mais aussi de la perte de performance des organisations. La prévention des erreurs humaines est généralement considérée comme un facteur majeur de fiabilité et de sécurité des systèmes (complexes). L'erreur humaine est l'une des nombreuses causes contributives des événements à risque. Ces éléments expliquent l'intérêt des chercheurs et des entreprises à comprendre et à adresser ce sujet.

L'erreur humaine est un domaine multidisciplinaire qui fait intervenir des experts des facteurs humains, des psychologues, et ergonomes pour la comprendre mais aussi des ingénieurs et des systémiciens pour en trouver les solutions.

Le terme même « erreur humaine » soulève des débats puisque certains comme Sénèque pensent que l'erreur est humaine par essence (il s'agirait donc d'une redondance) alors que d'autres soutiennent que l'erreur ne peut pas être humaine car sa cause est obligatoirement la conséquence d'un ensemble de paramètres extérieurs à lui dont il ne peut prendre en compte qu'une partie. Les autres débats sur le sujet concernent les classifications (taxonomie) des erreurs humaines ainsi que les approches pour les résoudre.

DĂ©finition

Une erreur humaine est une action ou réponse inappropriée (involontaire, ou volontaire sans compréhension des impacts potentiels) d'un être humain ou d'un groupe d’êtres humains qui entraîne ou pourrait entraîner un résultat non conforme à un attendu (standard de performance)[1].

Selon Rasmussen[2] il est très difficile de donner une définition satisfaisante d'erreurs humaines.

L'appréhension du sujet varie en fonction de la culture[3] :

  • En France, les erreurs remettent en cause les compĂ©tences;
  • En Allemagne, erreur et faute se traduisent par un mĂŞme mot : Fehler;
  • Au Japon, l’erreur est une source d’amĂ©lioration continue... Etc...

Selon Reason[4] - [5], il faudra parler d’ « erreurs » pour des actions planifiées (intentionnalité de l’action) qui n’atteignent pas l’objectif désiré car elles ne se déroulent pas en accord au plan ou car le plan lui-même est inadéquat pour atteindre l’objectif.

En gestion des risques, une erreur est un acte, une parole induisant un risque, un danger voire un accident ; lorsque l'acte est volontaire, on ne parle plus d'erreur mais de sabotage, d'acte criminel ou délictueux.

Importance du thème

Catastrophe de Courrières

L’erreur humaine est un phénomène intrinsèquement humain donc universel. Aux quatre coins de la planète et à tous moments des êtres humains génèrent des erreurs, tant dans leur vie privée que professionnelle.

Certaines de ces erreurs n’auront pas d’impacts ou des conséquences bénignes, d’autres auront de plus lourdes répercussions et seront à l’origine d’incidents, voire d’accidents graves et/ou mortels. Les exemples d'erreur humaine les plus cités sont ceux avec le plus d'impact humain ou environnemental. On peut citer: l'accident de Three Mile Island (Industrie nucléaire), les erreurs de pilotage, le désastre de la navette spatiale Challenger et la catastrophe de la navette spatiale Columbia, la catastrophe des Courrières, l'échouement du pétrolier Exxon Valdez au large de l'Alaska en 1989 ou encore les erreurs médicales. Plus anecdotique, mettre à la poubelle un billet de banque sans s'en rendre compte peut aussi être considéré comme une erreur humaine.

De même, les accidents de la route qui blessent gravement ou mortellement des personnes chaque mois par centaine (hécatombes) pendant des décennies sont le plus souvent attribués à des erreurs humaines ou des facteurs humains[6] - [7] - [8], les sources ne distinguant pas toujours les notions de facteur et d'erreur. Dans le «système sûr» (en anglais: Safe System Approach) l'infrastructure routière cherche à ce qu'une erreur humaine ne conduise pas à un accident, en réduisant le risque d'erreur et les conséquences de l'erreur[9] - [10]. Toutefois les échecs humains peuvent être soit des erreurs humaines soit des violations délibérées[11]. «L’idée du «système sûr» est d’accepter l’erreur humaine mais de tout faire pour que l’erreur n’entraîne pas des décès ou des blessures graves.»[12].

Au-delà de ces cas aux conséquences les plus graves, il y a un autre effet des erreurs humaines qui interpelle les entreprises : l’impact sur la diminution de la performance ou l'augmentation des coûts. Exemples : retravail, retards, gaspillages, frais de garantie... Si le processus n'a pas été totalement suivi lors de la fabrication d'un produit, les lots doivent être éliminés, retravaillés ou revalidés. L'erreur humaine et la performance sont les deux faces d'une même médaille: les mécanismes de «l'erreur humaine» sont les mêmes que les mécanismes de «la performance humaine».

Toute performance éventuellement qualifiée comme «erreur» le sera rétrospectivement[13]. Donc les actions appelées plus tard «erreur humaine» font en réalité partie du spectre ordinaire du comportement humain et de sa performance. L'étude de la distraction dans la vie quotidienne fournit une vaste documentation et une catégorisation de ces aspects du comportement.

Ce qui est désigné "erreur", est dépendant de la culture, du lieu et de l'époque à laquelle elle se produit. Par exemple, certains actes sont vivement conseillés dans certaines cultures et pas du tout acceptés dans d'autres (l'éructation); la poignée de main est un geste commun de salutation, mais pour des raisons d'hygiène elle peut être très vivement déconseillée lors d'une pandémie (poignée de main); enfin, le type de vêtement porté pourrait être considéré comme une erreur en fonction de votre situation géographique, des conditions météorologiques ou de la culture.

Classifications des erreurs humaines

Il existe de nombreuses façons de catégoriser l'erreur humaine[14] - [15] :

  • Soit par son caractère exogène ou endogène (c.-Ă -d. provenant de l'extĂ©rieur ou de l'intĂ©rieur de l'individu) [16]
  • Soit par l'Ă©valuation de la rĂ©ponse par rapport Ă  l'attendu [17] :
    • erreur de dĂ©tection de problème (voir Ă©galement la thĂ©orie de la dĂ©tection de signal)
    • erreur de diagnostic de problème (voir aussi rĂ©solution de problème)
    • erreur dans la planification et l'exĂ©cution des actions [18] (par exemple: dĂ©rapages ou erreurs d'exĂ©cution en opposition aux erreurs d'intention [19] - [5])
  • Soit en fonction du niveau d'analyse; par exemple, perceptif (p. ex. illusions d'optique), cognitif, de communication ou organisationnel
  • Soit en fonction du type d'erreur de manipulation physique [20]
    • "Ă©carts" survenant lorsque l'action physique ne parvient pas Ă  atteindre l'objectif planifiĂ©
    • "fautes" impliquant un Ă©chec de la mĂ©moire
  • Soit en fonction du caractère actif (dans le sens d'immĂ©diat) ou latent de l'erreur:
    • erreur active : action physique observable qui change l'Ă©tat de l'Ă©quipement, du système ou de l'installation, entraĂ®nant des consĂ©quences indĂ©sirables immĂ©diates.
    • erreur humaine latente entraĂ®nant des faiblesses cachĂ©es liĂ©es Ă  l'organisation ou des dĂ©fauts d'Ă©quipement qui sont en sommeil; ces erreurs peuvent passer inaperçues au moment oĂą elles se produisent, sans rĂ©sultat apparent immĂ©diat.
  • Soit en fonction du niveau de dĂ©pendance Ă  l'Ă©quipement - manque de vigilance en raison de l'hypothèse faite que les commandes matĂ©rielles ou les dispositifs de sĂ©curitĂ© physique fonctionneront toujours.
  • Soit l'intervention de l'Ă©quipe - manque de vigilance crĂ©Ă© par l'interaction sociale (interpersonnelle) entre deux ou plusieurs personnes travaillant ensemble.

Classifications par cause racine

Dans son analyse des erreurs humaines, James Reason part du principe qu’il y a à priori une « intention » d’agir. Il n’y a donc pas "d'intention" de faire une « erreur » car ce serait là un abus de langage qualifiant d’erreur un acte de sabotage.

Ceci amène à considérer qu’il n’y a d’erreur que si, et uniquement si, l’acte de départ est intentionnel et qu’il a donc un but, un objectif déclaré à atteindre. Dans ce cas, le terme « erreur » désigne exclusivement la non-atteinte de l’objectif.

Toujours selon Reason, il existe deux raisons fondamentales qui génèrent des erreurs :

  • Les actions ne se sont pas dĂ©roulĂ©es comme prĂ©vu (non-respect de la procĂ©dure)
  • Les actions n’ont pas abouti au rĂ©sultat voulu (procĂ©dure inopĂ©rante)

Ceci rejoint le concept de Rasmussen qui désigne trois sources d’erreurs dans notre fonctionnement (Behaviour SRK) :

  • Les erreurs liĂ©es au savoir-faire (Skills). Par exemple, les erreurs d'habitude telles qu'oublier de tourner Ă  droite (comportement attendu) quand on a l'habitude de tourner Ă  gauche tous les jours.
  • Les erreurs liĂ©es aux règles ou procĂ©dures (Rules). Par exemple, l'application de procĂ©dures non conformes aux conditions rencontrĂ©es sur le terrain.
  • Les erreurs liĂ©es Ă  la connaissance (Knowledge). Par exemple, le manque de connaissances, d'Ă©ducation.

Classifications par effet

L'effet (impact en anglais) dû à l'erreur peut être ou négatif (accidents, dommages...) ou positif (sérendipité, nouveauté, innovation inattendue).

L'effet, positif ou négatif, peut aussi être classifié en fonction de son intensité. Par analogie avec l'échelle de Richter pour les séismes, les conséquences d'une erreur peuvent être classées sur une échelle graduée depuis anodines jusque totalement catastrophiques ou innovation majeure, voire révolutionnaire.

En termes d'accidentologie, les statistiques révèlent que 90 % des accidents de la route sont liés à une erreur humaine[21].

Origines des erreurs humaines

Voici quelques exemples de causes de l'erreur humaine collectées dans une entreprise pharmaceutique européenne lors d'interviews d'opérateurs:

  • la pression du temps ou des collègues
  • les distractions et interruptions
  • le multi-tâches, notamment pendant les pĂ©riodes charnières du dĂ©but et de la fin de journĂ©e
  • des instructions vagues ou sujettes Ă  interprĂ©tation
  • la confiance excessive en raison de la routine par exemple
  • les changements de procĂ©dure
  • l'environnement physique (tempĂ©rature, humiditĂ©...)
  • la documentation non exacte ou non disponible
  • le manque de formation ou une formation inadaptĂ©e
  • le moral en berne, tristesse ou manque de motivation
  • ou tout simplement la maladresse

De nombreuses erreurs ont pour cause le fonctionnement du cerveau. L'étude cognitive de l'erreur humaine est un domaine de recherche très actif, comprenant des travaux liés aux limites de la mémoire et de l'attention ainsi qu'aux stratégies de prise de décision telles que l'heuristique de disponibilité et autres biais cognitifs. Ces heuristiques et biais sont des stratégies utiles et souvent correctes, mais qui peuvent conduire à des schémas d'erreur systématiques.

Les malentendus en tant que sujet de communication humaine ont été étudiés dans l'analyse de la conversation, notamment comme l'examen des violations du principe coopératif.

Les études organisationnelles sur les erreurs ou les dysfonctionnements ont inclus des études sur la culture de sécurité.

Statistiques de causes des erreurs humaines

Il est difficile d'obtenir des statistiques fiables sur le taux d'erreurs d'origine humaine en raison du flou de la définition mais aussi de la confidentialité de ces informations. Selon la société de service en ingénierie Altran qui a approfondi ce sujet : 30 à 40% des erreurs sont classées comme ayant une cause racine directement humaine. Il s'agit par exemple de problèmes dans la communication d'une consigne, une mauvaise compréhension de la situation. 20 à 30% des erreurs ont pour cause racine une erreur humaine dont la source est un autre être humain : la documentation ou la formation n'ont pas la qualité suffisante pour réaliser le travail, l'organisation est trop complexe (les responsabilités sont mal définies), les processus changent trop souvent...

D'autres causes ne sont pas considérées comme humaines comme par exemple: une machine qui ne fonctionne pas comme prévu, une matière première qui ne répond pas aux critères de qualité, des mesures de paramètres qui ne sont pas exactes. voir la classification des 6M.

Approches pour Ă©viter les erreurs

Approche de l'analyse des risques

Il est possible de réduire le risque d’erreurs humaines en utilisant des outils classiques de gestion des risques. Cette dernière consiste à identifier et évaluer les risques potentiels pouvant mettre en danger le bon déroulement d’un projet, d'un évènement ou d'une activité.

Les risques sont évalués en fonction de leur nature (santé, sécurité, qualité, performance…), et en considérant les paramètres suivants :

  • La gravitĂ© de l’incident (impact)
  • La probabilitĂ© d’apparition ou de reproduction (frĂ©quence)

Il existe plusieurs outils d’analyse de risque dont l’AMDEC (Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité) et l’HAZOP (HAZard and OPerability studies):

AMDEC: mode et criticité de défaillance

L' analyse des modes de défaillance, de leurs effets et de leur criticité (AMDEC) est un sigle connu.

AMDEC est à l’origine destiné à la gestion de la qualité, et est souvent utilisé pour la gestion des risques sous forme d’un tableau. Sa valeur ajoutée s’exprime quand il est utilisé en amont d’un projet. Il doit être régulièrement mis à jour dès la détection d’une nouvelle erreur.

Phases de l’établissement d’un AMDEC en:

  • Phase de prĂ©paration : Constituer des groupes de travail afin de fixer le pĂ©rimètre et l’étude des risques. Surtout dans le cas des erreurs humaines, il faut veiller Ă  avoir un groupe de personnes aux profils et aux rĂ´les complĂ©mentaires.
  • Analyse fonctionnelle : RĂ©aliser un dĂ©coupage fonctionnel et identifier les liens entre chaque composant. Dans le cas d’une erreur humaine, il s’agit de dĂ©composer l’évènement ou l'activitĂ© en Ă©tapes afin d’identifier tous les paramètres intervenants dans l’erreur.
  • Identification des problèmes, de leur criticitĂ© et des causes racines correspondantes. (Voir liste des causes racines potentielles)
  • DĂ©termination des actions correctives et priorisation en utilisant, par exemple, une matrice gains-efforts.

HAZOP: décomposition du risque en nœuds

HAZOP est l'acronyme de HAZard and OPerability studies.

Le principe de HAZOP est la dĂ©composition du système Ă  analyser en plusieurs sous-ensembles, appelĂ©s « nĹ“uds »  afin que l’analyse des risques puisse ĂŞtre partagĂ©e entre des personnes ou des Ă©quipes multidisciplinaires.

Approche systémique

Une erreur humaine correspond à trois critères

  • L’existence d’une procĂ©dure (ou règle ou norme) et d'un objectif Ă  atteindre (Reason, Rasmussen)
  • Une dĂ©viance par rapport Ă  l’objectif (savoir faire ou connaissance) (Reason, Rasmussen)
  • La dĂ©signation en tant qu’erreur

L’approche systémique ne se départit pas des critères ci-dessus. Elle introduit néanmoins la notion d’interaction qui fait que l’erreur est à appréhender sous forme de manquement à la communication. L’interaction entre les éléments du système peut se révéler déficiente pour des raisons identiques à celle attribuées à l’erreur.

La communication entre les éléments du système peut échouer parce que les dits éléments ont des points de référence différents et donc mécomprennent le message reçu. La diversité des protagonistes est un facteur aggravant de la mécompréhension. Plus elle est grande, plus la communication peut être déficiente. Ceci se rapproche des notions de connaissances et savoir-faire qui sont considérées comme sources d'erreur.

De même, cette mécompréhension pour être catégorisée « erreur » doit être désignée comme telle et donc référer à la norme ou l’attente de celui qui la désigne, créant de la sorte une boucle de feedback entre les protagonistes. En qualifiant d’erreur l’acte de l’autre, j’induis un comportement qui peut être un renforcement de l’erreur (feedback positif).

La systémique va s’adresser non pas aux éléments du système mais bien aux interactions entre les éléments du système afin de réduire la différence normative et donc éviter les « erreurs » à travers un rééquilibrage de la communication. Il faut alors envisager le comment et non le pourquoi.

Une des questions fondamentales que la systémique va adresser sera celle du rôle de l’erreur dans l’interaction :

« L’erreur est une notion rétrospective, forgée par l’esprit à l’occasion d’une réflexion (l’erreur peut être qualifiée d’ « obstacle paradoxal » puisqu’elle nous aide à atteindre la vérité en nous trompant). » ref.

« Prendre un risque, c'est accepter de se donner un droit à l'erreur car l'échec est aussi lié à l'erreur, que Littré rapproche de l'illusion : «faute commise dans une supputation ». À l'inverse, prendre en compte et a priori l'erreur possible permettra sans doute de corriger la trajectoire de l'action engagée, par boucle d'informations récursive » - (Jean-François Hérouard)

L'approche systémique peut aussi être considérée comme une stratégie pour éviter l'Erreur fondamentale d'attribution qui consiste à négliger les facteurs externes au profit des facteurs internes.

Approche humaine

Approche intégrant les types de personnalités humaines avec le modèle de Reason Modèle du fromage suisse.

En considérant qu’il faut une approche à la fois systémique et systématique pour limiter le nombre de d’erreurs humaines, Christophe Oudot propose une approche multidisciplinaire articulée autour des 4 types de personnalité proposés par le psychanalyste Carl Gustav Jung et rendu connu par les outils comme le MBTI Myers Briggs type indicator ou l’insights discovery , HBDI...

Le déploiement d’une solution unique ne sera efficace que si on accepte la multiplicité des types de personnalités et donc des solutions. En mettant en parallèle une adaptation du modèle de Reason et le modèle de personnalités considérant les 2 axes : introvertis-extravertis et orientation action ou relation, 4 types de barrières peuvent être mises en place correspondant aux 4 types de personnalités:

  1. Des personnes plutôt extraverties, orientés vers la pensée et la tâche vont avoir besoin de solution très pragmatiques et souvent physiques. Exemple : une buttée qui empêche qu’une vanne soit tournée dans le mauvais sens ou une alarme qui se déclenche quand la porte d’un réfrigérateur reste ouverte trop longtemps. Il s’agit de barrières techniques, nommées détrompeurs ou Poka-Yoke Détrompeur en japonais.
  2. Des personnes plutôt introverties, orientée vers la pensée et la tâche vont avoir besoin de solution accompagnant l’action. Exemples : des procédures avec des actions détaillées, des listes de points de contrôle, des formations de terrain très concrètes. Il s’agit de barrières procédurales ou de systèmes de management ou de formations.
  3. Des personnes plutôt extraverties, orientées vers la relation et l’émotion vont avoir besoin de comprendre pourquoi une action est importante ou nécessaire. Il faudra qu’elles sentent qu’il y a une cohérence entre ce qui est demandé et leurs aspirations profondes. Exemples : attention portée à l’enthousiasme, à l’ambiance dans l’équipe, aux valeurs des individus, à l’intégration émotionnelle de la raison de réaliser des tâches. Il s’agit de barrières culturelles.
  4. Des personnes plutôt introverties, orientées vers la relation et l’émotion vont avoir besoin de pouvoir demander le point de vue ou l’aide de collègues. Exemples : activités réalisées en équipe, attention portée au stress ambiant, entretiens réguliers avec la ligne hiérarchique. Il s’agit de barrières collectives.

Les deux premières barrières sont basées sur l’analyse de cas passés, on parle de sécurité réglée. Les deux suivantes vont permettre d’anticiper des cas non prévus. La culture de la sécurité permettra de rapprocher ses barrières qui, misent en place de manière indépendantes ou éloignées n’ont pas l’effet escompté.(page 10, Les facteurs humains et organisationnels de la sécurité, 2010)

LĂ©gislation

La législation européenne sur les machines[22] prévoit qu' «une erreur humaine raisonnablement prévisible au cours du fonctionnement n'entraîne pas de situation dangereuse»[23].

Controverses

Controverses des chercheurs

Certains chercheurs ont fait valoir que la dichotomie des actions humaines comme «correctes» ou «incorrectes» est une simplification excessive et néfaste d'un phénomène complexe[24] - [25]. Mettre l'accent sur la variabilité de la performance humaine et la façon dont les opérateurs humains (et les organisations) peuvent gérer cette variabilité peut être une approche plus fructueuse. Les nouvelles approches, telles que l'ingénierie de la résilience mentionnée ci-dessus, mettent en évidence les rôles positifs que les humains peuvent jouer dans des systèmes complexes. Dans l'ingénierie de la résilience, les réussites (les choses qui vont bien) et les échecs (les choses qui ne vont pas) sont considérées comme ayant la même base, à savoir la variabilité des performances humaines.

Controverses de Homendy contre Biden

D'après Homendy les 94% d'erreur humaine sur la route ne seraient pas une erreur humaine, mais une prise de risque délibérée.

Articles connexes

Notes et références

Notes

    Références

    1. Senders, J.W. and Moray, N.P. (1991) Human Error: Cause, Prediction, and Reduction. Lawrence Erlbaum Associates, p.25. (ISBN 0-89859-598-3).
    2. (en) Rasmussen, Information processing and human-machine interaction, North-Holland, New York,
    3. « DROIT À L’ERREUR, ET SI L’ON S’INSPIRAIT D’AUTRES CULTURES ? », sur https://www.culturecourses.com/, (consulté le )
    4. Justin Larouzée, Franck Guarnieri, Denis Besnard, « Le modèle de l’erreur humaine de James Reason », sur https://hal-mines-paristech.archives-ouvertes.fr/,
    5. Reason, James (1990) Human Error. Cambridge University Press. (ISBN 0-521-31419-4).
    6. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8305933/
    7. https://highways.dot.gov/research/research-programs/safety/human-factors
    8. https://www.europarl.europa.eu/news/fr/headlines/society/20190410STO36615/deces-sur-les-routes-en-europe-les-chiffres-infographie
    9. https://highways.dot.gov/public-roads/winter-2022/01
    10. https://www.ncbi.nlm.nih.gov/books/NBK525212/
    11. https://www.hse.gov.uk/humanfactors/topics/humanfail.htm
    12. https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:52018DC0293
    13. Woods, 1990
    14. Jones, 1999
    15. Wallace and Ross, 2006
    16. Senders and Moray, 1991
    17. Roth et al., 1994
    18. Sage, 1992
    19. Norman, 1988
    20. DOE HDBK-1028-2009 ( https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file)
    21. Informations sur TF1
    22. directive relative aux machines
    23. https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:02006L0042-20091215
    24. Hollnagel, E. (1983). Human error. (Position Paper for NATO Conference on Human Error, August 1983, Bellagio, Italy)
    25. Hollnagel, E. and Amalberti, R. (2001). The Emperor’s New Clothes, or whatever happened to “human error”? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development.. Linköping, June 11–12, 2001.
    Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.