Accueil🇫🇷Chercher

Biais de publication

Un biais de publication[1] - [2] désigne en science le fait que les chercheurs et les revues scientifiques ont bien plus tendance à publier des expériences ayant obtenu un résultat positif (statistiquement significatif) que des expériences ayant obtenu un résultat négatif (soutenant l'hypothèse nulle). Ce biais de publication donne aux lecteurs une perception biaisée (vers le positif) de l'état de la recherche.

Causes

Plusieurs causes au biais de publication ont été avancées. En 1977, Michael J. Mahoney a montré que les comités de lecture des revues scientifiques refusent plus facilement les articles dont le résultat est non significatif que ceux ayant trouvé un résultat significatif. Sachant cela, les chercheurs ont tendance à considérer un résultat non significatif comme moins intéressant pour la communauté scientifique qu'un résultat statistiquement significatif. Sachant que le résultat risque d'être rejeté, ils ne s'investissent pas dans le processus de publication qu'ils pensent voué à l'échec[2].

Une autre raison avancée pour expliquer le biais de publication est le fait que les chercheurs des industries pharmaceutiques réalisent de nombreux tests qu'ils ne souhaitent pas nécessairement voir publiés, soit en raison du secret industriel, soit que les résultats sont défavorables au produit[2].

Politiques de luttes contre le biais de publication

Pour éviter cela, plusieurs revues médicales dont le Journal of the American Medical Association, les Annals of Internal Medicine, The Lancet et le New England Journal of Medicine ont signé un accord interdisant la publication de résultats de recherche pharmaceutique qui n'auraient pas été enregistrés dans une base de données avant leur démarrage[3].

Le phénomène a également été observé en sciences sociales. Le politologue James Monogan propose également de déclarer les études et le protocole de recherche auprès d'un organisme dédié, par exemple le Political Science Registered Studies Dataverse, avant d'avoir pu observer le résultat de l'étude afin que les chercheurs se contraignent d'une part à adopter un protocole de recherche clair et d'autre part à divulguer leurs résultats qu'ils soient ou non statistiquement significatifs[4].

Les conférences de consensus et les cartographies systématiques visent à minimiser ces biais (entre autres facteurs d'erreurs d'appréciation).

Effet tiroir

Un biais de publication entraîne lorsqu'il implique des statistiques un « effet tiroir » (en anglais « filedrawer effect »)[5], particulièrement lorsque des méta-analyses[6] sont réalisées. Les résultats non significatifs restent « au fond du tiroir » et ne sont jamais publiés, alors que les résultats significatifs sont sur-représentés[7]. Les sceptiques considèrent que l'effet tiroir a joué un rôle important dans l'histoire de la parapsychologie, et expliquerait pourquoi un petit nombre de méta-analyses ont suggéré un effet supérieur au placebo pour certaines préparations homéopathiques[8]. L'effet de ce biais peut s'illustrer de la façon suivante. Supposons que 100 études similaires et indépendantes sont réalisées pour mesurer l'efficacité d'une préparation homéopathique. Si 5 % d'entre elles rapportent des résultats positifs avec une valeur p de 0,05 et que les 95 % restant rapportent des résultats négatifs, une méta-analyse conclura que l'efficacité n'a pas été démontrée, car par définition le taux de faux positifs espéré (erreur du type 1) est ici de 5 %[9]. Par contre, si une fraction des résultats négatifs ne sont pas rapportés, une méta-analyse ne tenant pas compte de ce biais pourrait conclure erronément à l'efficacité de la même préparation, en particulier si le taux apparent de résultats positifs dépasse significativement le taux de faux positifs attendu.

Notes et références

  1. (en) positive-outcome (publication) bias dans le Skepdic.
  2. Michel Cucherat, Jean Pierre Boissel et Alain Leizorovicz, Manuel pratique de méta-analyse des essais thérapeutiques, Université Lyon I (lire en ligne), chap. 6 (« Le biais de publication »)
  3. « Medical journal editors take hard line on drug research », The Washington Post,‎ (lire en ligne, consulté le )
  4. (en) James Monogan, « Political Science Registered Studies Dataverse », Political Analysis, vol. 21, no 1,‎ , p. 21-37 (DOI 10.1093/pan/mps022, lire en ligne)
  5. (en) file-drawer effectdans le Skepdic.
  6. (en) Meta-Analysis and the Filedrawer Effect de Victor J. Stenger. Voir aussi La méta-analyse en parapsychologie ? d'Henri Broch.
  7. (en) Jeffrey D. Scargle, « Publication Bias: The "File-Drawer Problem" in Scientific Inference », Journal of Scientific Exploration, vol. 14, no 2,‎ , p. 94–106 (lire en ligne)
  8. Systematic reviews in health care Investigating and dealing with publication and other biases in meta-analysis. Jonathan A C Sterne, Matthias Egger, George Davey Smith
  9. (en) Johnson, Elementary Statistics, 9th edition, with CD, Thomson Publishing

Voir aussi

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.