Accueil🇫🇷Chercher

Probabilité a priori

Dans le théorème de Bayes, la probabilité a priori (ou prior[note 1]) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior[note 1]) correspondante qui s'appuie sur les connaissances postérieures à cette observation.

Formalisation

Théorème de Bayes

Le théorème de Bayes s'énonce de la manière suivante :

, si .

désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .

Lois

Soit θ un paramètre ou vecteur de paramètres inconnu considéré aléatoire :

  • la loi de la variable alĂ©atoire avant observation est appelĂ©e loi a priori, notĂ©e gĂ©nĂ©ralement [1] - [2] ;
  • la loi de la variable alĂ©atoire après observation est appelĂ©e loi a posteriori.

Extension du modèle

Soit X une variable aléatoire dont la loi de probabilité associée dépend de , et x l'observation.

Le théorème de Bayes s’énonce alors : .

La probabilité a priori est et la probabilité a posteriori devient .

La loi a priori est toujours et la loi a posteriori est alors la loi de conditionnellement Ă  l'observation de et s'Ă©crit donc [1] - [2].

Choix d’une loi de probabilité a priori

Les lois a priori peuvent être créées à l'aide d'un certain nombre de méthodes[3](pp27–41).

  • Une loi a priori peut ĂŞtre dĂ©terminĂ©e Ă  partir d'informations antĂ©rieures, telles que des expĂ©riences prĂ©cĂ©dentes.
  • Elle peut ĂŞtre obtenue Ă  partir de l'Ă©valuation purement subjective d'un expert expĂ©rimentĂ©.
  • Une loi a priori non informative peut ĂŞtre crĂ©Ă©e pour reflĂ©ter un Ă©quilibre entre les rĂ©sultats lorsque aucune information n'est disponible.
  • Les lois a priori peuvent Ă©galement ĂŞtre choisies en fonction d'un certain principe, comme la symĂ©trie ou la maximisation de l'entropie compte tenu des contraintes ; les exemples sont la loi a priori de Jeffreys ou l’a priori de rĂ©fĂ©rence de Berger-Bernardo.
  • Enfin, lorsqu'il existe une famille d’a priori conjuguĂ©s (en), le choix d'un a priori dans cette famille simplifie le calcul de la loi a posteriori.

Articles connexes

Notes et références

Notes

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Prior probability » (voir la liste des auteurs).
  1. Les mots « prior » et « posterior », d'origine anglaise, signifient « avant » et « après » et sont utilisés pour décrire des concepts de l'inférence bayésienne, ou pour formuler de nouveaux (voir par exemple les œuvres de Judea Pearl ou Introduction to Bayesian Statitics de Karl-Rudolf Koch). Ils sont aussi utilisés en français comme synonymes, par exemple par Sophie Gourgou, Xavier Paoletti, Simone Mathoulin-Pélissier dans Méthodes Biostatistiques appliquées à la recherche clinique en cancérologie ou Bas Van Fraassen, Catherine Chevalley dans Lois et symétrie, p. 59.

Références

  1. Introduction aux Statistiques Bayésiennes. Par Yann Traonmilin et Adrien Richou, Institut de Mathématiques de Bordeaux, PDF, 19 pages
  2. Statistique Bayésienne - Notes de cours. Par Judith Rousseau, ENSAE ParisTech, Troisième année 2009-20010, PDF, 54 pages
  3. Bradley P. Carlin et Thomas A. Louis, Bayesian Methods for Data Analysis, CRC Press, , Third Ă©d. (ISBN 9781584886983)

Bibliographie

  • Rubin, Donald B., Gelman, Andrew, John B. Carlin et Stern, Hal, Bayesian Data Analysis, Boca Raton, Chapman & Hall/CRC, , 2nd Ă©d. (ISBN 978-1-58488-388-3, MR 2027492)
  • James O. Berger, Statistical decision theory and Bayesian analysis, Berlin, Springer-Verlag, (ISBN 978-0-387-96098-2, MR 0804611)
  • James O. Berger et William E. Strawderman, « Choice of hierarchical priors: admissibility in estimation of normal means », Annals of Statistics, vol. 24, no 3,‎ , p. 931–951 (DOI 10.1214/aos/1032526950, MR 1401831, zbMATH 0865.62004)
  • Jose M. Bernardo, « Reference Posterior Distributions for Bayesian Inference », Journal of the Royal Statistical Society, Series B, vol. 41, no 2,‎ , p. 113–147 (JSTOR 2985028, MR 0547240)
  • James O. Berger, JosĂ© M. Bernardo et Dongchu Sun, « The formal definition of reference priors », Annals of Statistics, vol. 37, no 2,‎ , p. 905–938 (DOI 10.1214/07-AOS587, Bibcode 2009arXiv0904.0156B, arXiv 0904.0156)
  • Edwin T. Jaynes, « Prior Probabilities », IEEE Transactions on Systems Science and Cybernetics, vol. 4, no 3,‎ , p. 227–241 (DOI 10.1109/TSSC.1968.300117, lire en ligne, consultĂ© le )
    • rĂ©imprimĂ© dans Rosenkrantz, Roger D., E. T. Jaynes: papers on probability, statistics, and statistical physics, Boston, Kluwer Academic Publishers, , 116–130 p. (ISBN 978-90-277-1448-0)
  • Edwin T. Jaynes, Probability Theory: The Logic of Science, Cambridge University Press, (ISBN 978-0-521-59271-0, lire en ligne)
  • Jon Williamson, « review of Bruno di Finetti. Philosophical Lectures on Probability », Philosophia Mathematica, vol. 18, no 1,‎ , p. 130–135 (DOI 10.1093/philmat/nkp019, lire en ligne [archive du ], consultĂ© le )
  • Tony Lancaster, An Introduction to Modern Bayesian Econometrics, Oxford, Blackwell, (ISBN 1-4051-1720-6)
  • Peter M. Lee, Bayesian Statistics : An Introduction, Wiley, , 3rd Ă©d. (ISBN 0-340-81405-5)
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.