Accueil🇫🇷Chercher

Estimateur de Laplace–Bayes

En théorie des probabilités et en statistiques, l'estimateur de LaplaceBayes (ou règle de succession de Laplace) est une formule permettant de donner une approximation du terme a posteriori de la formule de Bayes. Elle a été introduite au XVIIIe siècle pour répondre au problème : quelle la probabilité que le Soleil se lève demain[1] ?

Expression mathématique

Soit des variables aléatoires indépendantes à valeur binaire (0 ou 1). On suppose qu'elles suivent toutes une distribution de Bernouilli de même paramètre p. Autrement dit, la probabilité que = 1 vaut p), la valeur de p étant inconnue. Alors :

On parle de succès quand = 1. La formule précédent dit donc que la probabilité d'avoir un succès à l'étape n+1 sachant qu'il y a eu s succès entre l'étape 1 et l'étape n vaut .

Application historique

Laplace a utilisé la règle de succession pour calculer la probabilité que le soleil se lève demain, étant donné qu'il s'est levé tous les jours depuis les 5 000 dernières années. On obtient un facteur d'environ 5 000×365,25, ce qui donne une cote de 1826251:1 en faveur du lever du soleil demain.

Cependant, l'hypothèse de base pour utiliser la règle de succession serait que nous n'avons aucune connaissance préalable de la question de savoir si le soleil se lèvera ou non demain.

Démonstration

Soit p, la probabilité de succès sur chaque essai. Cette probabilité est supposée constante mais inconnue et incertaine. Nous la considérons donc comme une variable aléatoire et lui attribuons une distribution de probabilité pour exprimer notre incertitude. Soit Xi ayant la valeur 1 si l’on observe un « succès » sur le ième essai, et ayant la valeur 0 dans le cas contraire. Chaque Xi a ainsi pour valeur 0 ou 1 et suit donc une distribution de Bernoulli.

Supposons que ces Xi soient conditionnellement indépendants pour une probabilité p donnée. Nous pouvons alors utiliser le théorème de Bayes pour trouver la distribution de probabilité conditionnelle de p étant donné les données Xi (i = 1, ..., n).

Pour la mesure de la probabilité a priori de p, nous attribuons à cette v.a. une loi non informative de probabilité a priori, c'est-à-dire une distribution uniforme sur l’intervalle ouvert (0,1) ayant donc comme fonction de densité :

Pour la vraisemblance des observations , nous calculons la fonction de vraisemblance :

s = x1 + ... + xn est le nombre de succès et n est le nombre d’essais (X en majuscule désigne la variable aléatoire et x minuscule les données réellement observées).

En utilisant les deux définitions précédentes, nous pouvons alors déterminer la densité de probabilité de la distribution a posteriori :

Calculons alors la constante de normalisation :

(voir la fonction bêta pour plus d’informations sur les intégrales de cette forme).

La fonction de densité de la loi a postériori est donc :

Il s’agit d’une distribution bêta ayant pour espérance mathématique :

Ainsi on a :

Notes et références

  1. Pierre-Simon de Laplace, Essai philosophique sur les probabilités, Courcier,

Articles connexes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.