Loi de Poisson
En théorie des probabilités et en statistiques , la loi de Poisson est une loi de probabilité discrÚte qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent.
Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Loi de Poisson
Fonction de masse Les fonctions de masse ne sont définies que pour les entiers k .
Fonction de répartition Les fonctions de répartition sont discontinues en chaque entier naturel.
ParamĂštres
λ
â
]
0
,
+
â
[
{\displaystyle \lambda \in {}]0,+\infty [}
[1]
Support
N
{\displaystyle \mathbb {N} }
Fonction de masse
e
â
λ
λ
k
k
!
{\displaystyle {\frac {\mathrm {e} ^{-\lambda }\lambda ^{k}}{k!}}\!}
Fonction de répartition
Î
(
â
k
+
1
â
,
λ
)
â
k
â
!
pour
k
â„
0
{\displaystyle {\frac {\Gamma (\lfloor k+1\rfloor ,\lambda )}{\lfloor k\rfloor !}}\!{\text{ pour }}k\geq 0}
(oĂč
Î
(
x
,
y
)
{\displaystyle \Gamma (x,y)}
est la Fonction gamma incomplĂšte ) et oĂč
â
x
â
{\displaystyle \lfloor x\rfloor }
est la partie entiÚre par défaut de x
Espérance
λ
{\displaystyle \lambda \,}
MĂ©diane
environ
â
λ
+
1
/
3
â
0.02
/
λ
â
{\displaystyle {\text{environ }}\lfloor \lambda +1/3-0.02/\lambda \rfloor }
Mode
â
λ
â
{\displaystyle \lfloor \lambda \rfloor }
si
λ
{\displaystyle \lambda }
est un réel non entier,
λ
{\displaystyle \lambda }
et
λ
â
1
{\displaystyle \lambda -1}
si
λ
{\displaystyle \lambda }
est un nombre entier
Variance
λ
{\displaystyle \lambda \,}
Asymétrie
λ
â
1
/
2
{\displaystyle \lambda ^{-1/2}\,}
Kurtosis normalisé
λ
â
1
{\displaystyle \lambda ^{-1}\,}
Entropie
λ
[
1
â
log
âĄ
(
λ
)
]
+
e
â
λ
â
k
=
0
â
λ
k
log
âĄ
(
k
!
)
k
!
.
{\displaystyle \lambda [1\!-\!\log(\lambda )]\!+\!\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}\log(k!)}{k!}}.}
Pour
λ
{\displaystyle \lambda }
grand :
1
2
log
âĄ
(
2
Ï
e
λ
)
â
1
12
λ
â
1
24
λ
2
â
19
360
λ
3
+
O
(
1
λ
4
)
{\displaystyle \scriptstyle {\frac {1}{2}}\log(2\pi \mathrm {e} \lambda )-{\frac {1}{12\lambda }}-{\frac {1}{24\lambda ^{2}}}-{\frac {19}{360\lambda ^{3}}}+O\left({\frac {1}{\lambda ^{4}}}\right)}
Fonction génératrice des moments
exp
âĄ
(
λ
(
e
t
â
1
)
)
{\displaystyle \exp(\lambda (e^{t}-1))}
Fonction caractéristique
exp
âĄ
(
λ
(
e
i
t
â
1
)
)
{\displaystyle \exp(\lambda (\mathrm {e} ^{it}-1))\,}
Fonction génératrice des probabilités
exp
âĄ
(
λ
(
t
â
1
)
)
{\displaystyle \exp(\lambda (t-1))}
La loi de Poisson est également pertinente pour décrire le nombre d'événements dans d'autres types d'intervalles, spatiaux plutÎt que temporels, comme des segments, surfaces ou volumes.
Histoire
La loi de Poisson a Ă©tĂ© introduite en 1838 par Denis Poisson (1781â1840), dans son ouvrage Recherches sur la probabilitĂ© des jugements en matiĂšre criminelle et en matiĂšre civile [2] . Le sujet principal de cet ouvrage consiste en certaines variables alĂ©atoires qui dĂ©nombrent, entre autres choses, le nombre d'occurrences (parfois appelĂ©es « arrivĂ©es ») qui prennent place pendant un laps de temps donnĂ©.
DĂ©finition
Si le nombre moyen d'occurrences dans un intervalle de temps fixé est λ , alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel , k = 0, 1, 2⊠) est
p
(
k
)
=
P
(
X
=
k
)
=
λ
k
k
!
e
â
λ
{\displaystyle p(k)=\mathbb {P} (X=k)={\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }}
oĂč :
On dit alors que X suit la loi de Poisson de paramÚtre λ , noté
X
âŒ
Pois
âĄ
(
λ
)
{\displaystyle X\sim \operatorname {Pois} \left(\lambda \right)}
.
Par exemple, si un certain type d'Ă©vĂ©nements se produit en moyenne 4 fois par minute , pour Ă©tudier le nombre d'Ă©vĂ©nements se produisant dans un laps de temps de 10 minutes, on choisit comme modĂšle une loi de Poisson de paramĂštre λ = 10Ă4 = 40 .
Calcul de p (k )
Ce calcul peut se faire de maniÚre déductive en travaillant sur une loi binomiale de paramÚtres
(
T
;
λ
T
)
{\displaystyle \left(T;{\frac {\lambda }{T}}\right)}
. Pour T grand, on démontre que la loi binomiale converge vers la loi de Poisson.
Il peut aussi se faire de maniÚre inductive en étudiant sur l'intervalle [0 ; T ] les fonctions Fk (t ) , qui donnent la probabilité que l'événement se produise k fois sur l'intervalle de temps [0 ; t ] . En utilisant la récurrence et du calcul différentiel, on parvient à retrouver les formules précédentes[3] .
Propriétés
Dans toute cette section X est une variable aléatoire suivant une loi de Poisson de paramÚtre λ .
Moments ordinaires
Les quatre premiers moments ordinaires d'une loi de Poisson sont donnés par[4] :
E
[
X
]
=
λ
E
[
X
2
]
=
λ
(
1
+
λ
)
E
[
X
3
]
=
λ
(
1
+
3
λ
+
λ
2
)
E
[
X
4
]
=
λ
(
1
+
7
λ
+
6
λ
2
+
λ
3
)
{\displaystyle {\begin{array}{lll}\mathbb {E} [X]&=&\lambda \\\mathbb {E} [X^{2}]&=&\lambda (1+\lambda )\\\mathbb {E} [X^{3}]&=&\lambda (1+3\lambda +\lambda ^{2})\\\mathbb {E} [X^{4}]&=&\lambda (1+7\lambda +6\lambda ^{2}+\lambda ^{3})\end{array}}}
On en déduit la variance et l'écart type :
V
(
X
)
=
λ
Ï
(
X
)
=
λ
{\displaystyle {\begin{array}{lll}V(X)&=&\lambda \\\sigma (X)&=&{\sqrt {\lambda }}\end{array}}}
Plus généralement, le n -iÚme moment ordinaire d'une loi de Poisson de paramÚtre λ est
E
(
X
n
)
=
â
k
=
0
n
S
(
n
,
k
)
λ
k
{\displaystyle \mathbb {E} (X^{n})=\sum _{k=0}^{n}S(n,k)\lambda ^{k}}
oĂč S (n , k ) est le nombre de Stirling de seconde espĂšce de paramĂštres n et k .
En particulier lorsque λ = 1 , le n -iĂšme moment de X correspond au n -iĂšme nombre de Bell . En effet cela est une consĂ©quence de la formule de DobiĆski .
La borne suivante majore les moments d'une loi de Poisson[5] :
E
[
X
k
]
â€
[
k
ln
âĄ
(
k
/
λ
+
1
)
]
k
â€
λ
k
e
k
2
2
λ
{\displaystyle \mathbb {E} [X^{k}]\leq \left[{\frac {k}{\ln \left(k/\lambda +1\right)}}\right]^{k}\leq \lambda ^{k}e^{\frac {k^{2}}{2\lambda }}}
On a la relation de récurrence[6] :
E
[
X
n
]
=
λ
E
[
X
n
â
1
]
+
λ
â
E
[
X
n
â
1
]
â
λ
{\displaystyle \mathbb {E} [X^{n}]=\lambda \mathbb {E} [X^{n-1}]+\lambda {\frac {\partial \mathbb {E} [X^{n-1}]}{\partial \lambda }}}
Moments centrés
Les quatre premiers moments centrés d'une loi de Poisson sont donnés par[4] - [6] :
E
[
(
X
â
λ
)
2
]
=
λ
E
[
(
X
â
λ
)
3
]
=
λ
E
[
(
X
â
λ
)
4
]
=
λ
(
1
+
3
λ
)
E
[
(
X
â
λ
)
5
]
=
λ
(
1
+
10
λ
)
{\displaystyle {\begin{array}{lll}\mathbb {E} [(X-\lambda )^{2}]&=&\lambda \\\mathbb {E} [(X-\lambda )^{3}]&=&\lambda \\\mathbb {E} [(X-\lambda )^{4}]&=&\lambda (1+3\lambda )\\\mathbb {E} [(X-\lambda )^{5}]&=&\lambda (1+10\lambda )\end{array}}}
On en déduit l'asymétrie et le kurtosis normalisé :
Îł
1
(
X
)
=
1
/
λ
Îł
2
(
X
)
=
1
/
λ
{\displaystyle {\begin{array}{lll}\gamma _{1}(X)&=&1/{\sqrt {\lambda }}\\\gamma _{2}(X)&=&1/\lambda \end{array}}}
On a la relation de récurrence[6] :
E
[
(
X
â
λ
)
n
+
1
]
=
n
λ
E
[
(
X
â
λ
)
n
â
1
]
+
λ
â
E
[
(
X
â
λ
)
n
]
â
λ
{\displaystyle \mathbb {E} [(X-\lambda )^{n+1}]=n\lambda \mathbb {E} [(X-\lambda )^{n-1}]+\lambda {\frac {\partial \mathbb {E} [(X-\lambda )^{n}]}{\partial \lambda }}}
Moments factoriels
Le r -iĂšme moment factoriel d'une loi de Poisson est
E
(
(
X
)
r
)
=
λ
r
{\displaystyle \mathbb {E} ((X)_{r})=\lambda ^{r}}
oĂč
(
x
)
r
=
x
(
x
â
1
)
âŠ
(
x
â
r
+
1
)
{\displaystyle (x)_{r}=x(x-1)\dots (x-r+1)}
désigne la factorielle décroissante .
Fonction génératrice des probabilités
La fonction génératrice des probabilités d'une loi de Poisson est
G
X
(
t
)
âĄ
E
(
t
X
)
=
e
λ
(
t
â
1
)
.
{\displaystyle G_{X}(t)\equiv \mathbb {E} (t^{X})=\mathrm {e} ^{\lambda (t-1)}.}
Fonction génératrice des moments
La fonction génératrice des moments d'une loi de Poisson est
M
X
(
t
)
âĄ
E
(
e
t
X
)
=
exp
âĄ
(
λ
(
e
t
â
1
)
)
.
{\displaystyle M_{X}(t)\equiv \mathbb {E} (\mathrm {e} ^{tX})=\exp \left(\lambda (\mathrm {e} ^{t}-1)\right).}
DĂ©monstration
Soit X une variable aléatoire suivant une loi de poisson de paramÚtre λ . On rappelle que par définition
P
(
X
=
k
)
=
e
â
λ
λ
k
k
!
{\displaystyle \mathbb {P} (X=k)=\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}}
.
Espérance
E
(
X
)
=
â
k
=
1
â
k
P
(
X
=
k
)
=
â
k
=
1
â
k
e
â
λ
λ
k
k
!
=
e
â
λ
â
k
=
1
â
λ
k
(
k
â
1
)
!
=
λ
e
â
λ
â
k
=
1
â
λ
k
â
1
(
k
â
1
)
!
(
on reconnaßt le développement en série entiÚre de
e
λ
)
=
λ
e
â
λ
e
λ
=
λ
.
{\displaystyle {\begin{aligned}\mathbb {E} (X)&=\sum _{k=1}^{\infty }k\,\mathbb {P} (X=k)\\&=\sum _{k=1}^{\infty }k\,\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\,\sum _{k=1}^{\infty }{\frac {\lambda ^{k}}{(k-1)!}}\\&=\lambda \,\mathrm {e} ^{-\lambda }\,\sum _{k=1}^{\infty }{\frac {\lambda ^{k-1}}{(k-1)!}}\qquad ({\text{on reconnaßt le développement en série entiÚre de }}\mathrm {e} ^{\lambda })\\&=\lambda \,\mathrm {e} ^{-\lambda }\,\mathrm {e} ^{\lambda }\\&=\lambda .\end{aligned}}}
Variance
V
(
X
)
=
E
(
X
2
)
â
(
E
(
X
)
)
2
=
â
k
=
1
â
k
2
P
(
X
=
k
)
â
λ
2
=
â
k
=
1
â
k
2
e
â
λ
λ
k
k
!
â
λ
2
=
λ
e
â
λ
â
k
=
1
â
k
λ
k
â
1
(
k
â
1
)
!
â
λ
2
=
λ
e
â
λ
â
k
=
1
â
d
d
λ
λ
k
(
k
â
1
)
!
â
λ
2
(
la série entiÚre ayant un rayon de convergence infini,
=
λ
e
â
λ
d
d
λ
â
k
=
1
â
λ
k
(
k
â
1
)
!
â
λ
2
on peut inverser la sommation et la dérivation
)
=
λ
e
â
λ
d
d
λ
[
λ
â
k
=
1
â
λ
k
â
1
(
k
â
1
)
!
]
â
λ
2
(
on reconnaßt le développement en série entiÚre de
e
λ
)
=
λ
e
â
λ
d
d
λ
[
λ
e
λ
]
â
λ
2
=
λ
e
â
λ
(
λ
+
1
)
e
λ
â
λ
2
=
λ
(
λ
+
1
)
â
λ
2
=
λ
.
{\displaystyle {\begin{aligned}V(X)&=\mathbb {E} (X^{2})-(\mathbb {E} (X))^{2}&\\&=\sum _{k=1}^{\infty }k^{2}\,\mathbb {P} (X=k)-\lambda ^{2}&\\&=\sum _{k=1}^{\infty }k^{2}\,\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }\sum _{k=1}^{\infty }\,{\frac {k\lambda ^{k-1}}{(k-1)!}}-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }\sum _{k=1}^{\infty }\,{\frac {d}{d\lambda }}{\frac {\lambda ^{k}}{(k-1)!}}-\lambda ^{2}&\qquad ({\text{la série entiÚre ayant un rayon de convergence infini,}}\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}\sum _{k=1}^{\infty }\,{\frac {\lambda ^{k}}{(k-1)!}}-\lambda ^{2}&\qquad {\text{on peut inverser la sommation et la dérivation}})\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}\left[\lambda \sum _{k=1}^{\infty }\,{\frac {\lambda ^{k-1}}{(k-1)!}}\right]-\lambda ^{2}&\qquad ({\text{on reconnaßt le développement en série entiÚre de }}\mathrm {e} ^{\lambda })\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}[\lambda \,\mathrm {e} ^{\lambda }]-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }(\lambda +1)\,\mathrm {e} ^{\lambda }-\lambda ^{2}&\\&=\lambda \,(\lambda +1)-\lambda ^{2}&\\&=\lambda .&\end{aligned}}}
Fonction génératrice
On rappelle que la fonction génératrice de X est définie par
G
X
(
t
)
=
E
(
t
X
)
{\displaystyle G_{X}(t)=\mathbb {E} (t^{X})}
. Ainsi on obtient :
E
(
t
X
)
=
â
k
=
0
â
t
k
P
(
X
=
k
)
=
â
k
=
0
â
t
k
e
â
λ
λ
k
k
!
=
e
â
λ
â
k
=
0
â
t
k
λ
k
k
!
=
e
â
λ
â
k
=
0
â
(
t
λ
)
k
k
!
(
on reconnaßt le développement en série entiÚre de
e
t
λ
)
=
e
â
λ
e
t
λ
=
e
λ
(
t
â
1
)
.
{\displaystyle {\begin{aligned}\mathbb {E} (t^{X})&=\sum _{k=0}^{\infty }t^{k}\mathbb {P} (X=k)\\&=\sum _{k=0}^{\infty }t^{k}\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }t^{k}{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {(t\lambda )^{k}}{k!}}\qquad ({\text{on reconnaßt le développement en série entiÚre de }}\mathrm {e} ^{t\lambda })\\&=\mathrm {e} ^{-\lambda }\mathrm {e} ^{t\lambda }\\&=\mathrm {e} ^{\lambda (t-1)}.\end{aligned}}}
Fonction génératrice des moments
On rappelle que la fonction génératrice des moments de X est définie par
M
X
(
t
)
=
E
(
e
t
X
)
{\displaystyle M_{X}(t)=\mathbb {E} (\mathrm {e} ^{tX})}
. Ainsi on obtient :
M
X
(
t
)
=
â
k
=
0
â
e
t
k
P
(
X
=
k
)
=
â
k
=
0
â
e
t
k
λ
k
k
!
e
â
λ
=
e
â
λ
â
k
=
0
â
(
λ
e
t
)
k
k
!
(
on reconnaßt le développement en série entiÚre de
e
x
évalué en
x
=
λ
e
t
)
=
e
â
λ
e
λ
e
t
=
e
λ
(
e
t
â
1
)
.
{\displaystyle {\begin{aligned}M_{X}(t)&=\sum _{k=0}^{\infty }\mathrm {e} ^{tk}\mathbb {P} (X=k)\\&=\sum _{k=0}^{\infty }\mathrm {e} ^{tk}{\frac {\lambda ^{k}}{k!}}\,\mathrm {e} ^{-\lambda }\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {(\lambda \,\mathrm {e} ^{t})^{k}}{k!}}\qquad ({\text{on reconnaßt le développement en série entiÚre de }}\mathrm {e} ^{x}{\text{ évalué en }}x=\lambda \mathrm {e} ^{t})\\&=\mathrm {e} ^{-\lambda }\mathrm {e} ^{\lambda \,\mathrm {e} ^{t}}\\&=\mathrm {e} ^{\lambda (\mathrm {e} ^{t}-1)}.\end{aligned}}}
Moments factoriels
E
(
(
X
)
r
)
=
e
â
λ
â
k
=
r
â
k
!
(
k
â
r
)
!
λ
k
k
!
=
λ
r
e
â
λ
â
k
=
r
â
λ
k
â
r
(
k
â
r
)
!
=
λ
r
e
â
λ
â
k
=
0
â
λ
k
k
!
=
λ
r
.
{\displaystyle {\begin{aligned}\mathbb {E} ((X)_{r})&=\mathrm {e} ^{-\lambda }\sum _{k=r}^{\infty }{\frac {k!}{(k-r)!}}{\frac {\lambda ^{k}}{k!}}\\&=\lambda ^{r}\mathrm {e} ^{-\lambda }\sum _{k=r}^{\infty }{\frac {\lambda ^{k-r}}{(k-r)!}}\\&=\lambda ^{r}\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}\\&=\lambda ^{r}.\end{aligned}}}
Moments
Les nombres de Stirling de seconde espÚce vérifient la relation
X
n
=
â
k
=
0
n
S
(
n
,
k
)
(
X
)
k
{\displaystyle X^{n}=\sum _{k=0}^{n}S(n,k)(X)_{k}}
.
Ainsi, en utilisant la formule des moments factoriels d'une loi de Poisson ainsi que la linéarité de l'espérance on conclut que
E
(
X
n
)
=
â
k
=
0
n
S
(
n
,
k
)
λ
k
{\displaystyle \mathbb {E} (X^{n})=\sum _{k=0}^{n}S(n,k)\lambda ^{k}}
.
Diagramme en bĂąton
Comme toute loi de probabilitĂ© discrĂšte , une loi de Poisson peut ĂȘtre reprĂ©sentĂ©e par un diagramme en bĂątons. Ci-dessous sont reprĂ©sentĂ©s les diagrammes en bĂątons des lois de Poisson de paramĂštres 1, 2 et 5.
Lorsque le paramÚtre λ de la loi de Poisson devient grand, (pratiquement lorsqu'il est supérieur à 5), son diagramme en bùton est correctement approché par l'histogramme d'une loi normale d'espérance et de variance égales à λ (l'intervalle de classe étant égal à l'unité). Cette convergence était mise à profit, avant que les moyens informatiques ne se généralisent, pour utiliser la loi normale en lieu et place de la loi de Poisson dans certains tests.
Stabilité de la loi de Poisson par la somme
Si les variables {Xi }i =1,...,n sont indépendantes et suivent une loi de Poisson de paramÚtres respectifs λi , alors leur somme suit une loi de Poisson de paramÚtre la somme des λi :
Y
=
(
â
i
=
1
n
X
i
)
âŒ
Pois
âĄ
(
â
i
=
1
n
λ
i
)
{\displaystyle Y=\left(\sum _{i=1}^{n}X_{i}\right)\sim \operatorname {Pois} \left(\sum _{i=1}^{n}\lambda _{i}\right)}
DĂ©monstration
On montre le cas n = 2 , les cas supérieurs se déduisent par récurrence.
On rappelle que
P
(
X
1
=
n
)
=
λ
1
n
n
!
e
â
λ
1
et
P
(
X
2
=
n
)
=
λ
2
n
n
!
e
â
λ
2
.
{\displaystyle \mathbb {P} (X_{1}=n)={\frac {{\lambda _{1}}^{n}}{n!}}\mathrm {e} ^{-\lambda _{1}}{\text{ et }}\mathbb {P} (X_{2}=n)={\frac {{\lambda _{2}}^{n}}{n!}}\mathrm {e} ^{-{\lambda _{2}}}.}
On a alors
P
(
X
+
Y
=
n
)
=
â
k
=
0
n
P
(
{
X
1
=
k
}
â©
{
X
2
=
n
â
k
}
)
=
â
k
=
0
n
P
(
X
1
=
k
)
P
(
X
2
=
n
â
k
)
=
â
k
=
0
n
λ
1
k
k
!
e
â
λ
1
â
λ
2
n
â
k
(
n
â
k
)
!
e
â
λ
2
=
e
â
λ
1
e
â
λ
2
n
!
â
k
=
0
n
n
!
k
!
(
n
â
k
)
!
λ
1
k
λ
2
n
â
k
=
e
â
(
λ
1
+
λ
2
)
n
!
(
λ
1
+
λ
2
)
n
{\displaystyle {\begin{aligned}\mathbb {P} (X+Y=n)&=\sum _{k=0}^{n}\mathbb {P} (\{X_{1}=k\}\cap \{X_{2}=n-k\})=\sum _{k=0}^{n}\mathbb {P} (X_{1}=k)\mathbb {P} (X_{2}=n-k)\\&=\sum _{k=0}^{n}{\frac {\lambda _{1}^{k}}{k!}}\mathrm {e} ^{-\lambda _{1}}\cdot {\frac {\lambda _{2}^{n-k}}{(n-k)!}}\mathrm {e} ^{-\lambda _{2}}\\&={\frac {\mathrm {e} ^{-\lambda _{1}}\mathrm {e} ^{-\lambda _{2}}}{n!}}\sum _{k=0}^{n}{\frac {n!}{k!(n-k)!}}\lambda _{1}^{k}\lambda _{2}^{n-k}={\frac {\mathrm {e} ^{-(\lambda _{1}+\lambda _{2})}}{n!}}(\lambda _{1}+\lambda _{2})^{n}\end{aligned}}}
L'indépendance a été utilisée à la 2e égalité. La derniÚre égalité est obtenue via la formule du binÎme de Newton .
Bornes de queue
Un argument de type borne de Chernoff permet de déduire les bornes de queue suivantes[7]
P
(
X
â„
x
)
â€
e
â
λ
(
e
λ
)
x
x
x
{\displaystyle \mathbb {P} (X\geq x)\leq {\frac {\mathrm {e} ^{-\lambda }(\mathrm {e} \lambda )^{x}}{x^{x}}}}
pour tout x > λ et
P
(
X
â€
x
)
â€
e
â
λ
(
e
λ
)
x
x
x
{\displaystyle \mathbb {P} (X\leq x)\leq {\frac {\mathrm {e} ^{-\lambda }(\mathrm {e} \lambda )^{x}}{x^{x}}}}
pour tout x < λ .
Ces bornes peuvent se réécrire de la maniÚre suivante[8]
P
(
X
â„
x
+
λ
)
â€
e
â
x
2
2
λ
h
(
x
λ
)
{\displaystyle \mathbb {P} (X\geq x+\lambda )\leq \mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}}
pour tout x > 0 et
P
(
X
â€
â
x
+
λ
)
â€
e
â
x
2
2
λ
h
(
â
x
λ
)
{\displaystyle \mathbb {P} (X\leq -x+\lambda )\leq \mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left(-{\frac {x}{\lambda }}\right)}}
pour tout λ > x > 0
oĂč
h
(
u
)
:=
2
(
1
+
u
)
ln
âĄ
(
1
+
u
)
â
u
u
2
{\displaystyle h(u):=2{\frac {(1+u)\ln(1+u)-u}{u^{2}}}}
pour tout
u
â„
â
1
{\displaystyle u\geq -1}
. Ces derniÚres bornes impliquent en particulier la borne suivante[8] (qui est plus faible mais plus agréable à manipuler)
P
(
|
X
â
λ
|
â„
x
)
â€
2
e
â
x
2
2
(
λ
+
x
)
{\displaystyle \mathbb {P} (|X-\lambda |\geq x)\leq 2\mathrm {e} ^{-{\frac {x^{2}}{2(\lambda +x)}}}}
.
La borne supĂ©rieure donnĂ©e par Chernoff peut ĂȘtre amĂ©liorĂ©e d'un facteur 2 au moins[9]
P
(
X
â„
x
+
λ
)
â€
e
â
x
2
2
λ
h
(
x
λ
)
max
{
2
,
2
Ï
x
2
λ
h
(
x
λ
)
}
{\displaystyle \mathbb {P} (X\geq x+\lambda )\leq {\frac {\mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}}{\max \left\{2,{\sqrt {{\frac {2\pi x^{2}}{\lambda }}h\left({\frac {x}{\lambda }}\right)}}\right\}}}}
pour tout x > 0 .
Il est à noter que la fonction h est liée à la divergence de Kullback-Leibler entre une loi de Poisson de paramÚtre x + λ et une loi de Poisson de paramÚtre λ . En effet on a la relation
D
K
L
(
x
+
λ
|
|
λ
)
=
(
x
+
λ
)
ln
âĄ
(
x
λ
+
1
)
â
x
=
x
2
2
λ
h
(
x
λ
)
{\displaystyle D_{KL}(x+\lambda ||\lambda )=(x+\lambda )\ln \left({\frac {x}{\lambda }}+1\right)-x={\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}
.
Simulation
Un algorithme simple pour simuler la loi de Poisson consiste à utiliser le résultat suivant :
ThĂ©orĂšme â Soit (Ei )i â„ 1 une suite de variables alĂ©atoires indĂ©pendantes et de mĂȘme loi exponentielle de paramĂštre λ . On pose S 1 = E 1 et pour n â„ 2 , Sn = E 1 + ... + En . On a alors :
â
n
â©Ÿ
1
,
P
(
S
n
⩜
1
<
S
n
+
1
)
=
e
â
λ
λ
n
n
!
.
{\displaystyle \forall n\geqslant 1,\ \mathbb {P} (S_{n}\leqslant 1<S_{n+1})={\frac {\mathrm {e} ^{-\lambda }\lambda ^{n}}{n!}}.}
La méthode de la transformée inverse permet de donner une façon simple de générer un tirage aléatoire suivant une loi exponentielle :
Si U suit une loi uniforme sur [0 ; 1] , alors E = â1 / λ ln(U ) suit une loi exponentielle de paramĂštre λ .
En générant les
E
i
{\displaystyle E_{i}}
par l'intermédiaire de variables aléatoires
U
i
âŒ
U
[
0
,
1
]
{\displaystyle U_{i}\sim {\mathcal {U}}[0,1]}
, On a ainsi
S
n
=
â
1
λ
ln
âĄ
(
â
i
n
U
i
)
{\displaystyle S_{n}=-{\frac {1}{\lambda }}\ln(\prod _{i}^{n}U_{i})}
et, en notant
P
n
:=
â
i
=
1
n
U
i
,
n
â„
1
{\displaystyle P_{n}:=\prod _{i=1}^{n}U_{i},n\geq 1}
:
S
n
â€
1
<
S
n
+
1
â
P
n
â„
e
â
λ
>
P
n
+
1
â
n
â
N
â
{\displaystyle S_{n}\leq 1<S_{n+1}\Leftrightarrow P_{n}\geq e^{-\lambda }>P_{n+1}\;\forall n\in \mathbb {N} ^{*}}
.
L'algorithme peut ainsi se simplifier en :
k â 0 , p â 1
tant que p > eâλ
on tire u selon un tirage aléatoire uniforme sur [0 ; 1]
p â p Ău
k â k +1
on renvoie k â 1
Estimation du paramÚtre λ
L'estimateur par maximum de vraisemblance du paramÚtre λ d'un échantillon issu d'une loi de Poisson est la moyenne empirique . C'est un estimateur convergent, sans biais , efficace , complet (en) , exhaustif .
Lien avec d'autres lois de probabilités
Si X et Y sont deux variables alĂ©atoires indĂ©pendantes qui suivent des lois de Poisson de paramĂštres respectifs λ et ÎŒ , alors X â Y est une variable alĂ©atoire qui suit une loi de Skellam de paramĂštres (λ,ÎŒ ) .
Si X et Y sont deux variables alĂ©atoires indĂ©pendantes qui suivent des lois de Poisson de paramĂštres λ et ÎŒ , alors la loi conditionnelle de X sachant X + Y est une loi binomiale .
Pour de grandes valeurs de λ , on peut approcher la loi de Poisson par la loi normale de moyenne λ et de variance λ .
Le décompte des événements rares se fait souvent au travers d'une somme de variables de Bernoulli , la rareté des événements se traduisant par le fait que les paramÚtres de ces variables de Bernoulli sont petits (ainsi, la probabilité que chaque événement survienne est faible). Le lien entre la loi de Poisson et les événements rares peut alors s'énoncer ainsi :
Paradigme de Poisson â La somme Sn d'un grand nombre de variables de Bernoulli indĂ©pendantes de petit paramĂštre suit approximativement la loi de Poisson de paramĂštre
E
[
S
n
]
.
{\displaystyle \mathbb {E} [S_{n}].\ }
L'inégalité de Le Cam précise le paradigme de Poisson : soit
X
1
,
n
,
X
2
,
n
,
âŠ
,
X
a
n
,
n
{\displaystyle X_{1,n},X_{2,n},\dots ,X_{a_{n},n}\ }
un tableau de variables aléatoires de Bernoulli indépendantes , avec paramÚtres respectifs p k ,n . On note
S
n
=
â
k
=
1
a
n
X
k
,
n
et
λ
n
=
E
[
S
n
]
=
â
k
=
1
a
n
p
k
,
n
.
{\displaystyle S_{n}=\sum _{k=1}^{a_{n}}\,X_{k,n}\quad {\text{et}}\quad \lambda _{n}\ =\ \mathbb {E} [S_{n}]=\sum _{k=1}^{a_{n}}\,p_{k,n}.\ }
InĂ©galitĂ© de Le Cam [10] â Pour tout ensemble
A d'entiers naturels,
|
P
(
S
n
â
A
)
â
â
k
â
A
λ
n
k
e
â
λ
n
k
!
|
â€
â
k
=
1
a
n
p
k
,
n
2
.
{\displaystyle \left|\mathbb {P} \left(S_{n}\in A\right)-\sum _{k\in A}\,{\frac {\lambda _{n}^{k}\,\mathrm {e} ^{-\lambda _{n}}}{k!}}\right|\ \leq \ \sum _{k=1}^{a_{n}}\,p_{k,n}^{2}.}
En particulier, si les deux conditions suivantes sont réunies :
lim
n
λ
n
=
λ
>
0
,
{\displaystyle \lim _{n}\lambda _{n}\,=\,\lambda >0,\ }
lim
n
â
k
=
1
a
n
p
k
,
n
2
=
0
,
{\displaystyle \lim _{n}\sum _{k=1}^{a_{n}}\,p_{k,n}^{2}\,=\,0,\ }
alors Sn converge en loi vers la loi de Poisson de paramÚtre λ.
Dans l'énoncé du paradigme de Poisson , on fait deux hypothÚses (vagues) sur les termes d'une somme Sn de variables de Bernoulli :
les paramĂštres des variables de Bernoulli sont petits ; or les deux conditions ci-dessus entraĂźnent que
lim
n
(
max
1
â€
k
â€
a
n
p
k
,
n
)
=
0
,
{\displaystyle \lim _{n}\,\left(\max _{1\leq k\leq a_{n}}\,p_{k,n}\right)\,=\,0,\ }
ce qui reformule l'hypothÚse « les paramÚtres des variables de Bernoulli sont petits » de maniÚre plus précise ;
il y a un grand nombre de termes ; or les deux conditions ci-dessus entrainent que le nombre de termes tend vers l'infini :
lim
n
a
n
=
+
â
.
{\displaystyle \lim _{n}a_{n}\,=\,+\infty .\ }
Remarques :
Ce paradigme reste pertinent, dans certaines conditions, si l'on relaxe l'hypothÚse d'indépendance [11] .
Le cas particulier an =n , pk,n =λ/n , λn =λ , de l'inégalité de Le Cam, précise la rapidité de convergence de la loi binomiale de paramÚtres n et λ/n vers la loi de Poisson de paramÚtre λ .
Domaines d'application
Le domaine d'application de la loi de Poisson a été longtemps limité à celui des événements rares comme les suicides d'enfants, les arrivées de bateaux dans un port ou les accidents dus aux coups de pied de cheval dans les armées (étude de Ladislaus Bortkiewicz [12] ).
Mais, depuis la fin du XX e siĂšcle , son champ d'application s'est considĂ©rablement Ă©largi. On l'utilise beaucoup dans les tĂ©lĂ©communications (pour compter le nombre de communications dans un intervalle de temps donnĂ©), le contrĂŽle de qualitĂ© statistique (nombre de dĂ©fauts en SPC ), la description de certains phĂ©nomĂšnes liĂ©s Ă la dĂ©sintĂ©gration radioactive (la dĂ©sintĂ©gration des noyaux radioactifs suivant, par ailleurs, une loi exponentielle de paramĂštre notĂ© aussi lambda), la biologie (mutations dans l'expĂ©rience de Luria et DelbrĂŒck , nombre de potentiels d'actions Ă©mis par un neurone en neurosciences), la mĂ©tĂ©orologie , la finance pour modĂ©liser la probabilitĂ© de dĂ©faut d'un crĂ©dit, le Yield Management (American Airlines, Lufthansa et SAS pour estimer la demande de passagers), etc.
La loi de Poisson est Ă©galement utilisable dans le cadre sportif. Elle peut ĂȘtre utilisĂ© afin d'effectuer des prĂ©diction statistiques sur le nombre de buts inscrits lors d'un match. Les probabilitĂ©s issues de ce modĂšle permettent aux bookmakers de dĂ©finir leurs cĂŽtes.
En littérature
Dans le roman de Thomas Pynchon , L'Arc-en-ciel de la gravité , un des personnages, le statisticien Roger Mexico, utilise la loi de Poisson pour cartographier les zones d'impact des fusées allemandes V2 sur la ville de Londres durant la Seconde Guerre mondiale .
Notes et références
Avec les conventions habituelles 0! = 1 et 00 = 1 , la dĂ©finition de la loi de Poisson s'Ă©tend à λ = 0 : on trouve alors p (0) = 1 et, dĂšs que k > 0 , p (k ) = 0 . Ainsi une variable alĂ©atoire nulle presque sĂ»rement peut ĂȘtre vue comme suivant la loi de Poisson de paramĂštre 0. Cette convention est cohĂ©rente avec les propriĂ©tĂ©s essentielles de la loi de Poisson de paramĂštre strictement positif. Elle est commode, voire indispensable, par exemple lors de l'Ă©tude des processus ponctuels de Poisson. SimĂ©on-Denis Poisson, Recherches sur la probabilitĂ© des jugements en matiĂšre criminelle et en matiĂšre civile ; prĂ©cĂ©dĂ©es des RĂšgles gĂ©nĂ©rales du calcul des probabilitĂ©s sur Gallica , 1837, passage 81, p. 205. Voir par exemple, Michel Henry, Autour de la modĂ©lisation en probabilitĂ©s , Presses universitaires de Franche-ComtĂ©, 2001 (prĂ©sentation en ligne ) , p. 229-231 ou encore ces notes de cours . (en) Eric W Weisstein, « Poisson Distribution » , sur mathworld.wolfram.com (en) D Ahle Thomas, « Sharp and Simple Bounds for the raw Moments of the Binomial and Poisson Distributions » , arXiv ,â 2021 (arXiv 2103.17027 , lire en ligne ) (en) Norman L Johnson, Adrienne W Kemp et Samuel Kotz, Univariate Discrete Distributions , Wiley, 2005 , 3e Ă©d. (ISBN 978-0-471-27246-5 , lire en ligne ) , p. 162 (en) Michael Mitzenmacher et Eli Upfal , Probability and Computing: Randomized Algorithms and Probabilistic Analysis , Cambridge UK, Cambridge University Press, 2005 (ISBN 978-0-521-83540-4 , lire en ligne ) , p. 97 (en) « A short note on Poisson tail bounds » (en) Michael Short, « Improved Inequalities for the Poisson and Binomial Distribution and Upper Tail Quantile Functions » , International Scholarly Research Notices , vol. 2013,â 2013 (DOI https: //doi.org/10.1155/2013/412958 , lire en ligne ) (en) L. Le Cam , « An Approximation Theorem for the Poisson Binomial Distribution » , Pacific Journal of Mathematics , vol. 10, no 4,â 1960 , p. 1181â1197 (lire en ligne , consultĂ© le 13 mai 2009 ) . (en) A. D. Barbour , L. Holst et S. Janson , Poisson approximation , Oxford, The Clarendon Press Oxford University Press, 1992 , 277 p. (ISBN 0-19-852235-5 ) . Ladislaus Bortkiewicz, Das Gesetz der kleinen Zahlen , 1898 (lire en ligne ) , p. 23 .
Voir aussi
Articles connexes
Lien externe
Cet article est issu de
wikipedia . Text licence:
CC BY-SA 4.0 , Des conditions supplĂ©mentaires peuvent sâappliquer aux fichiers multimĂ©dias.