Théorème des deux séries de Kolmogorov
Énoncé du théorème
Soit
une suite de variables aléatoires indépendantes d'espérance
et de variance
, tel que
et
convergent dans ℝ. Alors
converge dans ℝ presque sûrement .
Preuve
Supposons sans perte de généralité que
. Posons
. Nous allons voir que
presque sûrement
Pour chaque
,

Ainsi, pour chaque
et
,

Alors que la deuxième inégalité est due à l'inégalité de Kolmogorov .
En supposant que
converge, il s'ensuit que le dernier terme tend vers 0 lorsque
, pour chaque
.
Références
- Durrett, Rick. Probabilité: théorie et exemples. Duxbury advanced series, troisième édition, Thomson Brooks / Cole, 2005, section 1.8, pp. 60–69.
- M. Loève, Théorie des probabilités, Princeton Univ. Presse (1963) pp. Secte. 16,3
- W. Feller, Une introduction à la théorie des probabilités et ses applications, 2, Wiley (1971) pp. Secte. IX.9
Cet article est issu de
wikipedia. Text licence:
CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.