Théorème de l'espérance totale
Le théorème de l'espérance totale[1] est une proposition de la théorie des probabilités affirmant que l'espérance de l'espérance conditionnelle de X sachant Y est la même que l'espérance de X.
Précisément, si
- X est une variable aléatoire intégrable (c'est-à-dire, une variable aléatoire avec E( | X | ) < ),
- Y est une variable aléatoire quelconque (donc pas nécessairement intégrable),
- Et X et Y sont définies sur le même espace probabilisé,
on a alors le résultat suivant :
.
Propriétés
Caractérisation de l'espérance conditionnelle
L'espérance conditionnelle E( X | Y ) est elle-même une variable aléatoire, dont la valeur dépend de la valeur de Y. À noter que l'espérance conditionnelle de X sachant l'événement [Y = y] est une fonction de y. Si on note E( X | Y = y) = g(y), alors la variable aléatoire E( X | Y ) est tout simplement g(Y).
Un exemple illustratif
Supposons que deux usines fabriquent des ampoules électriques. Les ampoules de l'usine X ont une durée de vie de 5000 heures, alors que ceux de l'usine Y fonctionnent en moyenne pendant 4000 heures. On dit que l'usine X fournit 60 % de toutes les ampoules disponibles. Combien de temps peut-on espérer qu'une ampoule achetée durera ?
En utilisant le théorème de l'espérance totale, on a :
où
- est la durée de vie espérée de l'ampoule;
- est la probabilité pour que l'ampoule achetée ait été fabriquée par l'usine X;
- est la probabilité pour que l'ampoule achetée ait été fabriquée par l'usine Y;
- est la durée de vie espérée d'une ampoule fabriquée par l'usine X;
- est la durée de vie espérée d'une ampoule fabriquée par l'usine Y.
Ainsi, chaque ampoule achetée a une durée de vie espérée de 4600 heures, c'est-à-dire qu'on peut s'attendre "en moyenne" à ce qu'elle fonctionne 4600 heures.
Démonstration
Dans le cas discret
Dans le cas général
Plus formellement, l'énoncé dans le cas général fait appel à un espace probabilisé sur lequel deux sous -tribus sont définies. Pour une variable aléatoire sur un tel espace, le théorème de l'espérance totale stipule que
Puisqu'une espérance conditionnelle est une dérivée de Radon–Nikodym, il suffit de vérifier les deux propriétés suivantes pour démontrer le théorème de l'espérance totale.
- est -mesurable
La première proposition est vraie d'après la définition de l'espérance conditionnelle, et la seconde est vraie puisque implique que
Dans le cas particulier où et le théorème de l'espérance totale peut se résumer à l'énoncé suivant :
À propos de la notation sans indice
En utilisant la notation , l'ajout d'indices successifs peut rapidement mener à des lourdeurs de notation. Les indices sont donc souvent omis. Dans le cas de d'espérances en cascade (on parlera d'espérances "itérées"), signifie d'ordinaire . L'espérance la plus "à l'intérieur" est l'espérance conditionnelle de sachant , et l'espérance "à l'extérieur" est toujours déduite en fonction de . Cette convention est notamment utilisé dans l'ensemble de cet article.
Espérances itérées et ensembles conditionnés imbriqués
La formulation suivante de la loi des espérances itérées joue un rôle important dans de nombreuses modélisations en économie et en finance
où la valeur de I2 est déterminé par celle de I1.
Pour que ce résultat soit plus parlant, imaginons un investisseur qui cherche à prévoir pour une action son prix X (aléatoire), à l'aide d'informations limitées dont il dispose dans l'ensemble I1. La loi des espérances itérées dit que l'investisseur ne pourra jamais se faire une idée plus précise de la prévision de X en conditionnant X par des informations encore plus spécifiques (I2), à condition que ces prévisions plus spécifiques soient elles-mêmes conçues avec l'information initiale (I1).
Cette formulation est souvent appliquée dans un contexte de séries temporelles, où Et désigne l'espérance conditionnelle déduite de l'information observée jusqu'à l'instant t inclus. Dans des modèles typiques, l'ensemble des informations à l'instant t + 1 contient toutes les informations disponibles jusqu'à l'instant t, ainsi que des informations complémentaires révélées à l'instant t + 1. On peut alors écrire[2] :
Références
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Law of total expectation » (voir la liste des auteurs).
- Weiss, Neil A. (2005).
- Ljungqvist, Lars; Sargent, Thomas J. (2004).
- (en) Patrick Billingsley, Probability and measure, New York, John Wiley & Sons, , 608 p. (ISBN 0-471-00710-2) (Théorème 34,4)
- Christopher Sims, "Notes sur les variables aléatoires, les espérances, les densités de probabilité, et martingales", en particulier les équations (16) à (18)