Variance (mathématiques)
En statistique et en théorie des probabilités, la variance est une mesure de la dispersion des valeurs d'un échantillon ou d'une variable aléatoire. Elle exprime la moyenne des carrés des écarts à la moyenne, aussi égale à la différence entre la moyenne des carrés des valeurs de la variable et le carré de la moyenne, selon le théorÚme de König-Huygens. Ainsi, plus l'écart à la moyenne est grand plus il est prépondérant dans le calcul total (voir la fonction carré) de la variance qui donnerait donc une bonne idée sur la dispersion des valeurs.
La variance est toujours positive, et ne sâannule que sâil nây a essentiellement quâune seule valeur. Sa racine carrĂ©e dĂ©finit lâĂ©cart type Ï, dâoĂč la notation .
La variance est quadratique et invariante par translation. Elle peut ĂȘtre estimĂ©e Ă lâaide dâun Ă©chantillon et de la moyenne empirique ou de lâespĂ©rance si celle-ci est connue.
La variance apparait comme un cas particulier de covariance. Elle se généralise aussi pour des vecteurs aléatoires.
Pour une série statistique
Formules
Ătant donnĂ© une sĂ©rie statistique dâune variable rĂ©elle (x1, x2, ..., xn), dont on a calculĂ© la moyenne , la variance est la moyenne des carrĂ©s des Ă©carts Ă cette moyenne :
- .
Un développement du carré mÚne à la reformulation suivante[1] :
- ,
autrement dit la variance est la différence entre la moyenne des carrés et le carré de la moyenne.
Quand la série prend les valeurs x1, x2, ..., xn avec les fréquences f1, f2, ..., fn, sa variance est :
La variance est un indicateur de dispersion des valeurs, câest-Ă -dire quâelle est toujours positive, ne sâannule que pour une sĂ©rie statistique dont tous les termes ont la mĂȘme valeur, elle est dâautant plus grande que les valeurs sont Ă©talĂ©es, et invariante par ajout dâune constante. Son calcul peut sembler plus compliquĂ© que celui dâautres indicateurs de dispersion, comme lâĂ©cart interquartile ou lâĂ©cart absolu moyen, mais contrairement Ă ces derniers, elle est cumulative : si on rassemble k sĂ©ries statistiques en une seule, la variance globale peut ĂȘtre calculĂ©e Ă partir de lâeffectif ni, la variance Vi et la moyenne de chaque sĂ©rie initiale par la formule
oĂč est lâeffectif total et , est la moyenne globale. Autrement dit, la variance globale est la somme de la variance des moyennes et de la moyenne des variances, mĂȘme si cette deuxiĂšme composante est souvent nĂ©gligĂ©e.
Transformation affine
Si on applique une fonction affine aux termes dâune sĂ©rie statistique (x1, x2, ..., xn), la variance est multipliĂ©e par a2. Autrement dit, la variance est homogĂšne de degrĂ© 2 et invariante par translation.
Calcul itératif
Le calcul effectif de la variance pour une série statistique ne repose pas sur la traduction directe des formules ci-dessus, sauf pour le calcul à la main sur de petites séries. On utilise plutÎt un algorithme itératif qui améliore la précision[alpha 1] :
c = 0 s = x1 pour j de 2 Ă n s = s+xj c = c+(j xj â s)2/(j(jâ1)) renvoyer c/n
Pour une variable aléatoire réelle
Expression
Ătant donnĂ© une variable alĂ©atoire rĂ©elle X admettant une espĂ©rance , la variance[alpha 2] est le moment centrĂ© dâordre 2 : . La formule de Koenig-Huygens donne lâexpression Ă©quivalente .
Ces deux formules nâont de sens que si existe[2], autrement dit si la variable admet un moment dâordre 2. Cela est toujours le cas pour une variable alĂ©atoire bornĂ©e, et en particulier pour une variable alĂ©atoire qui nâa quâun nombre fini de valeurs possibles. Mais pour une variable alĂ©atoire non bornĂ©e, lâexistence de lâespĂ©rance et du moment dâordre 2 dĂ©pendent de la convergence dâune sĂ©rie ou dâune intĂ©grale. Ainsi, une loi de Pareto nâadmet une espĂ©rance que si son paramĂštre k est strictement supĂ©rieur Ă 1, et nâadmet une variance que si k > 2.
Pour une variable alĂ©atoire nâadmettant quâun nombre fini de valeurs notĂ©es (x1, ... , xk), et en notant (p1, ... , pk) les probabilitĂ©s associĂ©es, on retrouve lâexpression de la variance
Pour une variable alĂ©atoire discrĂšte avec un nombre infini de valeurs, on reprend la mĂȘme formule en remplaçant la somme par une sĂ©rie[3].
Dans le cas dâune variable alĂ©atoire Ă densitĂ©, la variance est dĂ©finie par :
oĂč f est la densitĂ© de probabilitĂ© et ÎŒ est l'espĂ©rance mathĂ©matique de la variable alĂ©atoire X
La variance d'une variable aléatoire continue X peut aussi se calculer de la façon suivante :
Transformation affine
Comme pour une sĂ©rie statistique, lâeffet dâune transformation affine sur une variable alĂ©atoire affecte celle-ci par la formule[4] - [alpha 3] : .
Combinaison linéaire
Si deux variables alĂ©atoires X et Y admettent une variance, alors leur somme aussi et elle sâĂ©crit[alpha 4] , oĂč est la covariance. La relation sâĂ©tend Ă toute combinaison linĂ©aire de variables admettant une variance[alpha 5] :
Somme de variables indépendantes
Si X et Y sont deux variables indĂ©pendantes, leur covariance est nulle donc on trouve mais la rĂ©ciproque est fausse[alpha 4]. Cette relation ne doit pas ĂȘtre confondue avec la linĂ©aritĂ© satisfaite par lâespĂ©rance. En particulier et plus gĂ©nĂ©ralement .
Plus gĂ©nĂ©ralement, la variance dâune somme de variables indĂ©pendantes est Ă©gale Ă la somme des variances. Ce rĂ©sultat implique que pour un Ă©chantillon de n variables de mĂȘme variance Ï2, la variance de la moyenne empirique sâĂ©crit[5] - [alpha 6] .
Estimation
Estimateur ponctuel
Ă partir dâun Ă©chantillon de variables alĂ©atoires rĂ©elles (X1, ... , Xn) indĂ©pendantes et relevant dâune mĂȘme loi de probabilitĂ©, la variance Ï2 de cette loi peut ĂȘtre estimĂ©e Ă lâaide de la variance empirique[alpha 7]
oĂč est la moyenne empirique.
Cet estimateur est cependant biaisé, car .
Si n > 1, on dĂ©finit alors un estimateur non biaisĂ© par linĂ©aritĂ© de lâespĂ©rance.
Pour estimer la variance d'une population entiĂšre Ă partir de celle mesurĂ©e sur un Ă©chantillon de taille n, la variance estimĂ©e est obtenue en multipliant la variance mesurĂ©e sur l'Ă©chantillon par nn â 1. Dans le cas (plus rare en pratique) d'un tirage sans remise dans une population de taille N, il faut utiliser l'estimateur[6] . Dans le cas oĂč lâespĂ©rance ÎŒ des variables de lâĂ©chantillon est connue, lâestimateur direct est dĂ©jĂ sans biais.
Ces trois estimateurs sont convergents.
Intervalle de confiance
Lâobtention dâun intervalle de confiance pour la variance dâune loi de probabilitĂ© Ă partir dâun Ă©chantillon dĂ©pend du type de loi.
Pour une famille de lois dĂ©pendant dâun seul paramĂštre, comme les lois de Bernoulli, les lois gĂ©omĂ©triques, exponentielles ou les lois de Poisson, il suffit dâutiliser un intervalle de confiance sur le paramĂštre. Pour une famille de lois dĂ©pendant dâau moins deux paramĂštres, on utilise un estimateur convergent ayant un seul paramĂštre directement reliĂ© Ă la variance de la loi initiale. Ainsi, pour un Ă©chantillon de n variables gaussiennes (X1, ... , Xn) dont lâespĂ©rance est inconnue, le quotient de la variance empirique sans biais multipliĂ© par (n-1) par la variance rĂ©elle suit une loi de khi-deux avec n â 1 degrĂ©s de libertĂ© dâaprĂšs le thĂ©orĂšme de Cochran.
ĂlĂ©ments d'histoire
Ronald Fisher employa, le premier, le mot de variance, dans un article de 1918 intitulĂ© « The Correlation between Relatives on the Supposition of Mendelian Inheritance » [@ 1] oĂč il dĂ©finit la variance comme le carrĂ© de l'Ă©cart type. Dans ce document il prĂ©fĂšre clairement la variance Ă l'Ă©cart type en tant que mesure de la variabilitĂ© d'un phĂ©nomĂšne observĂ©. Il utilise ce terme Ă nouveau au congrĂšs de mathĂ©matiques de Toronto en 1924[@ 2]. C'est lui qui dĂ©finit aussi l'analyse de la variance telle qu'on la pratique aujourd'hui dans son livre « Statistical methods for research workers » paru en 1925[@ 3] - [alpha 7].
Applications
Le calcul de la variance permet dâen dĂ©duire lâĂ©cart type[alpha 8] , qui est homogĂšne Ă la variable alĂ©atoire, au sens mathĂ©matique du terme comme en analyse dimensionnelle.
La variance dâune sĂ©rie statistique apparait dans le calcul des coefficients de la rĂ©gression linĂ©aire.
Lâanalyse de la variance (ANOVA) rassemble des mĂ©thodes dâĂ©tudes de comparaisons entre Ă©chantillons sur une ou plusieurs variables quantitatives.
La variance dâune variable alĂ©atoire intervient dans le thĂ©orĂšme central limite ainsi que dans lâinĂ©galitĂ© de BienaymĂ©-Tchebychev.
Variance conditionnelle
Soient deux variables aléatoires Y et X. On appelle variance conditionnelle de Y sachant X la variable aléatoire correspondant à l'espérance conditionnelle sachant X du carré de l'écart de Y à l'espérance conditionnelle :
Comme toute variable conditionnelle, elle est fonction de X.
La variance de Y est liée à la variance et l'espérance conditionnelles par le théorÚme de la variance totale :
Variance d'un vecteur aléatoire
Si l'on définit Xk à 1 comme un vecteur aléatoire qui comporte k variables et Πcomme le vecteur des k espérances de X, on définit alors la variance comme :
DĂ©finition â
Il s'agit alors d'une matrice carrée de taille k, appelée matrice de variance-covariance, qui comporte sur sa diagonale les variances de chaque composante du vecteur aléatoire et en dehors de la diagonale les covariances. Cette matrice est symétrique et semi-définie positive ; elle est définie positive si et seulement si la seule combinaison linéaire certaine (c'est-à -dire presque sûrement constante) des composantes du vecteur aléatoire est celle dont tous les coefficients sont nuls. Le cas contraire signifie que les réalisations du vecteur X sont presque sûrement confinées à un hyperplan.
On a les propriétés suivantes :
PropriĂ©tĂ© â Si V est une matrice carrĂ©e de taille
Notes et références
Notes
- Les deux autres formes sont déduites de la premiÚre par factorisation des variances, puis substitution de l'égalité du théorÚme de Koenig-Huygens .
- « D'autres formules de la variance » (consulté le )
- Lâexistence dâun moment dâordre 2 implique notamment lâexistence de lâespĂ©rance.
- Une variable alĂ©atoire discrĂšte ne peut admettre quâun ensemble dĂ©nombrable de valeurs avec une probabilitĂ© non nulle.
- Pour cette démonstration, il est utile de rappeler une des propriétés de l'espérance : . On a alors
- Rémy Clairin, Philippe Brion, Manuel de sondages, Applications aux pays en développement, Documents et manuels du CEDEP, février 97, (ISBN 2-87762-082-4), page 17 ).
Ouvrages spécialisés
- Saporta 2011, §5.3.2.3 « La variance et lâĂ©cart-type »
- - Saporta 2006, p. 25
- Rioul 2008, p. 142
- Saporta 2006, p. 26
- Rioul 2008, p. 183-185
- Dodge 2010, p. 508
- Dodge 2010, p. 556
- Dodge 2010, p. 506
Articles publiés sur internet
- [PDF] (en) Ronald A. Fisher, « The Correlation between Relatives on the Supposition of Mendelian Inheritance. », Philosophical Transactions of the Royal Society of Edinburgh., vol. 52,â , p. 399â433 (lire en ligne).
- [PDF] Jean-Paul BenzĂ©cri, « Histoire et PrĂ©histoire de l'Analyse des donnĂ©es : Partie 3 », Les Cahiers de l'analyse des donnĂ©es, vol. 1, no 3,â , p. 221-241 (lire en ligne, consultĂ© le ).
- [PDF] J.-M. Faverge, « III. - L'analyse de la variance en psychologie », L'AnnĂ©e psychologique, vol. 49, no 1,â , p. 341-358 (lire en ligne).
Voir aussi
Bibliographie
- (fr) Gilbert Saporta, ProbabilitĂ©s, Analyse des donnĂ©es et Statistiques, Paris, Ăditions Technip, , 622 p. [dĂ©tail des Ă©ditions] (ISBN 978-2-7108-0814-5, prĂ©sentation en ligne).
- (fr) Olivier Rioul, Théorie des probabilités, Paris, Editions Hermes sciences, , 364 p. (ISBN 978-2-7462-1720-1).
- Yadolah Dodge, « The Concise Encyclopaedia of Statistics », New York, Springer, , 622 p. (ISBN 978-0-387-31742-7, lire en ligne).
Articles connexes
Liens externes
- Eric W. Weisstein, « Variance », MathWorld--A Wolfram Web Resource (consulté le )
- « Calcul en ligne de la variance », Calculis