Accueil🇫🇷Chercher

Loi du χ²

En statistiques et en théorie des probabilités, la loi du χ2 centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes.

Loi du χ2
Image illustrative de l’article Loi du χ²
Densité de probabilité

Image illustrative de l’article Loi du χ²
Fonction de répartition

Paramètres degrés de liberté
Support
Densité de probabilité

est la fonction gamma

Fonction de répartition

est la fonction gamma incomplète

Espérance
Médiane
Mode si
Variance
Asymétrie
Kurtosis normalisé
Entropie
Fonction génératrice des moments pour
Fonction caractéristique

La loi du χ2 est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ².

La loi du χ² non centrée généralise la loi du χ2.

Définition et caractéristiques

Définition

Soient k variables aléatoires X1, ... , Xk indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale de moyenne 0 et d'écart-type 1. Alors par définition la variable X définie par

suit une loi du χ2 à k degrés de liberté. La loi de X est notée χ2 (k) ou χ 2
k
.

Caractéristiques

La densité de probabilité de X notée fX est :

pour tout x positif

Γ est la fonction gamma[1].

Sa fonction de répartition est :

est la fonction gamma incomplète.

Approximation

Conformément au théorème central limite, lorsque k est « grand » (k > 100[2]), la loi d'une variable de χ2, somme de variables aléatoires indépendantes, peut être approchée par une loi normale d'espérance k et de variance 2k.

D'autres fonctions en χ2 peuvent converger plus rapidement vers la loi normale, notamment en ayant X2(k) et k>30 :

  • 2X - 2k-1 peut être approchée par une loi normale centrée réduite (approximation de Ronald Aylmer Fisher[3]).
  • 3X/k peut être approchée par une loi normale de moyenne 1-2/9k et de variance 2/9k (approximation de Wilson et Hilferty, 1931[4]).
  • X peut être approchée par (approximation de Hoaglin[5]).

Utilisation

Cette loi est principalement utilisée dans le test du χ2 basé sur la loi multinomiale pour vérifier l'adéquation d'une distribution empirique à une loi de probabilité donnée. Plus généralement elle s'applique dans le test d'hypothèses à certains seuils (indépendance notamment).

Elle est également utilisée pour établir des intervalles de confiance concernant la variance ou l'écart-type de variables aléatoires gaussiennes.

Histoire

Cette loi a été décrite pour la première fois par le géodésiste et statisticien allemand Friedrich Robert Helmert dans des articles de 1875–6,[6][7] où il a calculé la distribution d'échantillonnage de la variance de l'échantillon d'une population normale. Ainsi, en allemand, cela était traditionnellement connu sous le nom de Helmert'sche ("Helmertian") ou "distribution d'Helmert".

Cette loi a été redécouverte indépendamment par le mathématicien anglais Karl Pearson dans le contexte de la qualité de l'ajustement, pour lequel il a développé son test du χ² de Pearson, publié en 1900, avec une table calculée de valeurs publiées dans (Elderton 1902), recueillies dans (Pearson 1914, Table XII). Le nom "chi-carré" dérive finalement de la sténographie de Pearson pour l'exposant dans une loi normale multidimensionnelle avec la lettre grecque Chi, écrivant −½χ2 pour ce qui apparaîtrait dans la notation moderne comme −½xTΣ−1x' (Σ étant la matrice de covariance)[8].

L'idée d'une famille de "distributions du chi carré", cependant, n'est pas due à Pearson mais est apparue comme un développement ultérieur dû à Ronald Aylmer Fisher dans les années 1920[6].

Liens avec d'autres lois

Soient Xi des variables aléatoires indépendantes suivant des lois normales d'espérance μi et de variance σi2.

Différentes lois du χ et χ2
Loisen fonction de variables de loi normale
loi du χ2
Loi du χ2 non centrée
Loi inverse-χ2
loi du χ
loi du χ non centrée

Si X est une variable aléatoire de loi normale centrée et réduite et Y suit une loi du χ2 à n degrés de liberté, X et Y étant indépendantes, alors suit une loi de Student à n degrés de liberté.

Si X suit une loi du χ2 à n degrés de liberté, et Y une loi du χ2 à m degrés de liberté, et si X et Y sont indépendantes, alors suit une loi de Fisher à n et m degrés de liberté.

Table de valeurs des quantiles

Le tableau suivant fournit les valeurs de certains quantiles de la loi du χ2 pour différents degrés de liberté k. Pour chaque valeur de α, le quantile donné est tel que la probabilité pour qu'une variable suivant une loi de χ2 à k degrés de liberté lui soit inférieur est de 1 – α. Par exemple, pour 1 – α = 0,95 et k = 7, si X suit une loi de χ2 à 7 degrés de liberté, on lit dans la table que

Degrés de liberté Valeur du χ2
1 0.004 0.02 0.06 0.15 0.46 1.07 1.64 2.71 3.84 6.63 10.83
2 0.10 0.21 0.45 0.71 1.39 2.41 3.22 4.61 5.99 9.21 13.82
3 0.35 0.58 1.01 1.42 2.37 3.66 4.64 6.25 7.81 11.34 16.26
4 0.71 1.06 1.65 2.20 3.36 4.88 5.99 7.78 9.49 13.28 18.47
5 1.14 1.61 2.34 3.00 4.35 6.06 7.29 9.24 11.07 15.09 20.52
6 1.63 2.20 3.07 3.83 5.35 7.23 8.56 10.64 12.59 16.81 22.46
7 2.17 2.83 3.82 4.67 6.35 8.38 9.80 12.02 14.07 18.48 24.32
8 2.73 3.49 4.59 5.53 7.34 9.52 11.03 13.36 15.51 20.09 26.12
9 3.32 4.17 5.38 6.39 8.34 10.66 12.24 14.68 16.92 21.67 27.88
10 3.94 4.87 6.18 7.27 9.34 11.78 13.44 15.99 18.31 23.21 29.59
11 4.57 5.58 6.99 8.15 10.3 12.9 14.6 17.3 19.7 24.7 31.3
12 5.23 6.30 7.81 9.03 11.3 14.0 15.8 18.5 21.0 26.2 32.9
13 5.89 7.04 8.63 9.93 12.3 15.1 17.0 19.8 22.4 27.7 34.5
14 6.57 7.79 9.47 10.8 13.3 16.2 18.2 21.1 23.7 29.1 36.1
15 7.26 8.55 10.3 11.7 14.3 17.3 19.3 22.3 25.0 30.6 37.7
1 – α 0.05 0.1 0.2 0.3 0.5 0.7 0.8 0.9 0.95 0.99 0.999

Lien avec les méthodes bayésiennes

Dans son ouvrage Décisions rationnelles dans l'incertain (1974), qui constitue une somme des techniques bayésiennes dont la grande émergence se fait à cette époque, le professeur Myron Tribus montre que le χ2 constitue un exemple de passage à la limite du psi-test (test de plausibilité) bayésien lorsque le nombre de valeurs en présence devient grand - ce qui est la condition de travail des statistiques classiques, mais pas nécessairement des bayésiennes. Le raccord entre les deux disciplines, qui sont asymptotiquement convergentes, est ainsi complet.

L'ouvrage de référence de Jaynes en donne également une démonstration en page 287[9].

Voir aussi

Articles connexes

Notes et références

  1. La loi de X est un cas particulier de loi plus générale dite loi Gamma.
  2. (en) Eric J. Beh, « Exploring How to Simply Approximate the P-value of a Chi-Squared Statistic », Austrian Journal of Statistics, vol. 47, , p. 63–75 ([http://www.ajs.or.at/ doi:10.17713/ajs.v47i3.757 lire en ligne])
  3. (en) Ronald Aylmer Fisher, Statistical Methods for Research Workers, 2,
  4. (en) Edwin B. Wilson et Margaret M. Hilferty,, The distribution of Chi-square, Department of vital statistics, Harvard school of public health, , p. 687 (lire en ligne)
  5. (en) DC Hoaglin, « Approximations for Chi-squared Percentage Points », Journal of the American Statistical Association, vol. 2, , p. 508 – 515
  6. Hald 1998, 27. Distributions d'échantillonnage sous normalité, p. 633–692.
  7. Friedrich Robert Helmert, "Ueber die Wahrscheinlichkeit der Potenzsummen der Beobachtungsfehler und über einige damit im Zusammenhange stehende Fragen ", Zeitschrift für Mathematik und Physik 21, 1876, chapitre X, pp. 192–218
  8. (en) R. L. Plackett, « Karl Pearson and the Chi-Squared Test », International Statistical Review, vol. 51, no 1, , pp. 59-72 (JSTOR 1402731) Voir aussi Jeff Miller, Early Known Uses of Some of the Words of Mathematics.
  9. Introduction du livre

Bibliographie

  • H. O. Lancaster (1969) The Chi-squared Distribution, New York: Wiley.
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.