Cumulant (statistiques)
En mathĂ©matiques et plus particuliĂšrement en thĂ©orie des probabilitĂ©s et en statistique, les cumulants d'une loi de probabilitĂ© sont des coefficients qui ont un rĂŽle similaire Ă celui des moments. Les cumulants dĂ©terminent entiĂšrement les moments et vice versa, c'est-Ă -dire que deux lois ont les mĂȘmes cumulants si et seulement si elles ont les mĂȘmes moments.
L'espérance constitue le premier cumulant, la variance le deuxiÚme et le troisiÚme moment centré constitue le troisiÚme cumulant. En revanche les cumulants d'ordres 4 ou plus ne correspondent plus aux moments centrés.
L'utilisation des cumulants peut s'avérer utile car ils vérifient notamment la propriété suivante : le n-iÚme cumulant d'une somme de variables indépendantes est égal à la somme des n-iÚmes cumulants de chaque variable de la somme.
Une loi avec des cumulants Îșn donnĂ©s peut ĂȘtre approchĂ©e par un dĂ©veloppement d'Edgeworth.
DĂ©finition
Soit X une variable aléatoire à valeurs réelles. On définit d'abord la fonction génératrice des cumulants KX associée à X :
- .
Les cumulants Îșn sont alors dĂ©finis comme les coefficients dans le dĂ©veloppement de KX en sĂ©rie exponentielle :
Si on note ÎŒ = E(X) l'espĂ©rance de X et Ï2 = E((X â ÎŒ)2) sa variance alors on a en particulier que ÎŒ = Îș1 et Ï2 = Îș2.
Les cumulants sont donnés par les dérivées en 0 de KX :
La fonction gĂ©nĂ©ratrice des cumulants est intimement liĂ©e Ă la fonction gĂ©nĂ©ratrice des moments de la variable X. Travailler avec la fonction gĂ©nĂ©ratrice des cumulants est parfois plus pratique dans la mesure oĂč pour des variables indĂ©pendantes X et Y :
Tandis qu'avec la fonction génératrice des moments on obtient :
On remarquera que
Certains auteurs[1] - [2] préfÚrent définir la fonction génératrice des cumulants plutÎt comme le logarithme népérien de la fonction caractéristique. La fonction génératrice des cumulants prend alors parfois le nom de seconde fonction caractéristique.
Un avantage apparent Ă utiliser H(t) â soit Ă©valuer K(t) pour une valeur imaginaire pure â est que E[eitX] est bien dĂ©fini pour tout t rĂ©el alors que ce n'est pas toujours le cas de E[etX], comme dans les cas oĂč la probabilitĂ© est Ă©levĂ©e que X ait de grandes valeurs. Cependant, la longueur de la sĂ©rie sera la mĂȘme entre H et K, et peut donc ne pas se prolonger au-delĂ de l'ordre 1 en argument, et donc le nombre de cumulants biens dĂ©finis ne changera pas. Cependant, mĂȘme si la sĂ©rie de H(t) est lacunaire, on peut l'utiliser dans l'analyse et l'ajout de variables alĂ©atoires. Les lois de type Cauchy ou stables sont des exemples de distributions oĂč seuls quelques cumulants sont bien dĂ©finis.
La caractĂ©risation des cumulants est valide mĂȘme pour les lois dont les moments d'ordres supĂ©rieurs n'existent pas.
Cumulants de quelques distributions discrĂštes
Nom de la loi | ParamĂštres | Fonction gĂ©nĂ©ratrice des cumulants KX | Cumulants Îșn |
---|---|---|---|
Mesure de Dirac | |||
Loi de Bernoulli | |||
Loi géométrique | |||
Loi de Poisson | |||
Loi binomiale | |||
Loi binomiale négative |
En introduisant , les distributions précédentes donnent une formule unifiée pour les deux premiÚres dérivées de la fonction génératrice des cumulants :
et
- .
Cela confirme que le premier cumulant est Îș1 = ÎŒ et que le second cumulant est Îș2 = ΌΔ.
Les variables alĂ©atoires constantes X = x sont telles que Δ = 0. Les lois binomiales vĂ©rifient Δ = 1 â p si bien que 0 < Δ < 1.
Les lois de Poisson vérifient Δ = 1 tandis que les lois binomiales négatives se caractérisent par Δ = 1p si bien que Δ > 1. Il faut noter l'analogie avec l'excentricité des coniques : cercles Δ = 0, ellipses 0 < Δ < 1, paraboles Δ = 1, hyperboles Δ > 1.
Cumulants de certaines lois continues
Nom de la loi | ParamĂštres | Fonction gĂ©nĂ©ratrice des cumulants KX | Cumulants Îșn |
---|---|---|---|
Loi uniforme continue |
oĂč Bn est le n-iĂšme nombre de Bernoulli | ||
Loi normale | |||
Loi exponentielle | |||
Quelques propriétés des cumulants
Invariance
Les cumulants vĂ©rifient pour tout variable alĂ©atoire X et tout constante c les relations : Îș1(X + c) = Îș1(X) + c et Îșn(X + c) = Îșn(X) pour n â„ 2. Pour rĂ©sumer, c est ajoutĂ© au premier cumulant, et tous les cumulants d'ordre supĂ©rieur sont inchangĂ©s.
Homogénéité
Le n-iÚme cumulant est homogÚne de degré n, c'est-à -dire si c est une constante, alors :
Additivité
Si X et Y sont indépendants, alors les cumulants de la somme sont les sommes des cumulants :
Un résultat en demi-teinte
Sachant les rĂ©sultats des cumulants de la loi normale, on pourrait espĂ©rer trouver des distributions pour lesquelles Îșm = Îșm+1 = ... = 0 pour un m > 3, et oĂč les cumulants d'ordre infĂ©rieur (ordres 3 Ă m-1) sont non nuls. Il n'existe pas de telles distributions[3]. Ainsi, la fonction gĂ©nĂ©ratrice des cumulants ne peut ĂȘtre un polynĂŽme de degrĂ© fini supĂ©rieur Ă 2.
On peut cependant approcher une distribution de cumulants donnés par une série d'Edgeworth.
Cumulants et moments
La fonction génératrice des moments est :
si bien que la fonction génératrice des cumulants est le logarithme de la fonction génératrice des moments. Le premier cumulant est l'espérance ; les deuxiÚme et troisiÚme cumulants sont respectivement les deuxiÚme et troisiÚme moments centrés (le moment centré d'ordre 2 est la variance) ; mais les cumulants d'ordre supérieur ne sont pas égaux aux moments non centrés, pas plus qu'aux moments centrés. Ce sont plutÎt des polynÎmes de ces moments.
Les cumulants sont liés aux moments par la formule de récurrence :
Le n-Úme moment mn est un polynÎme de degré n des n premiers cumulants :
Les coefficients sont précisément ceux qui apparaissent dans les polynÎmes de Bell et, par conséquent, dans la formule de Faà di Bruno.
Les moments mn ne doivent pas ĂȘtre confondus avec les moments centrĂ©s ÎŒn. Pour exprimer les moments centraux en fonction des cumulants, il suffit de poser Îș1=0 :
Lien avec la physique statistique
En physique statistique, un systÚme à l'équilibre avec un bain thermique à température peut occuper des états d'énergie . Soit la densité d'états d'énergie . La fonction de partition du systÚme est donnée par
- .
L'énergie libre du systÚme est définie par
- .
L'Ă©nergie libre du systĂšme donne accĂšs Ă l'ensemble des propriĂ©tĂ©s thermodynamiques du systĂšme comme son Ă©nergie interne, son entropie, sa chaleur spĂ©cifiqueâŠ
Histoire
Les cumulants ont été définis en 1889 par l'astronome, mathématicien et actuaire danois Thorvald Nicolai Thiele (1838 - 1910). Thiele les appelle alors half-invariants (demi-invariants). Il faut attendre 1931 pour trouver l'appellation cumulants dans l'article « The derivation of the pattern formulae of two-way partitions from those of simpler patterns » par Ronald Aylmer Fisher et John Wishart (Proceedings of the London Mathematical Society, Series 2, v. 33, p. 195-208). L'historien Stephen Stigler reporte que le nom cumulant fut suggéré à Fisher dans une lettre de Harold Hotelling. La fonction de partition pour l'ensemble canonique en physique statistique a été définie par Josiah Willard Gibbs en 1901.
Voir aussi
Références
- Kendall, M. G., Stuart, A. (1969), The Advanced Theory of Statistics, Volume 1 (3rd Edition). Griffin, London (Section 3.12).
- Lukacs, E. (1970), Characteristic Functions (2d Edition). Griffin, London (Page 27).
- Lukacs, E. (1970), Characteristic Functions (2d Edition), Griffin, London (Theorem 7.3.5).
Liens externes
- (en) Eric W. Weisstein, « Cumulant », sur MathWorld