Accueil🇫🇷Chercher

Test de Kruskal-Wallis

Le test de Kruskal-Wallis (d'après William Kruskal et Wilson Allen Wallis), aussi appelé ANOVA unidirectionnelle sur rangs (ou ANOVA à un facteur contrôlé sur rangs)[1] est une méthode non paramétrique utilisée pour tester si des échantillons trouvent leur origine dans la même distribution[2] - [3] - [4]. Ce test s'intéresse aux médianes de populations () (ou treatment dans la littérature en anglais) et propose comme hypothèse nulle que les échantillons sont confondus et proviennent d'un même échantillon (combiné) d'une population. Le test permet de comparer deux ou plusieurs échantillons indépendants de taille similaire ou non. Il généralise le test de Wilcoxon-Mann-Whitney, qui est utilisé pour comparer seulement deux groupes. L'équivalent paramétrique du test de Kruskal-Wallis est l'analyse unidirectionnelle de la variance (ANOVA).

Test de Kruskal-Wallis
Type
Nommé en référence à

Un test de Kruskal-Wallis significatif indique qu'au moins un échantillon domine stochastiquement un autre échantillon. Le test n'identifie pas où cette dominance stochastique se produit ni pour combien de paires de groupes la dominance stochastique s'obtient. Pour analyser les paires d'échantillons spécifiques en vue de déterminer la dominance stochastique, on utilise parfois le test de Dunn[5], les tests de Mann-Whitney par paires sans correction de Bonferroni[6] ou encore le test de Conover-Iman[6], plus puissant mais moins connu.

Comme il s'agit d'une méthode non paramétrique, le test de Kruskal-Wallis ne suppose pas une distribution normale des résidus, contrairement à l'analyse de variance à sens unique analogue. Si le chercheur peut faire l'hypothèse d'une distribution de forme et d'échelle identiques pour tous les groupes, à l'exception de toute différence dans les médianes, alors l'hypothèse nulle est que les médianes de tous les groupes sont égales, et l'hypothèse alternative est qu'au moins une médiane de la population d'un groupe est différente de la médiane de la population d'au moins un autre groupe.

Test

Le modèle s'écrit où .

est la médiane globale et le "treatment j effect" .

Et on écrit le test contre au moins deux ne sont pas égales.

Méthode

  1. Classer toutes les données de tous les groupes ensemble, c'est-à-dire classer les données de 1 à N sans faire de groupes. Attribuer à toute valeur liée la moyenne des classements qu'ils auraient obtenus s'ils n'avaient pas été liés.
  2. La statistique de test est donnée par :
    , où:
    • est le nombre d'observations dans le groupe
    • est le rang (parmi toutes les observations) de l'observation du groupe
    • est le nombre total d'observations sur l'ensemble des groupes
    • est le rang moyen de toutes les observations du groupe
    • est la moyenne de tous les .
  3. Si les données ne contiennent pas de lien, le dénominateur de l'expression pour est exactement et . Ainsi :

    La dernière formule contient seulement les carrés des rangs moyens.
  4. Une correction pour les liens si on utilise la formule raccourcie décrite au point précédent peut être faite en divisant par , où est le nombre de groupements de différents rangs liés, et est le nombre de valeurs liées au sein du groupe i qui sont liées à une valeur particulière. Cette correction fait en général peu de différence dans la valeur obtenue de H à moins qu'il y ait un grand nombre de liens.
  5. Finalement, la décision de rejeter ou non l'hypothèse nulle est faite en comparant à une valeur critique obtenue à partir d'un tableau ou d'un logiciel pour un niveau de significativité ou alpha donnés. Si est supérieur à , l'hypothèse nulle est rejetée. Si cela est possible (pas de liens, échantillon pas trop large), on doit pouvoir comparer à la valeur critique obtenue à partir de la distribution exacte de . Autrement, la distribution de peut être approximée par une distribution chi-carré (χ2) avec degrés de liberté. Si certaines valeurs ni sont faibles (par exemple inférieures à 5), la distribution de probabilité exacte de peut être assez différente de cette distribution chi-carré. Si un tableau de la distribution de probabilité du χ2 est disponible, la valeur critique du chi-carré peut être trouvée en entrant dans le tableau à degrés de liberté et en regardant sous le niveau de significativité ou alpha désiré.
  6. Si la statistique n'est pas significative, alors il n'y a pas de preuve de dominance stochastique entre les échantillons. Cependant, si le test est significatif, alors au moins un échantillon domine stochastiquement un autre échantillon. Par conséquent, un chercheur peut utiliser des contrastes d'échantillons entre des paires d'échantillons individuels, ou des tests post hoc utilisant le test de Dunn, qui (1) utilise correctement les mêmes classements que le test de Kruskal-Wallis, et (2) utilise correctement la variance mise en commun impliquée par l'hypothèse nulle du test de Kruskal-Wallis afin de déterminer lesquelles des paires d'échantillons sont significativement différentes[5]. Lorsque l'on effectue des contrastes d'échantillons ou des tests multiples, le taux d'erreur de type I a tendance à gonfler, ce qui soulève des inquiétudes quant aux comparaisons multiples.

Tableaux de probabilités exactes

Une grande quantité de ressources informatiques est nécessaire pour calculer des probabilités exactes pour le test de Kruskal-Wallis. Les logiciels existants ne fournissent des probabilités exactes que pour des échantillons de moins de 30 participants environ. Ces logiciels reposent sur une approximation asymptotique pour les échantillons de plus grande taille.

Les valeurs exactes des probabilités pour les échantillons de plus grande taille sont disponibles. En 2003, Spurrier a publié des tableaux de probabilités exactes pour des échantillons allant jusqu'à 45 participants[7]. Meyer et Seaman ont produit en 2006 des distributions de probabilités exactes pour des échantillons allant jusqu'à 105 participants[8].

Distribution exacte de H

Choi et al.[9] ont passé en revue deux méthodes qui avaient été développées pour calculer la distribution exacte de , en ont proposé une nouvelle et ont comparé la distribution exacte à son approximation par le χ2.

Implémentation

  • kruskal.test sous R avec la librairie "stats"[10]
  • scipy.stats.kruskal sous python avec la librairie "scipy.stats"[11]

Voir aussi

Notes

Références

(en) Myles Hollander, Douglas A. Wolfe, Eric Chicken, Nonparametric Statistical Methods

  1. (en) « Kruskal-Wallis H Test using SPSS Statistics », sur Laerd Statistics
  2. William H. Kruskal et W. Allen Wallis, « Use of Ranks in One-Criterion Variance Analysis », Journal of the American Statistical Association, vol. 47, no 260,‎ , p. 583–621 (ISSN 0162-1459, DOI 10.1080/01621459.1952.10483441, lire en ligne, consulté le )
  3. (en) Gregory W. Corder et Dale I. Foreman, Nonparametric Statistics for Non-Statisticians : a step-by-step approach, Hoboken, John Wiley & Sons, , 247 p. (ISBN 978-0-470-45461-9, lire en ligne), p. 99-105
  4. Sidney Siegel et John Castellan, Nonparametric Statistics for the Behavioral Sciences, New York, McGraw–Hill, , 2e éd., 399 p. (ISBN 0-07-057357-3)
  5. Olive Jean Dunn, « Multiple Comparisons Using Rank Sums », Technometrics, vol. 6, no 3,‎ , p. 241–252 (ISSN 0040-1706, DOI 10.1080/00401706.1964.10490181, lire en ligne, consulté le )
  6. (en) W. J. Conover & Ronald L. Iman, « On Multiple-Comparisons Procedures »,
  7. John D. Spurrier, « On the null distribution of the Kruskal–Wallis statistic », Journal of Nonparametric Statistics, vol. 15, no 6,‎ , p. 685–691 (ISSN 1048-5252, DOI 10.1080/10485250310001634719, lire en ligne, consulté le )
  8. J. P. Meyer & M. A. Seaman, « Expanded tables of critical values for the Kruskal-Wallis H statistic », Annual meeting of the American Educational Research Association, San Francisco,‎ (lire en ligne)
  9. Won Choi, Jae Won Lee, Myung-Hoe Huh et Seung-Ho Kang, « An Algorithm for Computing the Exact Distribution of the Kruskal–Wallis Test », Communications in Statistics - Simulation and Computation, vol. 32, no 4,‎ , p. 1029–1040 (ISSN 0361-0918, DOI 10.1081/SAC-120023876, lire en ligne, consulté le )
  10. (en) « Kruskal-Wallis Test in R - Easy Guides - Wiki - STHDA », sur www.sthda.com (consulté le )
  11. (en) « scipy.stats.kruskal reference documentation » (consulté le )

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.