Test du multiplicateur de Lagrange
Le test du multiplicateur de Lagrange (LM) ou test de score ou test de Rao est un principe général pour tester des hypothèses sur les paramètres dans un cadre de vraisemblance. L'hypothèse sous le test est exprimée comme une ou plusieurs contraintes sur les valeurs des paramètres. La statistique du test LM ne nécessite une maximisation que dans cet espace contraint des paramètres (en particulier si l'hypothèse à tester est de la forme alors ). Ceci contraste avec les tests de Wald, qui sont basés sur des maximisations dans l'espace non contraint, et les tests de rapport de vraisemblance qui nécessitent deux maximisations : une dans l'espace contraint et l'autre dans l'espace non contraint. Le nom du test est motivé par le fait qu'il peut être considéré comme tester si les multiplicateurs de Lagrange impliqués dans l'application des contraintes sont significativement différents de zéro. Le terme « multiplicateur de gamme » lui-même est un mot mathématique plus large inventé après le travail du dix-huitième siècle mathématicien Joseph-Louis Lagrange.
Type | |
---|---|
Inventeurs |
Calyampudi Radhakrishna Rao, Samuel D. Silvey (en) |
Formule |
Le principe de test LM a trouvé une large applicabilité à de nombreux problèmes d'intérêt pour l'économétrie. De plus, l’idée de tester le coût de l’imposition des restrictions, bien qu’initialement formulées dans un cadre probabiliste, a été étendu à d'autres environnements d'estimation, y compris la méthode de moments et l'estimation robuste.
Test
On reprend l'estimateur du maximum de vraisemblance (dans l'espace contraint), défini comme la valeur à laquelle la vraisemblance de au vu des observations d'un n-échantillon indépendamment et identiquement distribué selon la loi est maximale.
Le score (en), défini comme le gradient de la log-vraisemblance par rapport aux paramètres :
est d'espérance nulle autour de sous l'hypothèse nulle (sous certaines hypothèse de régularité).
Plus précisément, converge en loi vers une loi normale centrée, dont la variance est l'information de Fisher .
La statistique utilisée est :
Sous l'hypothèse nulle, S suit asymptotiquement une loi du χ² dont le nombre de degrés de libertés est le nombre de contraintes imposées par l'hypothèse nulle (en particulier, lorsqu'elle est de la forme ce nombre est la dimension de ).
Si S prend des valeurs trop grandes, l'hypothèse nulle est rejetée.