Modèle linéaire généralisé
En statistiques, le modèle linéaire généralisé (MLG) souvent connu sous les initiales anglaises GLM est une généralisation souple de la régression linéaire. Le GLM généralise la régression linéaire en permettant au modèle linéaire d'être relié à la variable réponse via une fonction lien et en autorisant l'amplitude de la variance de chaque mesure d'être une fonction de sa valeur prévue, en fonction de la loi choisie. Formellement,
Type |
Modèle de régression (d) |
---|---|
Inventeurs |
John Nelder, Robert Wedderburn (en) |
où est l'espérance mathématique de conditionnelle à ; est le prédicteur linéaire, c'est-à-dire une combinaison linéaire des variables explicatives, et où est une fonction monotone appelée fonction de lien. De plus
où est appelée fonction variance, qui dépend la loi (au sein de la famille exponentielle)
La théorie des modèles linéaires généralisés a été formulée par John Nelder et Robert Wedderburn (en) comme un moyen d'unifier les autres modèles statistiques y compris la régression linéaire, la régression logistique et la régression de Poisson[1]. Ils proposent une méthode itérative dénommée méthode des moindres carrés repondérés itérativement (en) pour l'estimation du maximum de vraisemblance des paramètres du modèle. L'estimation du maximum de vraisemblance reste populaire et est la méthode par défaut dans de nombreux logiciels de calculs statistiques. D'autres approches incluant les statistiques bayésiennes et la méthode des moindres carrés convenant aux réponses à variance stabilisées, ont été développées.
Notes et références
- (en) John Nelder et Robert Wedderburn, « Generalized Linear Models », Journal of the Royal Statistical Society. Series A (General), Blackwell Publishing, vol. 135, no 3, , p. 370-384 (DOI 10.2307/2344614)
Bibliographie
- Gill, Jeff. 2000. Generalized Linear Models: A Unified Approach. SAGE QASS Series.