Critère d'information d'Akaike
Le critère d'information d'Akaike, (en anglais Akaike information criterion ou AIC) est une mesure de la qualité d'un modèle statistique proposée par Hirotugu Akaike en 1973.
Type | |
---|---|
Nom court |
(en) AIC |
Inventeur | |
Nommé en référence à |
Lorsque l'on estime un modèle statistique, il est possible d'augmenter la vraisemblance du modèle en ajoutant un paramètre. Le critère d'information d'Akaike, tout comme le critère d'information bayésien, permet de pénaliser les modèles en fonction du nombre de paramètres afin de satisfaire le critère de parcimonie. On choisit alors le modèle avec le critère d'information d'Akaike le plus faible[1].
Définition
Le critère d'information d'Akaike s'écrit comme suit :
où k est le nombre de paramètres à estimer du modèle et L est le maximum de la fonction de vraisemblance du modèle.
Si l'on considère un ensemble de modèles candidats, le modèle choisi est celui qui aura la plus faible valeur d'AIC. Ce critère repose donc sur un compromis entre la qualité de l'ajustement et la complexité du modèle, en pénalisant les modèles ayant un grand nombre de paramètres, ce qui limite les effets de sur-ajustement (augmenter le nombre de paramètre améliore nécessairement la qualité de l'ajustement).
L'AIC s'appuie sur la théorie de l'information : il propose une estimation de la perte d'information lorsqu'on utilise le modèle considéré pour représenter le processus qui génère les données. L'AIC ne fournit pas un test de modèle dans le sens d'une hypothèse nulle, c'est-à-dire que ce test ne dit rien de la qualité absolue du modèle. Il ne rendrait ainsi pas compte du fait que tous les modèles candidats ne produisent pas de bons ajustements.
Plus précisément, supposons que les données soient générées par un processus inconnu f. On considère deux modèles candidats pour représenter f: g1 et g2. Si f était connu, alors l'information perdue en utilisant g1 pour représenter f serait également connue en calculant la divergence de Kullback-Leibler DKL(f ‖ g1). De la même façon, l'information perdue en représentant f par g2 serait DKL(f ‖ g2). On choisirait alors le meilleur modèle en minimisant l'information perdue. Cependant, on ne peut choisir avec certitude car f est en général inconnu. Akaike a montré en 1973 qu'il est possible d'estimer en utilisant l'AIC si l'utilisation de g1 plutôt que g2 amène plus ou moins de perte d'information. Cette estimation n'est valide que de manière asymptotique: si le nombre de points est faible, une correction est souvent nécessaire (voir AICc).
Utilisation pratique de l'AIC
Supposons disposer d'un ensemble de modèles-candidats, dont on calcule les valeurs d'AIC associées. Il y aura toujours une perte d'information, du fait qu'on utilise un modèle pour représenter le processus générant les données réelles, et nous cherchons donc à sélectionner le modèle qui minimise cette perte d'information (ou plus exactement son estimation par l'AIC).
Notons les diverses valeurs d'AIC des différents modèles AIC1, AIC2, AIC3, …, AICR et AICmin le minimum de ces valeurs. Dans ce cas exp((AICmin−AICi)/2) est proportionnel à la probabilité que le ième candidat modèle minimise l'estimation de la perte d'information[2].
Par exemple, supposons qu'il y ait trois modèles candidats avec pour AIC respectives: 100, 102 et 110. Dans ce cas, la probabilité pour que le second modèle soit celui qui minimise la perte d'information est de exp((100−102)/2) = 0.368 fois la probabilité pour que ce soit le premier modèle. De la même manière, la probabilité pour que le troisième modèle soit celui qui minimise la perte d'information est de exp((100−110)/2) = 0.007 fois la probabilité pour que ce soit le premier modèle.
Dans ce cas de figure, on peut considérer que les deux premiers modèles sont de qualité proches. Il y a alors plusieurs possibilités:
- collecter plus de données, en espérant que la distinction entre le premier et le second modèles soit plus nette,
- simplement considérer que les données sont insuffisantes pour distinguer que le premier modèle est significativement meilleur que le second,
- prendre une moyenne pondérée des deux modèles, avec pour poids respectifs 1 et 0.368, puis faire les inférences statistiques depuis ce multi-modèle pondéré[3].
La quantité exp((AICmin−AICi)/2) est la vraisemblance relative du modèle i.
Si tous les modèles de l'ensemble des candidats ont le même nombre de paramètres, alors utiliser l'AIC peut paraître semblable à utiliser les rapports de vraisemblance. Il existe cependant des distinctions importantes, en particulier, le test du rapport de vraisemblance est valide seulement pour les modèles imbriqués alors que l'AIC (et l'AICc) n'ont pas de telle restriction[4].
AICc
L'AICc est une correction de l'AIC pour le cas d'échantillons de petite taille :
où n désigne la taille de l'échantillon.
L'AICc intègre donc une pénalité supplémentaire pour les paramètres additionnels. L'utilisation de l'AIC plutôt que de l'AICc lorsque n n'est pas beaucoup plus grand que k augmente la probabilité de sélectionner un modèle avec un trop grand nombre de paramètres, c'est-à-dire de sur-ajuster. Cette probabilité de sur-ajustement avec l'AIC peut être élevée dans certains cas[5].
Burnham et Anderson (2002) recommandent fortement l'utilisation de l'AICc à la place de l'AIC si n est petit et/ou k grand, on note d'ailleurs que l'AICc tend vers l'AIC lorsque n devient grand[6]. Brockwell et Davis conseillent d'utiliser l'AICc comme critère primaire pour la sélection de modèles ARMA de séries temporelles[7]. McQuarrie et Tsai (1998) ont confirmé l'intérêt de l'AICc à l'aide d'un grand nombre de simulations sur des régressions et des séries temporelles.
L'AICc a été proposé en premier lieu par Hurvich et Tsai (1989). Plusieurs variantes ont été proposées par Brockwell et Davis (1991), Burnham et Anderson, puis Cavanaugh (1997). Toutes les variantes supposent un modèle monovariant avec des erreurs distribuées de manière normale, si cette hypothèse n'est pas vérifiée, la formule de l'AICc devra être modifiée en général.
Une discussion plus avancée sur le sujet, avec d'autres exemples et hypothèses, est proposée dans Burnham et Anderson (2002, ch. 7). En particulier, une estimation par bootstrapping est en général possible.
On remarquera que lorsque le nombre de paramètres k est le même pour tous les modèles, alors l'AICc et l'AIC auront des valeurs relatives identiques. Dans cette situation l'AIC peut donc toujours être utilisé.
Lien avec le test du χ2 et les modèles linéaires généralisés
Test du chi-2
Si l'on suppose que les fonctions de vraisemblance sont telles que les erreurs sous-jacentes sont indépendantes et distribuées de manière normale (avec une moyenne nulle), alors l'ajustement peut-être réalisé à l'aide du test du χ2 (chi-2).
Dans le cas du test du χ2, la vraisemblance est donnée par
- ,
où C est une constante indépendante du modèle utilisé, elle ne dépend que de l'usage de certaines données, c'est donc une constante si les données restent inchangées.
L'AIC est alors donné par . Comme seules les différences d'AIC sont significatives, la constante C peut être ignorée, et on peut donc utiliser pour la comparaison de modèles.
Une autre forme pratique apparaît si les σi sont supposés identiques et si l'on dispose de la somme des carrés des résidus (residual sum of squares, notée RSS). Dans ce cas, on obtient , où à nouveau la constante C peut être ignorée pour la comparaison de modèles[8].
Modèles linéaires généralisés
Lorsque tous les modèles candidats sont des modèles linéaires généralisés (ou GLM), une approche possible pour sélectionner le modèle est de choisir celui qui maximise la vraisemblance . Celle-ci peut être facilement estimée et le modèle ayant la plus grande vraisemblance sera celui qui a le plus petit AIC[9].
Comparaison au BIC
Il existe de nombreux critères d'informations inspirés du critère d'Akaike. Parmi ceux-ci, le critère d'information bayésien est l'un des plus populaires. Il se définit comme suit :
avec n le nombre d'observations dans l'échantillon étudié et k le nombre de paramètres[10].
L'AIC pénalise le nombre de paramètres moins fortement que le BIC. Burnham et Anderson (2002, §6.4 et 2004) proposent une comparaison de l'AIC (et de l'AICc) au BIC. Les auteurs montrent que l'AIC et l'AICc peuvent être construits dans le même contexte bayésien que le BIC, mais avec des hypothèses différentes. Burnham et Anderson défendent aussi l'idée que l'AIC et l'AICc possèdent certains avantages théoriques sur le BIC: d'abord parce que l'AIC/AICc est dérivé des principes de la théorie de l'information, au contraire du BIC, ensuite parce que les hypothèses sous-tendant la dérivation du BIC sont discutables, et enfin parce que certaines de leurs simulations suggèrent que l'AICc serait en pratique plus performant que le BIC.
Yang (2005) a également proposé des comparaisons poussées entre AIC et BIC dans le contexte des régressions. En particulier, l'AIC est asymptotiquement optimal lorsque l'on souhaite sélectionner le modèle avec l'erreur quadratique moyenne (si l'on fait l'hypothèse que le modèle générant les données n'est pas parmi les candidats, ce qui est en fait presque toujours le cas en pratique); ce n'est pas le cas du BIC. Yang montre également que la vitesse de convergence de l'AIC vers l'optimum est, dans un certain sens, la meilleure possible.
Histoire
Hirotugu Akaike a introduit le concept d'AIC pour la première fois en 1973-1974 comme un « critère d'information »[11].
Le calcul original de l'AIC reposait sur quelques hypothèses fortes, Takeuchi a montré en 1976 que celles-ci pouvaient être faites plus faibles, cependant le travail de Takeuchi ayant été publié en japonais, il resta peu connu en dehors du Japon pendant plusieurs années.
L'AICc a été proposé pour la seule régression linéaire par Sugiura en 1978 et fut à l'origine des travaux d'Hurvich et Tsai en 1989, puis d'autres articles par les mêmes auteurs, qui cherchaient à étendre le cadre d'application de l'AICc. Le travail d'Hurvich et Tsai amena à la publication de la seconde édition du livre de Brockwell et Davis (1991), qui est considéré comme un ouvrage de référence pour les séries temporelle linéaires. Il est dit dans cette édition: our prime criterion for model selection [among ARMA(p,q) models] will be the AICc (notre premier critère de sélection des modèles sera l'AICc)[7].
L'ouvrage de Burnham et Anderson (2002) est la première tentative pour replacer l'approche fondée sur la théorie de l'information dans un contexte général et a largement contribué à diffuser cette approche. Il comprend notamment un exposé des travaux de Takeuchi en anglais.
Akaike a qualifié son approche de « principe de maximisation de l'entropie », celle-ci étant fondée sur le concept d'entropie en théorie de l'information. Burnham et Anderson (2002, ch. 2) discutent cette idée, et la rapprochent des travaux originaux de Ludwig Boltzmann en thermodynamique. En quelques mots, minimiser l'AIC pour un modèle statistique serait essentiellement équivalent à maximiser l'entropie d'un système thermodynamique. Autrement dit, l'approche fondée sur la théorie de l'information correspondrait à l'application du deuxième principe de la thermodynamique.
Notes et références
- Cameron et Trivedi 2005, p. 278-279
- Burnham et Anderson 2002, §6.4.5
- Burnham et Anderson 2002
- Burnham et Anderson 2002, §2.12.4
- Claeskens et Hjort 2008, §8.3
- Burnham et Anderson 2004
- Brockwell et Davis 1991, p. 273
- Burnham et Anderson 2002, p. 12, 63
- Wood 2006, §2.1.4
- Cameron et Trivedi 2005, p. 279
- Akaike 1974
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Akaike information criterion » (voir la liste des auteurs).
Bibliographie
- (en) Hirotugu Akaike, « Information theory and an extension of the maximum likelihood principle », dans Second International Symposium on Information Theory, , 267-281 p.
- (en) Hirotugu Akaike, « A new look at the statistical model identification », IEEE Transactions on Automatic Control, vol. 19, no 6, , p. 716-723 (DOI 10.1109/TAC.1974.1100705)
- (en) Peter J. Brockwell et Richard A. Davis, Time Series : Theory and Methods, New York/Berlin/Paris etc., Springer, , 577 p. (ISBN 0-387-97429-6)
- (en) K. P. Burnham et D. R. Anderson, Model Selection and Multimodel Inference : A Practical Information-Theoretic Approach, Springer-Verlag, (ISBN 0-387-95364-7)
- (en) K. P. Burnham et D. R. Anderson, « Multimodel inference: understanding AIC and BIC in Model Selection », Sociological Methods and Research, , p. 261–304 (url=http://www.sortie-nd.org/lme/Statistical%20Papers/Burnham_and_Anderson_2004_Multimodel_Inference.pdf)
- (en) Colin Cameron et Pravin Trivedi, Microeconometrics : Methods And Applications, Cambridge University Press, , 1056 p. (ISBN 978-0-521-84805-3, lire en ligne)
- (en) G. Claeskens et N. L. Hjort, Model Selection and Model Averaging, Cambridge, .
- (en) C. M. Hurvich et C.-L. Tsai, « Regression and time series model selection in small samples », Biometrika, vol. 76, , p. 297–307.
- (en) N. Sugiura, « Further analysis of the data by Akaike’s information criterion and the finite corrections », Communications in Statistics - Theory and Methods, vol. A7, , p. 13–26.
- (en) S. N. Wood, Generalized Additive Models, CRC Press, .
- (en) Y. Yang, « Can the strengths of AIC and BIC be shared? », Biometrika, vol. 92, , p. 937–950.