Entropie croisée
En théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence .
L'entropie croisĂ©e pour deux distributions et sur le mĂȘme espace probabilisĂ© est dĂ©finie de la façon suivante :
oĂč est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Pour et discrets, cela signifie
La formule est analogue pour des variables aléatoires continues :
NB: La notation est parfois utilisées à la fois pour l'entropie croisée et l'entropie conjointe de et .
Minimisation de l'entropie croisée
La minimisation de l'entropie croisée est souvent utilisée en optimisation et en estimation de probabilité d'événements rares ; voir méthode de l'entropie croisée.
Quand on compare une distribution avec une distribution de référence , l'entropie croisée et la divergence de Kullback-Leibler sont identiques à une constante additive prÚs (quand est fixé): les deux atteignent leur minimum lorsque , ce qui donne pour la divergence KL, et pour l'entropie croisée.
Cependant, comme expliquĂ© dans l'article divergence de Kullback-Leibler, la distribution est parfois la loi fixĂ©e a priori, et la distribution est optimisĂ©e pour ĂȘtre la plus proche possible de , sous certaines contraintes. Dans ce cas les deux minimisations ne sont pas Ă©quivalentes. Cela conduit Ă des ambiguĂŻtĂ©s dans la littĂ©rature, avec des auteurs tentant de rĂ©duire la confusion en dĂ©finissant l'entropie croisĂ©e par plutĂŽt que par .
Références
- (en) Cet article est partiellement ou en totalitĂ© issu de lâarticle de WikipĂ©dia en anglais intitulĂ© « Cross entropy » (voir la liste des auteurs).