AccueilđŸ‡«đŸ‡·Chercher

Entropie croisée

En théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence .

L'entropie croisĂ©e pour deux distributions et sur le mĂȘme espace probabilisĂ© est dĂ©finie de la façon suivante :

,

oĂč est l'entropie de , et est la divergence de Kullback-Leibler entre et .

Pour et discrets, cela signifie

La formule est analogue pour des variables aléatoires continues :

NB: La notation est parfois utilisées à la fois pour l'entropie croisée et l'entropie conjointe de et .

Minimisation de l'entropie croisée

La minimisation de l'entropie croisée est souvent utilisée en optimisation et en estimation de probabilité d'événements rares ; voir méthode de l'entropie croisée.

Quand on compare une distribution avec une distribution de référence , l'entropie croisée et la divergence de Kullback-Leibler sont identiques à une constante additive prÚs (quand est fixé): les deux atteignent leur minimum lorsque , ce qui donne pour la divergence KL, et pour l'entropie croisée.

Cependant, comme expliquĂ© dans l'article divergence de Kullback-Leibler, la distribution est parfois la loi fixĂ©e a priori, et la distribution est optimisĂ©e pour ĂȘtre la plus proche possible de , sous certaines contraintes. Dans ce cas les deux minimisations ne sont pas Ă©quivalentes. Cela conduit Ă  des ambiguĂŻtĂ©s dans la littĂ©rature, avec des auteurs tentant de rĂ©duire la confusion en dĂ©finissant l'entropie croisĂ©e par plutĂŽt que par .

Voir aussi

Références

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.