AccueilđŸ‡«đŸ‡·Chercher

Redondance (théorie de l'information)

En thĂ©orie de l’information, la redondance correspond au nombre de bits nĂ©cessaires pour transmettre un message auquel on soustrait le nombre de bits correspondant aux informations rĂ©ellement contenues dans ce mĂȘme message. Officieusement, la redondance correspond Ă  l’« espace » utilisĂ© mais non occupĂ© pour transmettre certaines donnĂ©es. La compression de donnĂ©es permet de rĂ©duire ou d’éliminer la redondance que l’utilisateur ne dĂ©sire pas conserver, alors que les sommes de contrĂŽle permettent d’ajouter une redondance souhaitĂ©e pour les besoins du code correcteur lorsque l’utilisateur communique sur un canal bruyant Ă  capacitĂ© limitĂ©e.

DĂ©finition quantitative

Dans la description de la redondance de donnĂ©es brutes, le taux d’entropie d’une source d’informations correspond Ă  son entropie moyenne par symbole. Pour les sources dites sans mĂ©moire, ce taux correspond simplement Ă  l’entropie de chaque symbole, tandis que, dans la plupart des cas gĂ©nĂ©raux d’un processus stochastique, il correspond Ă 

la limite, quand n tend vers l’infini, de l’entropie conjointe des premiers symboles n divisĂ©e par n. En thĂ©orie de l’information, on parle gĂ©nĂ©ralement de "taux" ou de l’"entropie" d’une langue. Cela s’applique, par exemple, lorsque la source d’informations est en prose anglaise. Le taux d’une source sans mĂ©moire est simplement , Ă©tant donnĂ© que, par dĂ©finition, il n’existe aucune interdĂ©pendance entre les messages successifs d’une source sans mĂ©moire.

Le taux absolu d’une langue ou d’une source correspond tout simplement au

logarithme de la cardinalitĂ© de l’espace du message, ou de l’alphabet utilisĂ©. (Cette formule est parfois nommĂ©e Entropie de Hartley.) Il correspond au taux maximal possible d’informations qui peuvent ĂȘtre transmises grĂące Ă  cet alphabet. (Le logarithme doit ĂȘtre ramenĂ© Ă  une base appropriĂ©e pour l’unitĂ© de mesure utilisĂ©e.) Le taux absolu Ă©quivaut au taux rĂ©el si la source est sans mĂ©moire et suit une loi uniforme discrĂšte.

La redondance absolue peut alors ĂȘtre dĂ©finie comme Ă©tant

la différence entre le taux et le taux absolu.

La quantitĂ© est appelĂ©e redondance relative et offre le taux de compression de donnĂ©es maximal possible, lorsqu’elle est exprimĂ©e comme Ă©tant le pourcentage par lequel la taille d’un fichier peut ĂȘtre rĂ©duite. (Lorsqu’elle est exprimĂ©e comme Ă©tant le ratio entre la taille du fichier original et celle du fichier compressĂ©, la quantitĂ© donne le taux maximal de compression qui peut ĂȘtre atteint.) L’efficience est complĂ©mentaire au concept de redondance relative, et est dĂ©finie par pour que . Une source sans mĂ©moire obĂ©issant Ă  une loi discrĂšte uniforme ne dispose d’aucune redondance (et donc d’une efficience de 100 %), et ne peut ĂȘtre compressĂ©e.

Autres notions de redondance

L’information mutuelle, ou une variante normalisĂ©e, permet de mesurer la redondance entre deux variables. La corrĂ©lation totale donne la mesure de la redondance entre plusieurs variables.

La redondance de donnĂ©es compressĂ©es correspond Ă  la diffĂ©rence entre l’espĂ©rance mathĂ©matique de la longueur des donnĂ©es compressĂ©es de messages (ou le taux de donnĂ©es espĂ©rĂ© ) et l’entropie (ou le taux d’entropie ). (Nous supposons ici que les donnĂ©es sont ergodiques et stationnaires, comme une source sans mĂ©moire.) Bien que la diffĂ©rence de taux peut ĂȘtre aussi arbitrairement faible que augmentĂ©, cela ne s’applique pas Ă  la diffĂ©rence de taux rĂ©elle bien qu’elle puisse thĂ©oriquement ĂȘtre majorĂ©e de 1 dans le cas de sources sans mĂ©moire Ă  entropie finie.

Voir aussi

Références

  • (en) Fazlollah M. Reza, An Introduction to Information Theory, New York, Dover, (1re Ă©d. 1961) (ISBN 0-486-68210-2)
  • (en) Bruce Schneier, Applied Cryptography : Protocols, Algorithms, and Source Code in C, New York, John Wiley & Sons, Inc., , 758 p. (ISBN 0-471-12845-7)
  • (en) B Auffarth, M. Lopez-Sanchez et J. Cerquides, Advances in Data Mining. Applications and Theoretical Aspects, Springer, , 248–262 p., « Comparison of Redundancy and Relevance Measures for Feature Selection in Tissue Classification of CT images »
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.