AccueilđŸ‡«đŸ‡·Chercher

Suite aléatoire

En mathĂ©matiques, une suite alĂ©atoire, ou suite infinie alĂ©atoire, est une suite de symboles d'un alphabet ne possĂ©dant aucune structure, rĂ©gularitĂ©, ou rĂšgle de prĂ©diction identifiable. Une telle suite correspond Ă  la notion intuitive de nombres tirĂ©s au hasard. La caractĂ©risation mathĂ©matique de cette notion est extrĂȘmement difficile, et a fait l'objet d'Ă©tudes et de dĂ©bats tout au long du XXe siĂšcle. Une premiĂšre tentative de dĂ©finition mathĂ©matique (insatisfaisante) a Ă©tĂ© rĂ©alisĂ©e en 1919 par Richard von Mises. Ce fut l'avĂšnement de la thĂ©orie de la calculabilitĂ©, dans les annĂ©es 1930, et de la thĂ©orie algorithmique de l'information qui permit d'aboutir dans les annĂ©es 1970 — au terme d'une succession de travaux menĂ©s notamment par AndreĂŻ Kolmogorov, Gregory Chaitin, et Per Martin-Löf — Ă  des dĂ©finitions faisant aujourd'hui consensus (bien que toujours non tout Ă  fait unanime).

Cette suite est-elle aléatoire ?

Les définitions actuellement acceptées (démontrées équivalentes) du caractÚre aléatoire d'une suite sont les suivantes[1] :

  • une suite alĂ©atoire ne doit possĂ©der aucune rĂ©gularitĂ© « exceptionnelle et effectivement testable » (Martin-Löf 1966[2]) ;
  • une suite alĂ©atoire doit possĂ©der un « contenu informationnel incompressible » (Levin 1974[3], Chaitin 1975[4]) ;
  • une suite alĂ©atoire doit ĂȘtre imprĂ©visible, c'est-Ă -dire qu'aucune « stratĂ©gie effective » ne peut mener Ă  un « gain infini » si l'on « parie » sur les termes de la suite (Claus-Peter Schnorr 1971[5]).

Chacun des termes employés dans les définitions ci-dessus possÚde une définition mathématique rigoureuse.

L'ensemble des suites alĂ©atoires sur un alphabet quelconque peut ĂȘtre reprĂ©sentĂ© par celles n'utilisant que les chiffres « 0 » ou « 1 » qui peuvent elles-mĂȘmes ĂȘtre mises en relation bijective avec l'ensemble des nombres rĂ©els dont le dĂ©veloppement numĂ©rique Ă©crit en notation binaire est constituĂ© de chiffres « alĂ©atoires ». De fait, la quasi-totalitĂ© des Ă©tudes et dĂ©finitions mathĂ©matiques concernant les suites alĂ©atoires sont effectuĂ©es en utilisant la traduction de la suite en un nombre rĂ©el, compris entre 0 et 1, Ă©crit en binaire, donnant ainsi une simple suite de 0 et de 1.

Bien que trÚs fructueuses sur le plan théorique, et menant à d'intéressants corollaires et propriétés, ces définitions sont en fait peu applicables en pratique pour tester le caractÚre aléatoire d'une véritable suite. Malgré tout, ces définitions commencent à trouver des applications théoriques dans les domaines de la physique[6], de la biologie[7] ou de la philosophie.

Problématique et historique

L'histoire de la formalisation mathématique de cette notion permet de comprendre les problÚmes et les subtilités qui interviennent quand il s'agit de définir la notion d'aléatoire.

Tout d'abord, une dĂ©finition d'une suite alĂ©atoire ne doit pas ĂȘtre trop stricte (aboutissant Ă  une notion vide), ou au contraire trop laxiste, intĂ©grant des suites qui ne sont pas — Ă  l'Ă©vidence — alĂ©atoires. Ensuite, la dĂ©finition doit ĂȘtre prĂ©cise et ne laisser aucune notion non rigoureusement dĂ©finie intervenir (mĂȘme indirectement) dans la dĂ©finition.

La premiÚre tentative de définition, en 1919 par Richard von Mises, péchait sur les deux points. Selon von Mises, une suite constituée de 0 et de 1 est aléatoire si et seulement si toute sous-suite extraite « selon des moyens raisonnables » (ce qu'il appelait des « collectifs ») présente autant de 0 que de 1. Von Mises ne réussit jamais à mathématiser rigoureusement la notion de « moyen raisonnable » pour extraire une sous-suite. De plus, en 1939, Jean Ville démontra qu'aucune suite ne répond à la définition de von Mises (notion vide)[8].

Karl Popper, en 1935, essaya de partir sur une idée semblable à celle de von Mises, mais plus précisément définie. L'idée est d'extraire une sous-suite d'une suite donnée à partir une autre suite quelconque . On extrait de la suite le symbole suivant le premier de la suite, puis le symbole suivant le suivant, etc. Une suite est dite aléatoire si quelle que soit la suite , les fréquences de 0 et de 1 sont égales dans les sous-suites extraites. A l'inverse de la définition de von Mises, cette définition fut prouvée trop faible, toujours par Jean Ville, qui fournit des contre-exemples de suites visiblement non aléatoires répondant à cette définition.

En 1940, le mathĂ©maticien Alonzo Church mit Ă  profit la thĂ©orie de la calculabilitĂ© (dont il est un des pĂšres) pour prĂ©ciser la dĂ©finition de von Mises. Il dĂ©finit la notion de « moyen raisonnable » par « peut ĂȘtre extraite par une fonction rĂ©cursive ». Cette dĂ©finition Ă©choua Ă©galement, car il s'avĂšre que les sous-suites dĂ©finies ainsi sont dĂ©nombrables. Or, Jean Ville a dĂ©montrĂ©, toujours en 1939, que si l'ensemble des sous-suites dans une dĂ©finition de type von Mises est dĂ©nombrable, alors il existe des suites qui rĂ©pondent Ă  la dĂ©finition, mais qui comportent plus de 1 que de 0 dans tout dĂ©but de suite.

À ce point, la communautĂ© des mathĂ©maticiens, Jean Ville et Émile Borel en tĂȘte, doutait qu'il fĂ»t jamais possible de trouver une dĂ©finition satisfaisante Ă  la notion de suite alĂ©atoire (voir Paradoxe du hasard indĂ©finissable).

En 1965, Kolmogorov proposa une définition fondée sur la notion de complexité qui allait s'avérer fructueuse, mais encore insuffisante en l'état : est aléatoire tout suite infinie dont la complexité de Kolmogorov est maximale. Il manquait seulement la notion de programme auto-délimité (voir la définition de Levin-Chaitin) pour aboutir à une définition correcte. En l'état, cette définition menait de nouveau à une notion vide.

C'est à partir de 1966, avec la proposition de Per Martin-Löf, et avec le raffinement de la proposition de Kolmogorov par Gregory Chaitin et Leonid Levin, que des définitions solides commencent à apparaßtre.

Paradoxe du hasard indéfinissable

Au moment, avant la Seconde Guerre mondiale, oĂč la communautĂ© scientifique ne croyait plus en la possibilitĂ© d'une dĂ©finition formelle d'une suite alĂ©atoire, Émile Borel a proposĂ© un paradoxe selon lequel la dĂ©finition du hasard est par nature impossible.

En effet, si l'on conçoit intuitivement une suite alĂ©atoire comme une suite ne possĂ©dant absolument aucune caractĂ©ristique particuliĂšre, alors le simple fait de dĂ©finir une suite alĂ©atoire donne une caractĂ©ristique aux suites rĂ©pondant Ă  la dĂ©finition, qui est le fait d'ĂȘtre « alĂ©atoire ». Donc le simple fait de dĂ©finir l'alĂ©atoire est paradoxal par rapport Ă  sa dĂ©finition intuitive.

Borel exhibe donc une sorte de hiérarchie nécessaire, et infinie, de définition de l'aléatoire. Si l'on propose une définition D0 de l'aléatoire, alors une autre définition D1 devient nécessaire, excluant les suites définies comme aléatoires par D0 et ainsi de suite[9].

Les dĂ©finitions formelles actuelles du concept de suite alĂ©atoire "rĂ©solvent" ce paradoxe de Borel en s'arrĂȘtant volontairement Ă  un certain niveau dans la hiĂ©rarchie, sur lequel les mathĂ©maticiens se sont accordĂ©s pour dire qu'il correspond Ă  une dĂ©finition raisonnable de ce concept, mĂȘme si le paradoxe de Borel reste valable dans l'absolu.

Définitions mathématiques

Définition au sens de Martin-Löf

Une suite est alĂ©atoire au sens de Martin-Löf si elle ne possĂšde aucune propriĂ©tĂ© « exceptionnelle et effectivement vĂ©rifiable », c'est-Ă -dire une propriĂ©tĂ© pouvant ĂȘtre vĂ©rifiĂ©e par une fonction rĂ©cursive, au sens de la thĂ©orie de la calculabilitĂ© (autrement dit un algorithme).

La dĂ©finition de Martin-Löf utilise la bijection suite ↔ rĂ©el. Par consĂ©quent, un ensemble de suites correspond Ă  un ensemble de points sur le segment rĂ©el [0, 1]. De plus, les ensembles de suites contenant des sĂ©quences de bits dĂ©finies (pattern) correspondent Ă  des rĂ©unions d'intervalles sur ce segment. Ces intervalles sont tous de la forme [i, j] avec i et j de la forme , p et q Ă©tant des entiers naturels. Par exemple, l'ensemble des suites commençant par '1' ('1XXXXXX...') est l'intervalle . L'ensemble des suites dont le premier bit indĂ©fini, les deux bits suivants '01', et le reste indĂ©fini ('X01XXXXXX...') est la rĂ©union des intervalles et , etc.

Le principe de la dĂ©finition est de construire (rĂ©cursivement) une liste infinie d'ensembles de suites (donc chaque correspond Ă  une rĂ©union d'intervalles), qui vont dĂ©finir une (ou plusieurs) « propriĂ©tĂ© exceptionnelle ». La mesure de doit ĂȘtre majorĂ©e par , et doit ĂȘtre un sous-ensemble de . La suite des ensembles doit ĂȘtre rĂ©cursivement Ă©numĂ©rable. On dit qu'une suite possĂšde une propriĂ©tĂ© exceptionnelle et effectivement vĂ©rifiable, dĂ©finie par pour un niveau m, si la suite appartient Ă  l'ensemble .

Par définition, la mesure de tend vers 0 quand m tend vers l'infini, ce qui justifie le terme « exceptionnel » pour cette propriété. Le terme « effectivement vérifiable » provient de la définition récursive de qui assure que l'appartenance à est « effectivement » testable par une machine de Turing, en un temps fini pour m fini (m est généralement fonction du nombre d'éléments à tester dans la suite).

Par définition, une suite qui n'appartient à aucun ensemble constructible selon le procédé ci-dessus, et donc qui ne possÚde aucune « propriété exceptionnelle et effectivement vérifiable », est une suite aléatoire au sens de Martin-Löf (dite parfois ML-aléatoire).

On démontre qu'il existe une liste récursive d'ensembles particuliÚre qui teste à elle seule l'ensemble de toutes les propriétés exceptionnelles définissables au sens de Martin-Löf. Il s'agit d'un test universel d'aléatoirité.

DĂ©finition au sens de Levin/Chaitin

La théorie algorithmique de l'information, développée par Ray Solomonoff et Andreï Kolmogorov dans les années 1960, a rendu possible de définir, de maniÚre absolue, la notion de contenu en information d'une suite : il s'agit de la complexité de Kolmogorov. Cette mesure est définie comme étant la longueur du plus petit programme nécessaire pour engendrer la suite. Il est démontré que cette mesure ne dépend pas fondamentalement de la machine utilisée pour coder et exécuter le programme, à une constante additive prÚs, ce qui justifie son caractÚre absolu[10].

« Sur la base de ces considĂ©rations, il peut apparaĂźtre naturel de dĂ©finir une suite sans rĂ©gularitĂ©, ou suite finie alĂ©atoire, comme une suite qui pour ĂȘtre calculĂ©e demande en gros un programme aussi long qu'elle mĂȘme[11]. »

En effet, la suite '01010101...', qui est visiblement non alĂ©atoire est descriptible en peu de mots : « rĂ©pĂ©ter 01 Ă  l'infini » (ce qui est l'Ă©quivalent d'un programme), alors que la suite '0110100101111001...' n'est descriptible qu'avec le programme : « Ă©crire '0110100101111001...' » qui est un programme au moins aussi long que la suite elle-mĂȘme.

La complexité de Kolmogorov n'était toutefois pas tout à fait suffisante pour définir rigoureusement une suite aléatoire. Le problÚme est que la complexité de Kolmogorov est fondée sur des programmes non auto-délimités (c'est-à-dire que la fin du programme n'est pas provoquée par une instruction du programme). Dans ce cas, il est possible par exemple de concaténer deux programmes, ce qui rend le poids d'un programme non univoque.

La dĂ©finition de Chaitin-Levin utilise la complexitĂ© de Kolmogorov oĂč il est spĂ©cifiĂ© que les programmes doivent ĂȘtre auto-dĂ©limitĂ©s. Cette complexitĂ© est nommĂ©e complexitĂ© de Chaitin-Levin.

Une suite est aléatoire au sens de Chaitin-Levin si et seulement si la suite est minorée ( désigne les n premiers symboles d'une suite s, et la complexité de Chaitin-Levin)[12]. Chaitin a démontré récemment que cette définition est équivalente à : .

DĂ©finition au sens de Schnorr

La dĂ©finition est fondĂ©e sur la thĂ©orie des martingales. L'idĂ©e est de dĂ©finir une suite alĂ©atoire comme une suite sur laquelle aucune martingale ne peut ĂȘtre gagnante.

Cette idée avait déjà été exploitée par Jean Ville en 1939, mais il n'utilisait pas la notion de calculabilité pour définir une martingale. Sans précautions sur la calculabilité de la martingale, cette définition mÚne à exclure toutes les suites possibles et aboutit à une notion vide.

Le mathĂ©maticien allemand Claus-Peter Schnorr (en) reprit cette idĂ©e en 1971 en posant des conditions prĂ©cises sur la calculabilitĂ© de la martingale. En fonction de ces conditions, on aboutit Ă  des dĂ©finitions plus ou moins fortes (mais non vides) de la notion de suite alĂ©atoire. Parmi ces possibilitĂ©s, l'une produit exactement Ă  la mĂȘme classe de suites alĂ©atoires que la dĂ©finition de Martin-Löf, ou de Levin-Chaitin.

Justifications et doutes résiduels concernant ces définitions

Le fait que chacune des trois définitions soit fondée sur des idées intuitivement en rapport avec la notion de suite aléatoire, et surtout qu'elles se soient révélées mathématiquement équivalentes alors qu'elles sont fondées sur des idées différentes, et imaginées indépendamment les unes des autres, mÚne à penser que ces définitions touchent à quelque chose de « fondamental » concernant cette notion.

De plus, ces dĂ©finitions possĂšdent une certaine « robustesse » (elles restent valables et Ă©quivalentes mĂȘme si l'on modifie certains Ă©lĂ©ments non fondamentaux de leur dĂ©finition), une fĂ©conditĂ© mathĂ©matique, et une pĂ©rennitĂ© dans le temps que l'on attend de dĂ©finitions fondamentalement justes[1].

Toutefois, comparativement Ă  d'autres thĂšses fondamentales du mĂȘme domaine (ex. : la thĂšse de Church), et sur ces mĂȘmes critĂšres, les dĂ©finitions d'une suite alĂ©atoire apparaissent moins bien fondĂ©es[1].

Certains mathĂ©maticiens, comme Schnorr lui-mĂȘme, pensent que les dĂ©finitions de type Martin-Löf sont trop strictes et imposent trop de conditions aux suites alĂ©atoires. Selon Schnorr[13], seules les propriĂ©tĂ©s « qui peuvent ĂȘtre testĂ©es Ă  l'aide d'expĂ©riences statistiques rĂ©elles », qui ont « un sens physique », devraient ĂȘtre prises en compte. Cela revient Ă  remplacer, dans la dĂ©finition de Martin-Löf, la condition que la suite des soit rĂ©cursivement Ă©numĂ©rable, par la condition que les ensembles soient des ensembles rĂ©cursifs. Avec cette dĂ©finition, certaines suites qui sont non alĂ©atoires au sens de Martin-Löf sont dĂ©finies comme alĂ©atoires, car on ne pourra jamais mettre en Ă©vidence en pratique leur caractĂšre calculable, mĂȘme si elles sont calculables en thĂ©orie.

Aléatoire et incompressibilité

La définition de Levin/Chaitin est totalement équivalente à dire qu'une suite aléatoire est une suite incompressible (au sens de compression de données informatiques), ce qui se peut comprendre au sens intuitif qu'aucun terme n'est déductible des précédents et n'est redondant.

Pour une suite finie, l'incompressibilitĂ© s'exprime informellement par l'Ă©galitĂ© de taille (en octets par exemple) de la suite et du plus petit algorithme permettant de l'engendrer. Pour une suite infinie comme le sont les dĂ©cimales d'un nombre rĂ©el, l'aspect alĂ©atoire/incompressible s'exprimera plus rigoureusement par : Il existe une constante C, telle que pour tout entier n, la taille du plus petit programme engendrant les n premiers octets de la suite est supĂ©rieure ou Ă©gale Ă  n – C octets, C Ă©tant une constante mathĂ©matique dĂ©pendant du langage informatique (Fortran, C, Java, etc.) ou logique (codage particulier des machines de Turing, etc.) considĂ©rĂ©.

Ces critÚres sont une traduction directe de la complexité de Levin/Chaitin.

Propriétés des suites aléatoires

Les suites aléatoires, telles que définies ci-dessus, possÚdent un certain nombre de propriétés démontrées (attention : la réciproque des propriétés ci-dessous est souvent fausse) :

  • un nombre rĂ©el au dĂ©veloppement numĂ©rique alĂ©atoire est normal en toute base et transcendant ;
  • une suite alĂ©atoire ne peut ĂȘtre dĂ©crite ou gĂ©nĂ©rĂ©e par un algorithme (elle n'est pas rĂ©cursive) ;
  • une suite alĂ©atoire satisfait les critĂšres de Von Mises et Popper (voir section "historique"), c'est-Ă -dire que toute sous-suite extraite de maniĂšre effective possĂšde la propriĂ©tĂ© de convergence des frĂ©quences ;
  • les nombres rĂ©els dont le dĂ©veloppement numĂ©rique est non alĂ©atoire forment eux aussi un ensemble non dĂ©nombrable et dense dans , mais de mesure nulle.

En pratique : caractÚre aléatoire d'une suite de symboles

Beaucoup de suites comportent des symboles[14] (nombres, mais aussi lettres, mots, pixels, rĂ©sultats d'un tirage au sort, etc.) ayant des probabilitĂ©s et des contraintes d'apparition, tout en s’écartant de l’idĂ©al des dĂ©finitions vues prĂ©cĂ©demment.

Ainsi, une suite oĂč il n’y aurait pas Ă©quiprobabilitĂ©s entre ses symboles peut ĂȘtre vue comme dĂ©fectueuse en cryptanalyse[15]. Les codes de CĂ©sar ou de VigenĂšre sont dĂ©chiffrables grĂące Ă  cette caractĂ©ristique qui dĂ©voile une faille. Dans un autre domaine, une telle suite serait vue comme « compressible », par exemple « zippable » avec un taux de compression apprĂ©ciable. Une source avec contraintes[14] voit les probabilitĂ©s de ses symboles changer au fur et Ă  mesure que ses contraintes sont connues : son entropie (et donc le caractĂšre alĂ©atoire) de cette source diminue et ainsi s’écarte notablement d’un hasard complet.

Une source de symboles binaires pseudo alĂ©atoires n’a rien d’alĂ©atoire, au moins pour le concepteur, car le comportement de celle-ci est prĂ©dĂ©terminĂ© dans un cĂąblage Ă©lectronique. Paradoxalement, surtout si la longueur de la sĂ©quence pseudo alĂ©atoire est longue, la source est suffisamment ergodique (dans le sens particulier oĂč chaque sous-suite possible de longueur a une probabilitĂ© d’apparition voisine de [14]) et est considĂ©rĂ©e comme utile pour son emploi lors de tests.

Le caractĂšre peu ou trĂšs alĂ©atoire d’une suite de symboles dĂ©pend du contexte (cryptographie, compression de donnĂ©es, tests et autres) et explique la multiplicitĂ© des approches pour dĂ©finir un hasard parfait.

Les suites aléatoire de nombres utilisées couramment dans les simulations sur ordinateur (méthode de Monte Carlo) ne satisfont qu'approximativement ces propriétés ; ce sont des suites pseudo-aléatoires, générées par des algorithmes déterministes.

Notes et références

  1. Jean-Paul Delahaye, Information, Complexité et Hasard, Hermes Science Publishing, (ISBN 2-7462-0026-0).
  2. (en) P. Martin-Löf, « The definition of random sequences », Information and Control, vol. 9,‎ , p. 602-619 (DOI 10.1016/S0019-9958(66)80018-9).
  3. (en) L. Levin, « On the notion of a random sequence », Soviet Mathematics Doklady, vol. 14,‎ , p. 1413-1416.
  4. (en) G.Chaitin, « Randomness and Mathematical Proof », Scientific American, vol. 232, no. 5,‎ , pp. 47–53 (www.jstor.org/stable/24949798)
  5. (en) C. P. Schnorr, « A unified approach to the definition of a random sequence », Mathematical Systems Theory, vol. 5, no 3,‎ , p. 246-258 (DOI 10.1007/BF01694181).
  6. (en) Karl Svozil, Randomness & Undecidability in Physics, World Scientific, 1993 .
  7. (en) G. Chaitin, « Toward a Mathematical Definition of Life », dans R. D. Levine et M. Tribus, The Maximum Entropy Formalism, MIT Press, (lire en ligne), p. 477-498.
  8. J. Ville, Étude critique de la notion de collectif, Paris, Gauthier-Villars, .
  9. Cité dans G. Chaitin, Hasard et complexité en mathématiques, Flammarion, 2009.
  10. Il s'agit du théorÚme d'invariance.
  11. (en) G. J. Chaitin, « On the length of programs for computing finite binary sequence », J.A.C.M., vol. 13,‎ , p. 547-569 (lire en ligne).
  12. Ce qui n'est pas nécessairement vrai avec la complexité de Kolmogorov K(s), car on peut montrer que pour toute suite il existe une infinité de n tels que .
  13. (en) C. P. Schnorr, « A survey of the Theory of Random Sequence », dans Basic Problems in Methodology and Linguistics, Butts Hintikka, .
  14. Alexandru Spataru, « Fondements de la thĂ©orie de la transmission de l’information », Presses Polytechniques Romandes, , p. 13-14.
  15. Ce critĂšre est loin d'ĂȘtre unique, aussi la rĂ©ciproque est fausse : l'Ă©quiprobabilitĂ© est nĂ©cessaire mais insuffisante dans de nombreux cas. .

Article connexe

Générateur de nombres aléatoires

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.