Oméga de Chaitin
En thĂ©orie algorithmique de l'information, une constante OmĂ©ga de Chaitin (nombres dĂ©finis et Ă©tudiĂ©s par Gregory Chaitin) caractĂ©rise de maniĂšre univoque et mathĂ©matiquement prĂ©cise un nombre rĂ©el, qui possĂšde la particularitĂ© d'ĂȘtre alĂ©atoire et de ne pas ĂȘtre calculable au sens de Turing : un algorithme donnĂ© ne permet de calculer qu'un nombre fini de ses dĂ©cimales. Jusqu'Ă la dĂ©finition de ce nombre, il n'existait pas d'exemple mathĂ©matiquement prĂ©cis et « concret » de suite alĂ©atoire[1].
Techniquement, il est dĂ©fini comme Ă©tant la probabilitĂ© quâun programme auto-dĂ©limitĂ©[2], gĂ©nĂ©rĂ© alĂ©atoirement, finisse par s'arrĂȘter. Les programmes en question sont associĂ©s Ă une machine de Turing universelle ou Ă un modĂšle de calcul donnĂ©. Il existe donc une infinitĂ© de constantes de Chaitin, chacune associĂ©e soit Ă une machine de Turing universelle donnĂ©e, soit Ă un modĂšle de calcul.
Cette dĂ©finition permet Ă©galement de coder, sous la forme la plus compacte possible, la solution du problĂšme de l'arrĂȘt pour tous les programmes d'un modĂšle de calcul donnĂ©. Comme il est possible de traduire la plupart des problĂšmes mathĂ©matiques en termes de programme informatique qui s'arrĂȘte ou non, la connaissance d'un nombre OmĂ©ga permet â en principe â de dĂ©montrer un grand nombre de thĂ©orĂšmes ou de conjectures mathĂ©matiques, dont certains encore non rĂ©solus Ă ce jour comme l'hypothĂšse de Riemann.
Ces nombres apportent un éclairage sur l'incomplétude des mathématiques, mise au jour par le célÚbre théorÚme de Gödel, ainsi que des éléments d'appréciation en ce qui concerne sa signification et sa portée.
DĂ©finition de la probabilitĂ© d'arrĂȘt
Soit PU le domaine d'une machine de Turing universelle U, c'est-Ă -dire l'ensemble des programmes p auto-dĂ©limitĂ©s pouvant ĂȘtre exĂ©cutĂ©s par U qui s'arrĂȘtent.
Par définition :
oĂč |p| est la longueur de p.
Ce nombre est un nombre rĂ©el, compris entre 0 et 1, reprĂ©sentant la probabilitĂ© d'arrĂȘt d'un programme dont les bits sont tirĂ©s alĂ©atoirement, un par un, jusqu'Ă obtenir la sĂ©quence de bits dĂ©finissant la limite du programme.
Importance du nombre Oméga dans la théorie algorithmique de l'information
Pourquoi ce nombre est-il défini ainsi ? Pourquoi est-il si important ?
Un des grands succĂšs de la thĂ©orie algorithmique de l'information est d'avoir permis la dĂ©finition rigoureuse de la notion de nombre alĂ©atoire, ou de suite alĂ©atoire. Selon cette thĂ©orie, un nombre est alĂ©atoire si et seulement s'il n'existe pas d'algorithme plus petit que la taille mĂȘme du nombre pour le gĂ©nĂ©rer. Pour poursuivre ce succĂšs et exercer la thĂ©orie, l'Ă©tape naturelle suivante Ă©tait de se demander s'il Ă©tait possible d'exhiber et donner un exemple de nombre alĂ©atoire ainsi dĂ©fini.
Paradoxalement, bien qu'un nombre rĂ©el sĂ©lectionnĂ© au hasard soit alĂ©atoire avec une probabilitĂ© de 1 (c'est-Ă -dire que quasiment tous les nombres rĂ©els sont alĂ©atoires), il est extrĂȘmement difficile d'en exhiber ou d'en dĂ©crire un.
En effet, pour exhiber un nombre, il faut soit le nommer, soit le décrire d'une maniÚre cohérente, et montrer que le nombre ainsi désigné « existe », possÚde un sens, ce qui n'est absolument pas évident a priori notamment à cause du paradoxe de Berry, et n'est pas ambigu (désigne un et un seul nombre). Ou alors, il faut donner un algorithme pour le construire et le générer, mais cela est par définition impossible pour un nombre aléatoire. Enfin, et surtout, il faut prouver que le nombre décrit est bien aléatoire.
Il est encore plus difficile d'exhiber un tel nombre qui possĂšde une signification et des propriĂ©tĂ©s mathĂ©matiques prĂ©cises, sans ĂȘtre une simple suite de chiffres alĂ©atoires sans signification.
Le nombre OmĂ©ga franchit toutes ces difficultĂ©s, et est l'exemple le plus emblĂ©matique de nombre incompressible, alĂ©atoire, qui peut ĂȘtre dĂ©signĂ© sans ambiguĂŻtĂ©, et possĂšde un sens et des propriĂ©tĂ©s profondes et intĂ©ressantes. Ă ce titre, il constitue un Ă©lĂ©ment trĂšs important de la thĂ©orie algorithmique de l'information.
Origine, définition et construction du nombre Oméga
Le nombre de Borel
Ămile Borel s'est intĂ©ressĂ© Ă la notion « d'accessibilitĂ© » et de dĂ©finition d'un nombre. Selon Borel, pour qu'un nombre soit « bien spĂ©cifiĂ© », il faut d'une part que « deux mathĂ©maticiens, sâils en parlent entre eux, soient certains quâils parlent du mĂȘme nombre » et qu'il soit un « vĂ©ritable âĂȘtreâ mathĂ©matique » qui doit « pour ĂȘtre intĂ©ressant aux yeux des mathĂ©maticiens, avoir au moins deux propriĂ©tĂ©s (en y comprenant celle au moyen de laquelle il a Ă©tĂ© dĂ©fini) »[3]. Il est effectivement trĂšs difficile pour un nombre purement alĂ©atoire de possĂ©der une autre propriĂ©tĂ© que sa propre mĂ©thode de construction.
D'autre part, Borel a imaginé en 1927 un nombre réel, le « nombre qui sait tout » (terminologie de G. Chaitin[Chaitin 2007 1]), résumant les réponses à toutes les questions formulables dans un langage donné, auxquelles on peut répondre par oui ou par non[4]. Cette liste de questions constitue une liste infinie, mais dénombrable, que l'on peut trier alphabétiquement. On peut alors constituer un nombre, unique et bien spécifié, dont la n-iÚme décimale binaire est la réponse à la n-iÚme question.
Ces deux idĂ©es contiennent les germes du nombre OmĂ©ga. Chaitin, qui connaĂźt trĂšs bien l'Ćuvre de Borel, reconnaĂźt s'ĂȘtre inspirĂ© de ces idĂ©es. Mais tout le travail de Chaitin va consister Ă transformer une idĂ©e mathĂ©matiquement inexploitable (car les questions et les rĂ©ponses ne peuvent ĂȘtre mathĂ©matiquement formalisĂ©es), en un vĂ©ritable « ĂȘtre mathĂ©matique », possĂ©dant de nombreuses propriĂ©tĂ©s dĂ©montrables, et deux caractĂ©ristiques a priori contradictoires : ĂȘtre « bien spĂ©cifiĂ© » et pourtant « inaccessible », non calculable et alĂ©atoire.
Le « nombre de Turing »
Si l'on recycle l'idĂ©e du « nombre qui sait tout » pour dĂ©finir un nombre dont la n-iĂšme dĂ©cimale rĂ©pond au problĂšme de l'arrĂȘt pour le n-iĂšme programme exĂ©cutable par une machine de Turing universelle, nous avons alors une dĂ©finition prĂ©cise d'un nombre et qui possĂšde un sens mathĂ©matique, car le problĂšme de l'arrĂȘt est formalisĂ©. De plus, Ă©tant donnĂ© que le problĂšme de l'arrĂȘt est indĂ©cidable (au sens algorithmique), il s'ensuit que ce nombre est non calculable, ce qui est une condition absolument nĂ©cessaire (mais non suffisante) pour qu'il soit alĂ©atoire. Enfin, injecter le problĂšme de l'arrĂȘt dans un nombre est susceptible de lui donner une importance fondamentale, car le problĂšme de l'arrĂȘt est au cĆur de problĂšmes fondamentaux des mathĂ©matiques (ceux par exemple liĂ©s au dixiĂšme problĂšme de Hilbert).
Tel quel, ce nombre n'est pas encore le nombre OmĂ©ga, car il n'est pas alĂ©atoire. En effet, ce nombre (que Chaitin nomme « nombre de Turing » en hommage Ă l'inventeur du problĂšme de l'arrĂȘt[Chaitin 2007 2]), est hautement redondant et compressible. Or, une des dĂ©finitions d'un nombre alĂ©atoire est prĂ©cisĂ©ment d'ĂȘtre incompressible[5]. Il faut donc trouver un moyen de compresser l'information contenue dans le nombre de Turing, et de la compresser au maximum possible.
Le nombre Oméga
Ici, nous avons quatre programmes possibles, correspondant aux quatre feuilles de l'arbre : "01(00)", "011(00)", "0101(00)", et "101(00)"
La procédure de génération aléatoire d'un programme consiste à tirer au sort chaque bifurcation dans cet arbre.
Pour comprendre comment sera compressĂ© le nombre OmĂ©ga, il est utile de voir pourquoi le nombre de Turing est hautement redondant. En fait, le nombre de Turing utilise N bits pour coder les rĂ©sultats de N programmes, alors que log2(N) bits sont suffisants. En effet, il suffit de connaĂźtre le nombre de programmes de N bits qui s'arrĂȘtent, sans savoir lesquels, pour dĂ©terminer les programmes qui s'arrĂȘtent ou non.
Voici comment : si l'on connaĂźt le nombre P de programmes de N bits qui s'arrĂȘtent, alors il suffit de gĂ©nĂ©rer tous les programmes de N bits, de faire tourner ces 2N programmes et de s'arrĂȘter quand P programmes seront arrĂȘtĂ©s (ce qui arrivera certainement dans un temps fini). On est alors sĂ»r que les programmes restants ne s'arrĂȘteront jamais. On connaĂźt donc les programmes qui s'arrĂȘtent et ceux qui ne s'arrĂȘtent pas. P est donc un nombre d'au plus N bits codant les rĂ©sultats du problĂšme de l'arrĂȘt pour 2N programmes.
Le nombre OmĂ©ga va utiliser cette idĂ©e pour encoder ces informations de maniĂšre efficace et incompressible. Le nombre de programmes d'une machine de Turing universelle donnĂ©e Ă©tant infini, il n'est pas possible de donner un nombre P de programmes qui s'arrĂȘtent (P serait dans la plupart des cas infini), mais on peut donner cette information par la proportion des programmes qui s'arrĂȘtent parmi tous les programmes, ou â ce qui revient au mĂȘme â la probabilitĂ© d'arrĂȘt d'un programme pris au hasard.
De la définition à la formule
Le nombre OmĂ©ga est donc dĂ©fini comme Ă©tant la probabilitĂ© qu'un programme, tirĂ© alĂ©atoirement, d'une machine de Turing universelle, s'arrĂȘte.
Le tirage aléatoire consiste à descendre aléatoirement dans l'arbre binaire représentant tous les programmes possibles pour une machine de Turing universelle U, jusqu'à tirer aléatoirement une séquence de fin, délimitant objectivement la fin de la représentation binaire du programme (voir figure ci-contre). En effet, la définition, et la formule, du nombre Oméga n'est valide que pour les programmes auto-délimités, c'est-à -dire contenant à leur fin une séquence de bits impossible à trouver dans le programme proprement dit. Le nombre de programmes de cette machine de Turing jusqu'à une profondeur N de l'arbre binaire (autrement dit, le nombre de programmes de longueur inférieure ou égale à N) est le nombre de feuilles de l'arbre.
Pour calculer la probabilitĂ© d'arrĂȘt (ou la proportion des programmes qui s'arrĂȘtent), il suffit Ă premiĂšre vue de « compter » le nombre de programmes « feuille » qui s'arrĂȘtent, et de diviser par le nombre total de feuilles, mais cela n'est vrai qu'Ă un niveau N donnĂ©. S'il existe un programme court dans l'arbre, on a beaucoup plus de chances de tomber alĂ©atoirement sur lui qu'un programme long : il faut donc « pondĂ©rer » l'arrĂȘt d'un programme p de taille |p| par 2â|p|. Plus un programme est long, plus son poids est faible.
La formule du nombre OmĂ©ga en dĂ©rive directement ; on additionne les poids pondĂ©rĂ©s de tous les programmes qui s'arrĂȘtent (PU est l'ensemble de dĂ©finition de la machine U, c'est-Ă -dire l'ensemble de tous les programmes qui retournent un rĂ©sultat et par consĂ©quent s'arrĂȘtent ; |p| est la longueur en bits du programme p) :
Cette somme converge et reste infĂ©rieure Ă 1, car les programmes sont auto-dĂ©limitĂ©s : aucun programme n'est le prolongement d'un autre programme (en intĂ©grant la sĂ©quence de fin). Par consĂ©quent, un programme court va empĂȘcher l'arbre de se dĂ©velopper aprĂšs lui : on peut donc lui donner sans danger de divergence le poids de la partie de l'arbre qu'il a empĂȘchĂ© de se dĂ©velopper, soit 2-|p|. En donnant le bon poids Ă chaque nĆud terminal, on dĂ©montre que la somme est majorĂ©e par 1, si l'on prend en compte tous les nĆuds. Cette propriĂ©tĂ© est dĂ©montrĂ©e par les inĂ©galitĂ©s de Kraft.
DĂ©termination de l'arrĂȘt des programmes Ă partir du nombre OmĂ©ga
Mais le vĂ©ritable but du nombre OmĂ©ga n'est pas de donner la probabilitĂ© d'arrĂȘt d'un programme d'une machine de Turing donnĂ©e. Son but est de compresser sous la forme la plus compacte possible l'information d'arrĂȘt de tous les programmes de cette machine de Turing. Il est donc nĂ©cessaire d'ĂȘtre en mesure de restituer ces informations Ă partir de la probabilitĂ© d'arrĂȘt.
Soit Ωn l'approximation d'un nombre OmĂ©ga consistant Ă prendre les n premiers bits de ce nombre OmĂ©ga. Comment, Ă©tant donnĂ© ce nombre Ωn, dĂ©terminer les programmes de longueur infĂ©rieure Ă n bits qui s'arrĂȘtent ou non ?
L'inégalité découle logiquement de la convergence de la somme associée à Ω.
Si maintenant on gĂ©nĂšre tous les programmes possibles de taille infĂ©rieure ou Ă©gale Ă n bits, et si on les fait exĂ©cuter simultanĂ©ment, on pourra calculer une approximation de plus en plus prĂ©cise de Ωn Ă chaque arrĂȘt d'une machine, en ajoutant , l Ă©tant la longueur du programme s'Ă©tant arrĂȘtĂ©, Ă l'approximation prĂ©cĂ©dente.
DĂšs que l'approximation de Ωn atteint une valeur telle que l'ajout du poids d'un programme quelconque non encore terminĂ© rendrait l'approximation supĂ©rieure ou Ă©gale Ă , nous pouvons ĂȘtre certain que les programmes restants ne se termineront jamais. Les programmes de longueur infĂ©rieure ou Ă©gale Ă n qui ne s'arrĂȘtent pas ont donc Ă©tĂ© identifiĂ©s dans un temps fini, Ă l'aide des n premier bits du nombre OmĂ©ga : Ωn[Li Vitanyi 1].
On Ă©tablit au passage la propriĂ©tĂ© : les n premiers bits d'un nombre OmĂ©ga sont nĂ©cessaires et suffisants pour dĂ©terminer l'arrĂȘt de tous les programmes de longueur infĂ©rieure Ă n bits.
Preuve que le nombre Oméga est incompressible, et donc aléatoire
Soit un nombre Ïn reprĂ©sentant le nombre le plus court possible permettant de dĂ©terminer le problĂšme de l'arrĂȘt pour tous les programmes jusqu'Ă une longueur de n bits.
Soit le programme COMPLEXE qui, en utilisant ce nombre, dĂ©termine la liste des machines qui sâarrĂȘtent de longueur infĂ©rieure ou Ă©gale Ă n bits, collectionne tous les rĂ©sultats de ces machines, et retourne un nombre x n'appartenant pas Ă cette liste. Le programme COMPLEXE s'arrĂȘte.
Par dĂ©finition, x ne peut ĂȘtre retournĂ© par un programme de taille infĂ©rieure ou Ă©gale Ă n. COMPLEXE retournant ce nombre, il possĂšde donc une taille supĂ©rieure Ă n. Comme COMPLEXE intĂšgre Ïn dans son programme, il s'ensuit que TAILLE(COMPLEXE) = TAILLE(Ïn) + constante > n[Li Vitanyi 2].
Le plus petit programme pour calculer les n premiers bits de Ω a une taille supĂ©rieure Ă n â constante, ce qui est la caractĂ©ristique d'un nombre alĂ©atoire au sens de Levin-Chaitin. OmĂ©ga est donc bien incompressible et alĂ©atoire.
Enjeux et propriétés du nombre Oméga
Preuves de problÚmes non résolus en mathématiques par un nombre Oméga
La connaissance d'un Oméga de Chaitin permettrait, en théorie, de résoudre certains problÚmes en théorie des nombres, dont certains non résolus à ce jour comme la conjecture de Goldbach et l'hypothÚse de Riemann[6].
Par exemple, la conjecture de Goldbach affirme que tout nombre pair plus grand que 2 est la somme de deux nombres premiers. Pour prouver cette conjecture Ă l'aide d'un nombre OmĂ©ga, il s'agirait de rĂ©aliser un programme qui recherche la dĂ©composition de tous les nombres pairs en somme de deux nombres premiers. Pour un nombre pair donnĂ©, il est possible pour un programme de dĂ©terminer si la conjecture est vraie ou fausse en un temps fini (soit en trouvant la somme, soit en Ă©puisant toutes les possibilitĂ©s sans en trouver, ce qui serait un contre-exemple Ă la conjecture). Si le programme trouve un contre-exemple, il s'arrĂȘte, sinon il continue de chercher un contre-exemple Ă l'infini.
Donc : si la conjecture de Goldbach est vraie, le programme ne s'arrĂȘte pas, si elle est fausse, le programme s'arrĂȘte (en retournant un contre-exemple).
En sachant si ce programme se termine ou non en utilisant le nombre Oméga, on pourrait donc savoir avec certitude que la conjecture est vraie ou fausse.
De maniĂšre gĂ©nĂ©rale, les problĂšmes mathĂ©matiques dont la solution est potentiellement contenue dans un OmĂ©ga de Chaitin sont les problĂšmes rĂ©futables en un temps fini, c'est-Ă -dire pour lesquels un programme est en mesure de s'arrĂȘter avec un contre-exemple en un temps fini. Tous les problĂšmes mathĂ©matiques ne sont pas rĂ©futables en un temps fini, notamment :
- Est-ce que Ï est un nombre normal ?
- Existe-t-il une infinité de nombres premiers jumeaux ?
- Le problĂšme P = NP.
ne sont pas rĂ©futables en un temps fini, et leur solution n'est pas contenue dans un nombre OmĂ©ga[Li Vitanyi 3]. On peut cependant remarquer que pour une axiomatique donnĂ©e (le plus souvent ZFC), ces questions peuvent ĂȘtre considĂ©rĂ©es comme des affirmations susceptibles d'ĂȘtre dĂ©montrĂ©es, rĂ©futĂ©es, ou indĂ©cidables ; un nombre OmĂ©ga permet donc, pour une proposition P donnĂ©e, de savoir ce qu'il en est des deux machines de Turing Ă©numĂ©rant tous les thĂ©orĂšmes et s'arrĂȘtant respectivement si P en est un ou si sa nĂ©gation en est un.
Cependant, tout cela reste thĂ©orique. La mĂ©thode pour restituer les machines qui s'arrĂȘtent Ă partir d'un nombre OmĂ©ga (autrement dit, pour « dĂ©compresser » un nombre OmĂ©ga, voir DĂ©termination des programmes qui s'arrĂȘtent Ă partir du nombre OmĂ©ga) est si longue qu'elle est inapplicable en pratique[7]. En effet, il est nĂ©cessaire d'attendre que tous les programmes qui doivent s'arrĂȘter s'arrĂȘtent avant de connaitre le statut de chaque programme[7]. Comme il existe jusqu'Ă 2N programmes de longueur N bits, et qu'un programme individuel peut thĂ©oriquement s'arrĂȘter au terme d'un temps arbitrairement long, et que l'ordre de grandeur de N pour les problĂšmes mathĂ©matiques intĂ©ressants est de l'ordre du millier[8], il serait nĂ©cessaire d'attendre l'arrĂȘt de programmes approximativement, parmi lesquels â plausiblement pour cette classe de programmes â le castor affairĂ©, dont le temps d'arrĂȘt est lui-mĂȘme incommensurablement long[9].
Calculabilité d'un nombre Oméga
Un nombre OmĂ©ga n'est pas calculable, car il est alĂ©atoire : aucun algorithme qui ne contient pas dĂ©jĂ le nombre en lui-mĂȘme ne peut donner de maniĂšre certaine et dans un temps fini les N premiers bits d'un nombre OmĂ©ga. Cependant, le statut de ces nombres vis-Ă -vis de la calculabilitĂ© n'est pas trivial et mĂ©rite quelques prĂ©cisions.
Un nombre OmĂ©ga n'est pas un nombre calculable, mais est un nombre approchable[10]. Cela signifie qu'il existe une sĂ©quence calculable et jamais dĂ©croissante de rationnels qui converge vers ce nombre[Calude 1]. C'est prĂ©cisĂ©ment cette caractĂ©ristique qui est mise en Ćuvre dans la « dĂ©compression » d'un nombre OmĂ©ga, pour calculer une approximation de plus en plus prĂ©cise d'un nombre OmĂ©ga (puisqu'on stoppe la dĂ©compression quand l'approximation Ă©gale le nombre OmĂ©ga).
Le problĂšme est que, mĂȘme si cette sĂ©quence est convergente, on n'a aucun moyen de savoir (cela est non calculable) quels bits du nombre OmĂ©ga ou mĂȘme combien de bits seront exacts au terme de combien de temps. De plus, il a Ă©tĂ© dĂ©montrĂ© que la convergence vers un nombre OmĂ©ga par une sĂ©quence approchante est plus lente que n'importe quelle autre sĂ©quence convergente calculable[11]. MĂȘme si une sĂ©quence approchante calculable existe, elle ne peut donc ĂȘtre utilisĂ©e pour calculer en pratique, et mĂȘme en thĂ©orie, un nombre OmĂ©ga, qui reste de ce fait bel et bien non-calculable.
Il peut paraĂźtre dĂšs lors paradoxal de constater que la valeur exacte des N premier bits de nombres OmĂ©ga ont Ă©tĂ© dĂ©terminĂ©s pour certaines machines de Turing universelles[Calude 2]. Mais cela ne contredit pas les rĂ©sultats prĂ©cĂ©dents pour la raison suivante : la dĂ©termination de ces bits utilise un mĂ©lange de calcul et de raisonnements mathĂ©matiques, pour prouver que certains programmes ne s'arrĂȘtent pas ou ne peuvent contribuer significativement Ă la somme finale. Le raisonnement mathĂ©matique Ă©tant une sorte de calcul, cette constatation ne semble pas faire avancer le paradoxe.
Seulement, il a été prouvé qu'un systÚme formel mathématique (utilisé pour les raisonnements mathématiques, comme ZFC par exemple) fondé sur des axiomes qui représentent N bits d'information, ne pourra jamais déterminer plus de N+O(1) bits d'un nombre Oméga par des raisonnements mathématiques[Chaitin AIT 1] (le nombre exact de bits que peut déterminer la théorie est incalculable). On peut donc déterminer un certain nombre de bits d'un nombre Oméga, mais un nombre fini, incalculable, et d'autant plus faible que le systÚme formel utilisé pour les raisonnements est élégant, et fondé sur un nombre le plus petit possible d'axiomes[Calude 3].
Nombre Oméga et incomplétude des mathématiques
Un nombre Oméga pose un défi à toute théorie, à tout systÚme formel, mathématique. Chaque bit d'un nombre Oméga représente, indépendamment des problÚmes plus profonds qu'il peut résoudre, un théorÚme mathématique simple :
ThĂ©orĂšme OmĂ©ga N â Le N-iĂšme bit d'un nombre OmĂ©ga est 1.
Chacun de ces thĂ©orĂšmes est soit vrai soit faux dans l'absolu. Le N-iĂšme bit possĂšde une valeur dĂ©terminĂ©e et univoque, mĂȘme si elle ne peut pas ĂȘtre calculĂ©e : les machines de Turing qui contribuent Ă la dĂ©termination de ce bit s'arrĂȘtent ou bien ne s'arrĂȘtent pas dans l'absolu.
De plus, un nombre Oméga étant incompressible, l'infinité des théorÚmes « Oméga N » sont autant de problÚmes indépendants à résoudre pour une théorie mathématique. La complexité de tous les théorÚmes mathématiques est infinie.
En 1931, Kurt Gödel a démontré l'incomplétude des théories mathématiques par le célÚbre théorÚme d'incomplétude de Gödel : il existe dans toute théorie mathématique suffisamment puissante, des énoncés qui ne sont pas démontrables et dont la négation n'est pas non plus démontrable. Ce sont des énoncés indécidables.
Les nombres Oméga apportent un éclairage complémentaire au théorÚme d'incomplétude de Gödel. Si l'on ne fait pas appel à la théorie algorithmique de l'information, la portée du théorÚme de Gödel n'est pas claire : Combien de théorÚmes sont indécidables ? Est-ce l'exception ou la rÚgle ? Les théorÚmes indécidables se limitent-ils aux théorÚmes « diagonaux » incontournables, ou sont-ils beaucoup plus répandus ? Est-il nécessaire d'augmenter le nombre d'axiomes pour diminuer le nombre de problÚmes indécidables ? Quelle est la relation entre le nombre d'axiomes et le nombre de théorÚmes indécidables ?
La théorie algorithmique de l'information et les nombres Oméga apportent des éléments de réponse à ces questions. En effet, selon la théorie algorithmique de l'information :
- Le nombre de problÚmes (de théorÚmes) indépendants (qui ne dérivent pas les uns des autres) à résoudre par les théories mathématiques est infini (il y a, au moins, les théorÚmes « Oméga N »). Pratiquement tous les théorÚmes « Oméga N » sont indécidables pour un systÚme formel type ZFC[Calude 4] ;
- La complexité des théorÚmes résolus par une théorie mathématique est limitée par la complexité de l'ensemble de ses axiomes. Il s'agit du théorÚme d'incomplétude de Chaitin (en) ;
- Donc le seul moyen de diminuer le nombre de problÚmes indécidables est d'augmenter le nombre d'axiomes. Le nombre d'axiomes nécessaires pour résoudre les théorÚmes « Oméga N » tend vers l'infini.
Selon ce point de vue, le théorÚme de Gödel a un impact trÚs important sur la complétude des mathématiques : de trÚs nombreux théorÚmes, quasiment tous, sont indécidables. Les théorÚmes vrais et démontrables sont un ensemble rare parmi l'ensemble des théorÚmes vrais[12].
Mais on ne sait pas si des thĂ©orĂšmes « intĂ©ressants » des mathĂ©matiques ont une grande complexitĂ© (dans ce cas, ils seraient hors d'atteinte d'un systĂšme formel ayant trop peu d'axiomes), ou une complexitĂ© en dĂ©finitive faible, ce qui est tout Ă fait possible[13]. De plus, on pourrait arguer du fait que les thĂ©orĂšmes « OmĂ©ga N » sont des thĂ©orĂšmes artificiels, concernant un nombre spĂ©cialement construit pour ĂȘtre paradoxal, et ne sont pas reprĂ©sentatifs des vĂ©ritables mathĂ©matiques.
Mais on peut démontrer qu'il existe une équation diophantienne , associé à un nombre Oméga, telle qu'elle admet pour solutions un ensemble fini de m-uplets si le théorÚme « Oméga n » est vrai, et un ensemble infini de m-uplets si le théorÚme « Oméga n » est faux pour ce nombre Oméga[Li Vitanyi 4].
En posant les choses de cette maniÚre, les théorÚmes « Oméga N » ne sont plus des théorÚmes artificiels concernant un nombre étrange, mais d'authentiques problÚmes mathématiques s'intéressant au nombre de solutions d'une équation.
Propriétés des nombres Ω
Les nombres Ω présentent maintes propriétés intéressantes et surprenantes.
- Un nombre Ω n'est pas calculable au sens de Turing : s'il l'Ă©tait, on pourrait dĂ©terminer le problĂšme de l'arrĂȘt.
- Un nombre Ω est transcendant, puisqu'il n'est pas calculable, et son développement binaire, décimal ou dans n'importe quelle base, est donc infini non périodique.
- Le produit de deux nombres Ω est un autre nombre Ω (associĂ© Ă une autre machine universelle), de mĂȘme que la somme de deux nombres Ω si elle est strictement comprise entre 0 et 1, et toute suite calculable extraite des dĂ©cimales d'un nombre Ω (comme une dĂ©cimale sur deux, ou celles de rang premier) est un autre nombre Ω.
- Un nombre Ω est un nombre normal (donc un nombre univers en toute base) : dans toute base de numération, ses décimales sont équiréparties, et toute suite finie de chiffres se trouve quelque part dans son expression dans cette base (dans tout nombre Ω écrit en binaire, il y a par exemple une suite d'un milliard de 0 successifs)[14].
- Pour une thĂ©orie axiomatique rĂ©cursivement axiomatisable qui permet d'interprĂ©ter l'arithmĂ©tique, par exemple l'arithmĂ©tique de Peano ou la thĂ©orie des ensembles, et sous une hypothĂšse de cohĂ©rence plus forte que la cohĂ©rence simple[15], il existe un rang Ă partir duquel, bien qu'un des Ă©noncĂ©s « le bit suivant du dĂ©veloppement binaire est 0 » ou « le bit suivant du dĂ©veloppement binaire est 1 » (en binaire) soit vrai, il est impossible de dĂ©montrer lequel des deux l'est, c'est-Ă -dire qu'ils sont indĂ©cidables dans la thĂ©orie en question. Solovay a renforcĂ© ce rĂ©sultat, en modifiant astucieusement une fonction universelle de Chaitin, en fonction d'une thĂ©orie donnĂ©e (vĂ©rifiant les mĂȘmes hypothĂšses), pour exhiber un nombre Ω, qui dĂ©pend donc de cette thĂ©orie, et dont il est impossible de dĂ©cider un seul chiffre dans celle-ci[16].
DĂ©monstration formelle de la formule
Les programmes auto-délimités
La dĂ©finition d'une probabilitĂ© d'arrĂȘt suppose qu'aucun programme ne rĂ©sulte de l'extension d'un autre.
On considĂšre une fonction F Ă deux arguments. F est dite universelle si pour toute fonction calculable f d'une seule variable x il y a une constante p telle que pour tout x, F(p,x) = f(x) ; en d'autres mots, F peut ĂȘtre utilisĂ©e pour simuler n'importe quelle fonction calculable d'une seule variable. p reprĂ©sente un programme pour f, et F reprĂ©sente un Ă©mulateur qui exĂ©cute ce programme ; pour chaque p, f(x) = F(p,x) est calculable.
Le domaine de F est l'ensemble de tous les programmes p tels que F(p,x) soit définie pour au moins une valeur de x. Selon la convention ci-dessus, il n'existe pas dans le domaine deux programmes différents p1 et p2 tels que l'un d'eux soit une extension de l'autre : on dit que F est sans préfixe.
Ceci revient à parler de la machine universelle (machine de Turing) correspondant à F dont les programmes ont une séquence de fin.
Interprétation comme probabilité
On considĂšre l'espace de Cantor formĂ© de toutes les suites infinies de 0 et de 1. Une probabilitĂ© d'arrĂȘt peut ĂȘtre interprĂ©tĂ©e comme la mesure d'un certain sous-ensemble de cet espace.
La mesure probabiliste dans cet espace est définie de façon que pour toute chaßne x l'ensemble des suites qui commencent par x mesure 2-|x|. Ceci entraßne que pour tout entier naturel n l'ensemble des suites f de l'espace de Cantor telles que f(n) = 1 mesure 0,5 et que l'ensemble des suites dont le n-iÚme élément est 0 mesure aussi 0,5.
Soit F une fonction universelle calculable sans préfixe telle que décrite plus haut. Le domaine P de F est un ensemble infini de chaßnes :
Chaque dĂ©termine un sous-ensemble de l'espace de Cantor, ce sous-ensemble contient toutes les suites qui commencent par . Les Ă©tant disjoints â puisque par hypothĂšse aucun des n'est inclus dans un autre â la somme :
représente la mesure de P.
De cette façon, ΩF est la probabilitĂ© qu'une suite de l'espace de Cantor choisie au hasard commence par une chaĂźne qui soit un Ă©lĂ©ment du domaine de . C'est pour cette raison que ΩF s'appelle la probabilitĂ© d'arrĂȘt.
Bibliographie
- Gregory Chaitin, Hasard et complexitĂ© en mathĂ©matiques, la quĂȘte de Ω, Flammarion, (ISBN 2082105687).
- (en) Gregory Chaitin, « The halting probability Omega : Irreductible complexity in pure mathematics », Milan J. Math., vol. 75, 2007, p. 291-304, DOI 10.1007/s00032-006-0064-2, arXiv:math/0611740 :
- Paragraphe : Borel: Know-it-all and unnameable reals.
- Paragraphe : What is the halting probability Ω ?
- (en) Ming Li et Paul Vitanyi, An Introduction to Kolmogorov Complexity and its Applications, Springer, 2008 :
- Lemme 3.6.1.
- Lemme 3.6.2.
- p. 192.
- Lemme 3.7.1.
- (en) Cristian S. Calude, Michael J. Dinneen et Chi-Kou Shu, Computing a Glimpse of Randomness :
- Chapitre 3.
- 0000001000000100000110001000011010001111110010111011101000010000 sont les 64 premiers bits d'un nombre Oméga.
- ThéorÚme 4.2.
- ThéorÚme 4.3.
- (en) Gregory Chaitin, Algorithmic Information Theory, 3e Ă©d., Cambridge University Press, 2003 :
- Theorem C, p. 210.
Notes et références
- (en) Cristian Calude, Information and Randomness: An Algorithmic Perspective, Springer, 1994, p. 181.
- C'est-Ă -dire que l'indication de la fin de la sĂ©quence de bits reprĂ©sentant le programme est contenue dans le programme lui-mĂȘme, sous forme d'une longueur, d'une sĂ©quence de fin, ou toute autre forme de codage. Une autre maniĂšre de le dire est que la concatĂ©nation d'une sĂ©quence de bits quelconque Ă la suite d'un programme valide donne nĂ©cessairement un programme invalide (n'appartenant pas au langage).
- Ămile Borel, Les nombres inaccessibles, Gauthier-Villars, 1951, [lire en ligne], p. 20.
- Revue de MĂ©taphysique et de Morale, 1927, vol. 34, n° XXX, p. 271-275, lettre de Ă. Borel.
- Voir l'article « Suite aléatoire ».
- Thomas M. Cover, Joy A. Thomas, Elements of Information Theory, Wiley-Interscience, (ISBN 978-0-471-24195-9) [détail des éditions].
- (en) G. J. Chaitin, Thinking about Gödel and Turing. Essays on Complexity, World Scientific, 2007, p. 158-159.
- C. Calude et G. Chaitin What is... a Halting Probability, p. 3.Pour une certaine machine de Turing, il suffit de connaitre les 7780 premiers bits de Oméga pour résoudre l'hypothÚse de Riemann.
- A titre indicatif, le castor affairĂ© d'une machine Ă seulement 6 Ă©tats s'arrĂȘte au terme de 7 412âŻĂâŻ1036534 pas.
- Terminologie française employée par J.P. Delahaye, en anglais computably enumerable.
- Jean-Paul Delahaye, Information, complexité et hasard, HermÚs [détail des éditions], p. 88.
- Jean-Paul Delahaye, « Presque tout est indĂ©cidable ! », Pour la Science, no 375,â (lire en ligne).
- La démonstration du dernier théorÚme de Fermat par Andrew Wiles, bien que faisant plus de 100 pages de long, a une complexité faible au sens de la théorie algorithmique de l'information, car elle se réduit en définitive aux axiomes sur lesquels elle est fondée.
- J.-P. Delayahe, Complexités, Belin, 2006, p. 135.
- La 1-cohérence : toutes les formules arithmétiques Σ10 qui y sont démontrables sont vraies.
- (en) R. M. Solovay, « A version of Ω for which ZFC can not predict a single bit », in Finite Versus Infinite - Contributions to an Eternal Dilemma, C.S. Calude, G. Paun (eds.), Springer-Verlag, London, 2000.
Voir aussi
Articles connexes
Lien externe
(en) Eric W. Weisstein, « Chaitin's Constant », sur MathWorld