Théorème de Lochs
En mathématiques, et plus précisément en analyse, le théorème de Lochs, démontré en 1964 par Gustav Lochs (de), un élève de Kurt Reidemeister[1], est un résultat concernant la vitesse de convergence du développement en fraction continue d'un nombre réel typique.
Énoncé
Pour presque tous les nombres réels de l'intervalle ]0, 1[, le nombre m de termes du développement de ce réel en fraction continue permettant d'en obtenir les n premières décimales a le comportement asymptotique suivant :
On peut interpréter ce résultat comme affirmant que chaque terme supplémentaire de la représentation en fraction continue d'un réel « typique » donne une précision d'un peu plus d'une décimale supplémentaire. La base dix est d'ailleurs la plus grande base pour laquelle la représentation positionnelle est moins précise (à ce sens) que celle en fraction continue : en base onze, la constante correspondante, , devient supérieure à 1.
est le double du logarithme décimal de la constante de Lévy.
Notes et références
- (de) Gustav Lochs, « Vergleich der Genauigkeit von Dezimalbruch und Kettenbruch », Abh. Math. Semin. Univ. Hambg., vol. 27, , p. 142-144 (DOI 10.1007/BF02993063).
- (en) Eric W. Weisstein, « Lochs' Theorem », sur MathWorld.
Bibliographie
- (en) Karma Dajani et Cor Kraaikamp, Ergodic theory of numbers, Cambridge University Press, 2002 (ISBN 978-0-88385034-3), p. 173 sur Google Livres
- (en) C. Faivre, « A central limit theorem related to decimal and continued fraction expansion », Arch. Math., vol. 70, no 6, 1998, p. 455-463 DOI 10.1007/s000130050219