AccueilđŸ‡«đŸ‡·Chercher

Loi uniforme continue

En thĂ©orie des probabilitĂ©s et en statistiques, les lois uniformes continues forment une famille de lois de probabilitĂ© Ă  densitĂ©. Une telle loi est caractĂ©risĂ©e par la propriĂ©tĂ© suivante : tous les intervalles de mĂȘme longueur inclus dans le support de la loi ont la mĂȘme probabilitĂ©. Cela se traduit par le fait que la densitĂ© de probabilitĂ© d'une loi uniforme continue est constante sur son support.

Loi uniforme continue
de paramĂštres et
Image illustrative de l’article Loi uniforme continue
Densité de probabilité

Image illustrative de l’article Loi uniforme continue
Fonction de répartition

ParamĂštres
Support
Densité de probabilité
Fonction de répartition
Espérance
MĂ©diane
Mode
Variance
Asymétrie
Kurtosis normalisé
Entropie
Fonction génératrice des moments
Fonction caractéristique

Elles constituent donc une généralisation de la notion d'équiprobabilité dans le cas continu pour des variables aléatoires à densité ; le cas discret étant couvert par les lois uniformes discrÚtes.

Une loi uniforme est paramétrée par la plus petite valeur et la plus grande valeur que la variable aléatoire correspondante peut prendre. La loi uniforme continue ainsi définie est souvent notée

Les densités associées aux lois uniformes continues sont des généralisations de la fonction rectangle en raison de leurs formes.

Caractérisation

Densité

La densité de probabilité de la loi est une fonction porte sur l'intervalle [a, b] :

Fonction de répartition

La fonction de rĂ©partition de la loi  est :

Fonction génératrice des moments

La fonction gĂ©nĂ©ratrice des moments de la loi  est :

Elle permet de calculer tous les moments non centrés, mk :

Ainsi, pour une variable alĂ©atoire suivant la loi l'espĂ©rance est m1 = (a + b)/2, et la variance est m2 − m12 = (b − a)2/12.

Fonction génératrice des cumulants

Pour n ≄ 2, le n-iĂšme cumulant de la loi uniforme continue sur l'intervalle [0, 1] est bn/n, oĂč bn est le n-iĂšme nombre de Bernoulli.

Propriétés

Statistiques d'ordre

Soit X1, ..., Xn un Ă©chantillon i.i.d. issu de la loi Soit X(k) la k-iĂšme statistique d'ordre de l'Ă©chantillon. Alors la distribution de X(k) est une loi bĂȘta de paramĂštres k et n − k + 1.

L'espérance est :

Ce fait est utile lorsqu'on construit une droite de Henry.

La variance est :

Aspect uniforme

La probabilité qu'une variable uniforme tombe dans un intervalle donné est indépendante de la position de cet intervalle, mais dépend seulement de sa longueur à condition que cet intervalle soit inclus dans le support de la loi. Ainsi, si X suit la loi et si est un sous-intervalle de [a, b], avec fixé, alors :

qui est indépendant de x. Ce fait motive la dénomination de cette loi.

Loi uniforme standard

Le cas particulier a = 0 et b = 1 donne naissance Ă  la loi uniforme standard, notĂ©e Il faut noter le fait suivant : si u1 est distribuĂ© selon une loi uniforme standard, alors c'est aussi le cas pour u2 = 1 – u1.

Loi uniforme sur une partie borélienne

À toute partie A de borĂ©lienne, dont la mesure de Lebesgue λ(A) est finie et strictement positive, on associe une loi de probabilitĂ©, appelĂ©e loi uniforme sur A, de densitĂ© de probabilitĂ© ƒ dĂ©finie, pour tout par :

oĂč χA est la fonction indicatrice (ou caractĂ©ristique), notĂ©e aussi 𝟙A, de l'ensemble A. La densitĂ© est donc nulle Ă  l'extĂ©rieur de A, mais Ă©gale Ă  la constante 1⁄λ(A) sur A.

Cette page traite principalement du cas particulier oĂč d = 1 et oĂč A est un intervalle [a, b] de

Transport et invariance

Condition suffisante — La loi de la variable alĂ©atoire Y = T(X), image par une transformation T d'une variable X uniforme sur une partie A de est encore la loi uniforme sur T(A) si T est, Ă  un ensemble nĂ©gligeable prĂšs, injective et diffĂ©rentiable, et si, presque partout sur A, la valeur absolue du jacobien de T est constante.

Exemples de transformations respectant l'uniformité :
  • Si T est affine et bijective, alors Y suit la loi uniforme sur T(A).
  • En particulier, si T est une isomĂ©trie de laissant A globalement invariant, alors Y a mĂȘme loi que X.
  • Par exemple, une isomĂ©trie de laisse invariante la loi uniforme sur B(O, 1], la boule unitĂ© centrĂ©e en l'origine, Ă  condition de laisser l'origine invariante (donc de laisser B(O, 1] globalement invariante).
  • Autre exemple d'isomĂ©trie : si U est uniforme sur [0, 1], alors 1 – U l'est aussi.
  • Notons la partie fractionnaire de Les fonctions et ne sont ni injectives ni diffĂ©rentiables sur tout [0, 1], mais satisfont les hypothĂšses Ă©noncĂ©es plus haut, avec T([0, 1[) = [0, 1[. En consĂ©quence, si alors et ont mĂȘme loi que En sortant un peu du cadre de cette page, et en notant M(x) le point du cercle trigonomĂ©trique ayant pour affixe on peut voir M(U) comme un point tirĂ© au hasard uniformĂ©ment sur le cercle trigonomĂ©trique. Les points et respectivement sont alors obtenus par rotation d'angle 2πa et par symĂ©trie par rapport Ă  la droite d'angle directeur πa respectivement, qui sont des isomĂ©tries laissant le cercle unitĂ© globalement invariant. Donc ces points suivent aussi la loi uniforme sur le cercle unitĂ©. Cela traduit une propriĂ©tĂ© trĂšs particuliĂšre de la loi uniforme : elle est la mesure de Haar de

ConsĂ©quence — Si la suite est une suite de variables alĂ©atoires indĂ©pendantes et uniformes sur [0, 1], et si alors la suite est une suite de variables alĂ©atoires indĂ©pendantes et uniformes sur [0, 1].

Il peut sembler surprenant que les variables et par exemple, soient indépendantes, alors qu'elles dépendent toutes deux de maniÚre cruciale des variables et C'est une conséquence particuliÚre de la propriété d'invariance de la loi uniforme : par exemple, étant la mesure de Haar de elle est idempotente pour la convolution.

Distributions associées

Le théorÚme suivant[1] stipule que toutes les distributions sont liées à la loi uniforme :

ThĂ©orĂšme de la rĂ©ciproque — Pour une variable alĂ©atoire de fonction de rĂ©partition on note sa rĂ©ciproque gĂ©nĂ©ralisĂ©e, dĂ©finie, pour tout par :

Si désigne une variable aléatoire réelle uniforme sur alors a pour fonction de répartition

Ainsi, pour obtenir des tirages (indépendants) selon la loi répartie par il suffit d'appliquer l'inverse de à des tirages (indépendants) uniformes sur

Voici quelques exemples d’application de ce thĂ©orĂšme

  • suit la loi exponentielle de paramĂštre
  • Y = 1 – U1/n suit la loi bĂȘta de paramĂštres 1 et n. Ceci implique que la loi uniforme standard est un cas particulier de la loi bĂȘta, de paramĂštres 1 et 1.

On trouvera un tableau plus complet ici. Par ailleurs, l'art d'engendrer des variables aléatoires de lois arbitraires, par exemple à l'aide de variables uniformes, est développé dans Non-Uniform Random Variate Generation, de Luc Devroye, édité chez Springer, disponible sur le web[2].


Inférence statistique

Estimation de l'un des paramĂštres lorsque l'autre est connu

Cette section décrit l'estimation de la borne supérieure de la distribution au vu d'un échantillon de individus, la borne inférieure étant connue.

Estimateur sans biais de variance minimale

Pour une loi uniforme sur avec inconnu, l'estimateur sans biais de valeur minimale (en) pour le maximum est donné par :

oĂč est le maximum de l'Ă©chantillon et la taille de l'Ă©chantillon, Ă©chantillonnĂ© sans remise (bien que cette prĂ©cision n'a aucune incidence dans le cas uniforme).

On obtient cette valeur par un raisonnement similaire au cas discret. Ce problĂšme peut ĂȘtre vu comme un cas simple d'estimation de l'espacement maximal (en). Il est connu sous le nom de ProblĂšme du char d'assaut allemand, par son application d'estimation maximale de la production des chars d'assaut allemands pendant la Seconde Guerre mondiale.

Estimateur par maximum de vraisemblance

L'estimateur par maximum de vraisemblance est :

oĂč est la valeur maximum dans l'Ă©chantillon, qui est aussi la statistique d'ordre maximale de l'Ă©chantillon.

Estimateur par la méthode des moments

L'estimateur par la méthode des moments est :

oĂč est la moyenne de l'Ă©chantillon.

Estimation du milieu

Le milieu de l'intervalle de la loi uniforme est à la fois la moyenne et la médiane de cette loi. Bien que la moyenne et la médiane de l'échantillon sont des estimateurs sans biais du milieu, ils ne sont pas aussi efficaces que le milieu de gamme de l'échantillon, i.e. la moyenne arithmétique du maximum et du minimum de l'échantillon, qui est l'estimateur sans biais de variance minimale du milieu (et aussi l'estimateur par maximum de vraisemblance).

Pour le maximum

On considĂšre X1, X2, ..., Xn un Ă©chantillon de oĂč L est la valeur maximum dans la population. Alors X(n) = max( X1, X2, ..., Xn ) a la densitĂ© de Lebesgue-Borel[3]

oĂč est la fonction caractĂ©ristique (ou indicatrice) de

L'intervalle de confiance est mathĂ©matiquement incorrect, car ne peut ĂȘtre rĂ©solu pour sans information sur On peut cependant rĂ©soudre

pour pour tout inconnu mais valide ;

on peut alors choisir le plus petit possible vérifiant la condition ci-dessus. On note que la longueur de l'intervalle dépend de la variable aléatoire

Estimation simultanée des deux paramÚtres

Cette section décrit l'estimation des deux bornes de la distribution uniforme continue au vu d'un échantillon de individus.

Soient et les estimateurs respectifs des bornes inférieure et supérieure de la distribution mÚre, construits sur la base de l'échantillon contenant les modalités de la variable aléatoire issues de la distribution

La méthode du maximum de vraisemblance aboutit à la sélection des minimum et maximum empiriques :

Ce couple d'estimateurs est biaisé : la probabilité qu'un -échantillon capture le minimum ou le maximum permis par la distribution mÚre étant quasi-nulle, la moyenne d'un grand nombre d'observations sur de tels -échantillons ne converge pas vers les bornes de ladite distribution mÚre :

La démonstration est produite plus bas.

Loi de distribution régissant ces estimateurs biaisés

Les densités de probabilité sont notées en minuscules (par ex. ), les fonctions de répartition sont notées en majuscules (par ex. ).

Densité de probabilité associée au couple d'estimateurs biaisés

Lois marginales régissant les minimum et maximum empiriques

Concernant l'estimateur de la borne inférieure

Par une démonstration similaire, on obtient pour l'estimateur de la borne supérieure :

Convergence de ces estimateurs

La définition de la convergence d'un estimateur est donnée dans le document référencé [4].

Concernant l'estimateur de la borne infĂ©rieure ( sur un n-Ă©chantillon) : car aucune valeur infĂ©rieure Ă  a ne peut ĂȘtre observĂ©e. Donc :

Une démonstration similaire s'applique pour l'estimateur de la borne supérieure.

forme donc un couple d'estimateurs convergents.

Biais de ces estimateurs

Lorsque l'on multiplie les échantillons (de taille donnée), la moyenne des observations ne tend pas vers le couple de bornes de la distribution mÚre :

Ces deux estimateurs ne sont qu'asymptotiquement sans biais[4], i.e. lorsque la taille de l'Ă©chantillon tend vers l'infini.

Recherche d'estimateurs sans biais

Le couple d'estimateurs défini ci-dessous est sans biais[5] :

Le calcul de ces estimateurs (avec ou sans biais) ne nécessite pas la connaissance des paramÚtres de la distribution mÚre.

Les lois de distribution qui régissent le couple d'estimateurs sans biais sont plus complexes à déterminer. Le document [5] donne les lois suivantes :

Densité de probabilité associée au couple d'estimateurs sans biais
Lois marginales régissant chacun des deux estimateurs sans biais

Sachant que la variable admet comme support l'intervalle :

Sachant que la variable admet comme support l'intervalle :

Intervalle de pari

On considĂšre ici :

  • une loi mĂšre uniforme donnĂ©e et connue,
  • le couple d'estimateurs avec biais formĂ© par le minimum et le maximum empiriques dĂ©terminĂ©s sur un -Ă©chantillon.

Les estimateurs considérés sont ceux avec biais car :

  • leurs lois de distribution sont simples Ă  manipuler ;
  • le document rĂ©fĂ©rencĂ© [5] montre que construire des intervalles de pari Ă  partir des estimateurs sans biais n'aboutit pas in fine Ă  des intervalles plus rĂ©duits pour un niveau de confiance donnĂ©, et en explique la raison.

On cherche à connaßtre comment se répartissent les n-échantillons possibles formés à partir de la distribution mÚre , en plaçant dans le plan :

  • sur l'axe des abscisses, la borne infĂ©rieure de la distribution mĂšre et les minima empiriques des Ă©chantillons ;
  • sur l'axe des ordonnĂ©es, la borne supĂ©rieure de la distribution mĂšre et les maxima empiriques des Ă©chantillons.

On note :

Zone du plan oĂč l'on peut trouver des des Ă©chantillons issus de U (a,b)
Zone du plan oĂč l'on peut trouver des Ă©chantillons issus de U (a,b)

La distribution mÚre et la construction des estimateurs imposent la hiérarchie suivante : Les échantillons issus de cette loi mÚre sont tous situés à l'intérieur du triangle rectangle formé par la droite , la droite et la premiÚre bissectrice (cf. figure ci-contre).

Un bon échantillon (i.e. un échantillon représentatif de sa population mÚre) se caractérise par :

  • un minimum empirique proche de
  • et un maximum empirique proche de

Le risque de pari associé à un échantillon est défini par la probabilité de trouver un échantillon plus mauvais que lui, i.e. présentant :

  • un minimum empirique supĂ©rieur ou Ă©gal Ă 
  • ou un maximum empirique infĂ©rieur ou Ă©gal Ă 
Intervalle de pari sur le minimum empirique
Intervalle de pari sur le minimum empirique d'un Ă©chantillon issu de U (a,b)
Intervalle de pari sur le minimum empirique d'un Ă©chantillon issu de U (a,b)

L'expérimentateur choisit son risque de pari . Le risque de pari sur le minimum empirique est défini par l'équation suivante :

La surface de pari sur le minimum empirique au niveau de confiance rassemble les échantillons qui vérifient : et .

Intervalle de pari sur le maximum empirique
Intervalle de pari sur le maximum empirique d'un Ă©chantillon issu de U (a,b)
Intervalle de pari sur le maximum empirique d'un Ă©chantillon issu de U (a,b)

De façon similaire, le risque de pari sur le maximum empirique est défini par l'équation suivante :

La surface de pari sur le maximum empirique au niveau de confiance rassemble les échantillons qui vérifient : et .

Surface de pari sur les deux bornes

La surface de pari est celle qui capture la proportion des échantillons formés à partir d'une population mÚre donnée et connue.

Choix de la forme de la surface de pari, reprĂ©sentĂ© dans les coordonnĂ©es rĂ©duites  (φ;ψ)
Choix de la forme de la surface de pari, représenté dans les coordonnées réduites

Le problĂšme dĂ©pend de la forme que l'on aura choisi de donner Ă  cette surface, qui peut ĂȘtre un carrĂ©, un triangle, un quart de cercle, ... On choisit ici un triangle rectangle, de sommet et dont l'hypotĂ©nuse est parallĂšle Ă  la premiĂšre bissectrice (cf. figure ci-contre). La raison est que la densitĂ© de probabilitĂ© associĂ©e au couple est constante le long d'un lieu . Ceci permet de dĂ©couper l'espace suivant une ligne iso-densitĂ©, minimisant ainsi la surface de pari pour capturer un effectif donnĂ©.

Les variables réduites classiques pour les distributions uniformes sont introduites afin de simplifier les calculs qui suivent :

Les relations de conversion du domaine réel en domaine réduit sont données par le tableau ci-dessous :

Échantillon {m ; M} Ă  population {a ; b} donnĂ©e ReprĂ©sentation adimensionnĂ©e Population {a ; b} Ă  Ă©chantillon {m ; M} donnĂ©

Exprimée dans le plan des coordonnées réduites, la surface pari au niveau de confiance est constituée par l'intérieur du triangle rectangle de sommets :

La marge réduite est reliée au risque de pari par l'équation suivante :

Marge réduite = f (effectif de l'échantillon, risque de pari)
Marge réduite = f (effectif de l'échantillon, risque de pari

L'Ă©quation liant la marge rĂ©duite au risque de pari peut ĂȘtre rĂ©solue par la mĂ©thode du point fixe : la suite dĂ©finie ci-dessous converge rapidement vers la solution, mĂȘme avec une initialisation forfaitaire :

Surface pari au niveau de confiance  (1−α)  tracĂ©e dans le plan des coordonnĂ©es de l'expĂ©rimentateur
Surface pari au niveau de confiance tracée dans le plan des coordonnées de l'expérimentateur

Le lieu des solutions est tracé ci-contre, en fonction de l'effectif de l'échantillon et du risque de pari .

Replacée dans le plan des coordonnées correspondant au problÚme réel de l'expérimentateur, la surface pari au niveau de confiance est constituée par l'intérieur du triangle rectangle de sommets :

Surface de confiance

Le point de vue est inversé par rapport à la section précédente :

  • le n-Ă©chantillon est connu, et le couple des minimum et maximum empiriques obtenus est ;
  • on veut connaĂźtre quelles populations mĂšres auraient pu gĂ©nĂ©rer cet Ă©chantillon, au niveau de confiance choisi par l'expĂ©rimentateur.
Surface de confiance au niveau de confiance  {\displaystyle \left(1-\alpha \right)}  tracée dans le plan des coordonnées de l'expérimentateur
Surface de confiance au niveau de confiance tracée dans le plan des coordonnées de l'expérimentateur

Il s'agit donc de recenser les populations mĂšres qui contiennent l'Ă©chantillon en question dans leurs surfaces de pari respectives au niveau de confiance .

L'intégrale calculée lors de la démonstration qui établit la surface de pari en coordonnées réduites reste inchangée, quelles que soient les raisons qui font varier ces coordonnées réduites :

  • les variations du couple Ă  population mĂšre fixĂ©e,
  • ou bien les variations des bornes de la population mĂšre Ă  Ă©chantillon fixĂ©

La surface de confiance est obtenue par déréduction de la surface établie en coordonnées pour le niveau de confiance , en cherchant à échantillon fixé. Cette surface de confiance est constituée par l'intérieur du triangle rectangle de sommets :

Applications

En statistiques, lorsqu'une valeur p (p-value) est utilisée dans une procédure de test statistique pour une hypothÚse nulle simple, et que la distribution du test est continue, alors la valeur p est uniformément distribuée selon la loi uniforme sur [0, 1] si l'hypothÚse nulle est vérifiée.

Obtenir des réalisations de la loi uniforme

La plupart des langages de programmation fournissent un générateur de pseudo-nombres aléatoires, dont la distribution est effectivement la loi uniforme standard.

Si u est U(0, 1), alors v = a + (b − a)u suit la loi U(a, b).

Obtenir des réalisations d'une loi continue quelconque

D'aprÚs le théorÚme cité plus haut, la loi uniforme permet en théorie d'obtenir des tirages de toute loi continue à densité. Il suffit pour cela d'inverser la Fonction de répartition de cette loi, et de l'appliquer à des tirages de la loi uniforme standard. Malheureusement, dans bien des cas pratiques, on ne dispose pas d'une expression analytique pour la fonction de répartition; on peut alors utiliser une inversion numérique (coûteuse en calculs) ou des méthodes concurrentes, comme la Méthode de rejet.

Le plus important exemple d'échec de la méthode de la transformée inverse est la Loi normale. Toutefois, la Méthode de Box-Muller fournit une méthode pratique pour transformer un échantillon uniforme en un échantillon normal, et ce de maniÚre exacte[6].

Permutations aléatoires uniformes et loi uniforme

Des mathématiciens comme Luc Devroye ou Richard P. Stanley ont popularisé l'utilisation de la loi uniforme sur [0, 1] pour l'étude des permutations aléatoires (tailles des cycles, nombres eulériens, analyse d'algorithmes de tri comme le tri rapide, par exemple).

Construction d'une permutation aléatoire uniforme à l'aide d'un échantillon de loi uniforme

Soit une suite de variables aléatoires i.i.d. uniformes sur [0, 1], définies sur un espace probabilisé (par exemple, définies sur muni de sa tribu des boréliens et de sa mesure de Lebesgue, par ou, de maniÚre équivalente, par ). Pour tout entier k compris entre 1 et n, posons

Ainsi, s'interprÚte comme le rang de dans l'échantillon, une fois celui-ci rangé dans l'ordre croissant.

Proposition — L'application est une permutation alĂ©atoire uniforme.

La proposition ci-dessus reste vĂ©rifiĂ©e si la distribution de probabilitĂ© commune aux variables possĂšde une densitĂ©, quelle qu'elle soit, et non pas seulement pour la densitĂ© uniforme. On peut mĂȘme se contenter de variables i.i.d. dont la loi est diffuse (sans atomes) modulo une modification mineure de la dĂ©monstration. Cependant la loi uniforme est particuliĂšrement commode pour diverses applications.

Nombres de descentes d'une permutation aléatoire, et nombres eulériens

Soit le nombre de descentes d'une permutation tirée au hasard uniformément dans Bien sûr,

oĂč A(n,k) dĂ©signe le nombre de permutations de possĂ©dant exactement k descentes. A(n,k) est appelĂ© nombre eulĂ©rien. Posons

On a alors[7]

ThĂ©orĂšme (S. Tanny, 1973) — De maniĂšre Ă©quivalente,

ou bien

Il en découle immédiatement un théorÚme central limite pour via le théorÚme de Slutsky.

Notes et références

  1. Voir l'article détaillé ici.
  2. La version pdf (libre et autorisĂ©e) de (en) Luc Devroye, Non-Uniform Random Variate Generation, New York, Springer-Verlag, , 1re Ă©d. (lire en ligne) est disponible, ainsi qu'un rĂ©cit humoristique des dĂ©mĂȘlĂ©s de Luc Devroye avec son Ă©diteur.
  3. (en) KN Nechval, NA Nechval NA, EK Vasermanis et VY Makeev, « Constructing shortest-length confidence intervals », Transport and Telecommunication, vol. 3, no 1,‎ , p. 95-103 (lire en ligne)
  4. Jean-Jacques Ruch, « Statistiques : estimation », sur www.google.fr (consulté le )
  5. Christophe Boilley, « Estimation des bornes d'une loi uniforme », sur Classeur numĂ©rique de Christophe Boilley, (consultĂ© le )
  6. Plus exactement, la méthode nécessite deux tirages indépendants U(0, 1) pour fournir deux tirages normaux indépendants.
  7. voir (en) S. Tanny, « A probabilistic interpretation of the Eulerian numbers », Duke Math. J., vol. 40,‎ , p. 717-722 ou bien (en) R.P. Stanley, « Eulerian partitions of a unit hypercube », Higher Combinatorics, Dordrecht, M. Aigner, ed., Reidel,‎ .

Articles connexes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.