AccueilđŸ‡«đŸ‡·Chercher

Liste de lois de probabilité

Cette liste de lois de probabilité donne un aperçu des lois de probabilité utilisées en théorie des probabilités et en statistiques.

Préambule

Toute fonction f(x), dĂ©finie, intĂ©grable et non nĂ©gative sur un domaine A, peut servir de distribution de probabilitĂ© d'une variable alĂ©atoire X prenant des valeurs dans le domaine A. Il faut et il suffit qu'elle soit multipliĂ©e par un facteur a qui assure que la « probabilitĂ© totale » — la somme ou l'intĂ©grale des f(x) sur le domaine — soit Ă©gale Ă  1 (100 % de probabilitĂ©).

Lorsque la fonction f(x|Ξ) dépend d'un paramÚtre, le facteur a(Ξ) est appelé fonction de partition.
Une définition plus exacte et rigoureuse existe, valable également lorsque le domaine n'est pas simplement dénombrable ou continu.

Il y a donc une infinité de distributions possibles. Cependant, certaines sont plus courantes, plus utiles dans les applications pratiques ou plus importantes dans la théorie. Celles-ci ont en général reçu un nom particulier.

Convention de terminologie et notations
L'intersection du langage scientifique avec la langue vernaculaire a obscurci le sens rigoureux des termes « probabilité », « distribution » ou « loi ». En toute rigueur,
  • Fonction de rĂ©partition : FX(x) signifie la probabilitĂ© P(X ≀ x).
  • Fonction de probabilitĂ© : fX(k) ou pX(k) signifie la probabilitĂ© de masse discrĂšte P(X=k).
  • Fonction de densitĂ© fX(x) signifie la dĂ©rivĂ©e (continue) de la fonction de rĂ©partition.
  • Distribution (de probabilitĂ©) signifie le modĂšle auquel rĂ©pond la variable (discret ou continu ou autre, fonctions de rĂ©partition et de densitĂ©/probabilitĂ©, fonctions gĂ©nĂ©ratrices, etc.).
  • Loi est un terme indĂ»ment utilisĂ© par les Français (pas les francophones de Belgique ou du Canada) au lieu de « distribution ». En science, « loi » signifie un modĂšle thĂ©orique, une affirmation, comme les lois de Kepler ou de la thermodynamique. Ainsi, par exemple, la loi de Zipf (Zipf's Law) Ă©nonce que les frĂ©quences de mots d'un texte suivent la distribution de Zipf (Zipf Distribution). Un Français dirait «Selon la loi de Zipf, les frĂ©quences (
) suivent la loi de Zipf», ce qui n'est manifestement pas trĂšs comprĂ©hensible.

On donne pour certaines distributions la forme fonctionnelle : il s'agit de la structure de dépendance de f(.) par rapport à la v.a., dépouillée de sa fonction de partition. Pour la formule complÚte, se référer à l'article correspondant. On a choisi d'utiliser k pour les valeurs d'une v.a. discrÚte et x pour une v.a. continue.

Distributions discrĂštes

Ces lois sont dĂ©finies sur un support dĂ©nombrable, non continu (en gĂ©nĂ©ral, des entiers). Le mot « discret Â» signifie « non continu Â».

Domaine fini

Fonction de masse d'une loi uniforme discrÚte. Chacun des n éléments a une probabilité 1/n de sortir. Dans la figure, n = 5.
Fonctions de masse de plusieurs lois binomiales.
  • La loi uniforme discrĂšte dĂ©crit un tirage alĂ©atoire Ă  n rĂ©sultats possibles Ă©quiprobables : pile ou face, dĂ©, roulette de casino, tirage d'une carte.
  • La loi triangulaire discrĂšte dĂ©crit la somme de deux uniformes indĂ©pendantes de mĂȘme paramĂštre : rĂ©sultat du jet de deux dĂ©s.
  • La loi de Bernoulli dĂ©crit un tirage alĂ©atoire Ă  deux rĂ©sultats possibles, de probabilitĂ©s respectives p et 1-p. Des exemples courants : pile ou face (probabilitĂ© p=1/2), homme ou femme, produit valable ou dĂ©fectueux, etc.
    • La loi de Rademacher est une Bernoulli Ă©quiprobable (p=1/2) oĂč le succĂšs vaut 1 et l'Ă©chec −1.
  • La loi de Markov-PĂłlya (Ă  ne pas confondre avec la loi binomiale nĂ©gative gĂ©nĂ©ralisĂ©e Ă  un paramĂ©trage non entier qui peut parfois aussi s'appeler loi de PĂłlya), qui compte de nombre de boules blanches tirĂ©es dans une urne contenant des boules blanches et noires aprĂšs un certain nombre de tirages.
    • La loi binomiale correspond Ă  la loi de Markov-PĂłlya dans le cas de tirages avec remise simple (on remet la boule que l'on vient de piocher dans l'urne). Elle compte ainsi le nombre de succĂšs d'une sĂ©rie de n tirages Bernoulli indĂ©pendants de probabilitĂ© de succĂšs p connue.
      • La loi Poisson binomiale dĂ©crit le rĂ©sultat d'une sĂ©rie de tirages de Bernoulli indĂ©pendants dont la probabilitĂ© de succĂšs p n'est pas constante.
    • La loi hypergĂ©ometrique correspond Ă  la loi de Markov-PĂłlya pour des tirages sans remise. Ainsi elle dĂ©crit le rĂ©sultat d'une sĂ©rie de tirages de Bernoulli dĂ©pendants.
    • La loi bĂȘta-binomiale correspond Ă  la loi de Markov-PĂłlya dans le cas de tirages avec remise double (on remet la boule que l'on vient de piocher dans l'urne Ă  laquelle on ajoute une autre boule de la mĂȘme couleur). Elle dĂ©crit Ă©galement le rĂ©sultat d'une sĂ©rie de tirages de Bernoulli indĂ©pendants de probabilitĂ© de succĂšs p alĂ©atoire de loi bĂȘta. Plus prĂ©cisĂ©ment la loi bĂȘta-binomiale est un mĂ©lange de lois Bernoulli-bĂȘta.
  • Il existe des variantes (« gĂ©nĂ©ralisations Â») de la loi hypergĂ©omĂ©trique qui modifient la probabilitĂ© relative de tirage des boules :
    • loi asymĂ©trique de Fisher (en), dite aussi loi hypergĂ©omĂ©trique Ă©tendue.
    • loi asymĂ©trique de Wallenius (en)
  • La loi de Zipf est une distribution puissance, appliquĂ©e Ă  la distribution des tailles ou des frĂ©quences en fonction du rang, par exemple dans le calcul des frĂ©quences relatives de mots dans un texte, ou celui des tailles relatives des villes d'un pays.
  • La loi de Benford dĂ©crit la frĂ©quence relative des chiffres initiaux d'un ensemble de nombres. Elle est utilisĂ©e pour identifier le caractĂšre artificiel de certains ensembles de donnĂ©es (fraudes Ă©conomiques ou scientifiques).

Domaine infini

Fonctions de masse de différentes lois de Poisson.
Fonction de masse de différentes lois de Skellam.
  • La loi gĂ©omĂ©trique dĂ©crit le nombre d'essais nĂ©cessaires, dans une suite de tirages de Bernoulli, avant d'obtenir un succĂšs.
  • La loi binomiale nĂ©gative, ou loi de Pascal, gĂ©nĂ©ralise la loi gĂ©omĂ©trique pour l'obtention de n succĂšs. On l'appelle parfois loi de PĂłlya lorsqu'elle est gĂ©nĂ©ralisĂ©e Ă  un paramĂštre n non entier (Ă  ne pas confondre avec la loi de Markov-PĂłlya).
  • La loi de Poisson dĂ©crit la probabilitĂ© d'observer un certain nombre d'Ă©vĂ©nements alĂ©atoires dans un intervalle continu (durĂ©e, longueur). Elle connaĂźt une sĂ©rie de distributions dĂ©rivĂ©es :
    • la loi de Poisson dĂ©calĂ©e pour x > m.
    • la loi hyper-Poisson
    • la loi de Conway-Maxwell-Poisson, une extension Ă  deux paramĂštres de la loi de Poisson permettant un taux de survenance ajustable en fonction des Ă©vĂ©nements dĂ©jĂ  produits (files d'attente, grossesses).
    • La loi de Skellam, distribution de la diffĂ©rence de deux variables de Poisson indĂ©pendantes.
    • La loi de Delaporte est la convolution (la somme) d'une Poisson et d'une binomiale nĂ©gative.
  • La loi logarithmique est basĂ©e sur le dĂ©veloppement en sĂ©rie de la fonction logarithme. Elle a Ă©tĂ© utilisĂ©e dans la description de populations d'espĂšces.
  • La loi zĂȘta, ou loi de Pareto discrĂšte, basĂ©e sur la fonction zeta de Riemann, est la distribution de Zipf Ă©tendue Ă  un nombre infini d'Ă©lĂ©ments. Elle a des applications en mĂ©canique statistique et en thĂ©orie des nombres.
  • La loi de Yule-Simon apparaĂźt dans des modĂšles biologiques. Asymptotiquement elle ressemble Ă  la loi de Zipf.
  • La distribution de Boltzmann, importante en physique statistique, mesure les probabilitĂ©s des niveaux d'Ă©nergie discrets d'un systĂšme en Ă©quilibre thermique. Elle connaĂźt des cas particuliers :

Distributions continues

Sur un intervalle borné

Fonction de densité de la loi uniforme continue sur le segment [a, b].
Fonctions de densitĂ© de plusieurs lois bĂȘta.
  • La loi uniforme continue exprime l'Ă©quiprobabilitĂ© sur tous les points d'un intervalle fini [a,b].
    • La loi rectangulaire est l'uniforme sur le domaine [-1/2, +1/2].
    • La loi triangulaire continue est la distribution de la somme de deux variables uniformes (convolution de deux distributions uniformes).
    • La loi de Irwin-Hall est la distribution de la somme de n variables uniformes [0,1] indĂ©pendantes.
    • La loi Bates, selon les sources, est la distribution de la moyenne de n variables uniformes [0,1] indĂ©pendantes.
  • La loi bĂȘta est distribuĂ©e dans [0,1]. Elle sert par exemple Ă  estimer les valeurs possibles d'une probabilitĂ©.
    • La loi bĂȘta peut s'adapter sur un intervalle quelconque [c, d].
    • La loi arc sinus est un cas spĂ©cial de la loi bĂȘta, sur [0,1] ou sur [c,d].
    • La distribution PERT, en ingĂ©nierie, et le modĂšle de Balding–Nichols, en gĂ©nĂ©tique, sont des BĂȘta avec des paramĂštres particuliers.
    • La loi uniforme est un cas particulier de la loi bĂȘta (a=b=1). La loi de Xenakis est aussi un cas particulier de loi BĂȘta.
    • La loi power-beta est celle d'une puissance d'une loi bĂȘta ; elle se situe entre une loi bĂȘta et une loi Kumaraswamy.
  • La loi Kumaraswamy est trĂšs proche de la loi bĂȘta ; les formules de ses fonctions de densitĂ© et de rĂ©partition sont plus faciles Ă  utiliser.
  • La loi bĂȘta gĂ©nĂ©ralisĂ©e a des cas particuliers parmi toutes les catĂ©gories dĂ©crites ici.
  • La loi sub-bĂȘta est la distribution de la fraction X⁄(X+Y) quand X et Y suivent des lois exponentielles indĂ©pendantes.
  • La loi alpha est distribuĂ©e sur [0,1].
  • La loi de Pearson Type II est une loi bĂȘta symĂ©trique autour de zĂ©ro. Elle a pour limite la loi normale.
  • La loi du cosinus surĂ©levĂ© sur un intervalle [-s,+s]
  • La loi rĂ©ciproque
  • La loi parabolique ou loi en U
  • La loi puissance
  • La loi logarithmique continue
  • La loi du demi-cercle de Wigner, ou de Sato-Tate, ou loi elliptique, joue un rĂŽle dans la thĂ©orie des matrices alĂ©atoires (distribution des valeurs propres).
    • La loi de Wigner est le cas limite de la loi de Kesten-McKay.
  • La loi logit-normale, sur (0,1), est la distribution d'une variable dont la transformĂ©e logit est une v.a. normale.
  • La normale peut bien sĂ»r ĂȘtre tronquĂ©e sur un domaine fini [c, d].
  • La loi de von Mises ou de Tikhonov ou loi normale circulaire Ă©tablit la distribution d'angles ou de directions sur le cercle [0, 2π]. N.B.: cette loi peut ĂȘtre vue comme une distribution bivariĂ©e sur le cercle. Voir ci-dessous.

Sur un intervalle semi-fini

Fonctions de densitĂ© de lois du χÂČ.
Fonction de densité de lois exponentielles.
Fonctions de densité de lois Gamma.
Fonctions de densité de lois de Pareto.
  • La loi exponentielle mesure le temps d'attente avant la survenance d'un Ă©vĂ©nement alĂ©atoire dans un processus de Poisson (ou, alternativement, la durĂ©e entre deux Ă©vĂ©nements consĂ©cutifs). C'est un cas particulier de la loi Gamma.
  • La loi Gamma ou loi de Pearson Type III mesure le temps d'attente avant la survenance de N Ă©vĂ©nements alĂ©atoires dans un processus de Poisson. Elle gĂ©nĂ©ralise la loi exponentielle.
    • La loi d'Erlang est un autre nom de la distribution Gamma lorsque le paramĂštre N est entier.
    • La loi log-gamma est la distribution d'une variable dont le logarithme suit une distribution Gamma.
  • La loi gamma gĂ©nĂ©ralisĂ©e a beaucoup de cas particuliers, selon l'exposant de x dans l'exponentielle.
    • La loi inverse-gamma ou loi de Pearson Type V est la distribution d'une variable X dont l'inverse 1⁄X suit une distribution Gamma.
    • La loi de Nakagami sert Ă  modĂ©liser la racine carrĂ©e d'une Gamma.
    • La loi de Rayleigh sert, entre autres, Ă  distribuer la distance Ă  l'origine d'un point tirĂ© d'une Normale bivariĂ©e centrĂ©e en (0,0).
    • La loi de Rice est une gĂ©nĂ©ralisation de la loi de Rayleigh : distance d'une variable alĂ©atoire normale bivariĂ©e Ă  un point quelconque du plan.
  • La loi de Wald, ou loi inverse-gaussienne, est la distribution du temps d'attente d'un mouvement brownien.
    • La loi Ex-Wald, est la convolution (somme) d'une loi de Wald et d'une loi exponentielle.
  • La loi de LĂ©vy est distribuĂ©e sur [”,∞[ . (Voir loi stable)
  • La loi du χÂČ â€” prononcĂ© « khi-carrĂ© Â» ou, parfois en France, « khi-deux Â» — est la distribution de la somme des carrĂ©s de n variables alĂ©atoires Normales Standard indĂ©pendantes. Elle sert Ă  dĂ©crire la distribution d'une variance d'Ă©chantillon. Elle a des applications dans les tests d'ajustement de donnĂ©es de comptage. C'est un cas particulier de la loi Gamma.
    • La loi du χÂČ non centrĂ©e est la distribution de la somme des carrĂ©s de n variables alĂ©atoires normales (”,1) indĂ©pendantes.
    • La loi inverse-χÂČ est la distribution d'une variable X dont l'inverse 1⁄X suit une distribution Khi-carrĂ©.
    • La loi inverse-χÂČ recalibrĂ©e
    • La loi du χ dĂ©crit la distribution de la racine carrĂ©e d'une khi-carrĂ©e, par exemple un Ă©cart-type d'Ă©chantillon.
    • La loi du χ non centrĂ©e dĂ©crit la distribution de la racine carrĂ©e d'une khi-carrĂ©e non centrĂ©e.
  • La loi bĂȘta prime (ÎČ'), ou loi BĂȘta II ou loi de Pearson de type VI, est la distribution du ratio de deux v.a. exponentielles indĂ©pendantes.
    • La loi bĂȘta prime gĂ©nĂ©ralisĂ©e a pour cas particuliers la ÎČ', la Gamma composĂ©e, la loi de Dagum, la loi log-logistique, la loi de Burr.
    • La loi gamma composĂ©e est la distribution d'une v.a. Gamma dont le paramĂštre (λ) est distribuĂ© selon une Gamma. C'est un cas particulier (p=1) de la BĂȘta prime gĂ©nĂ©ralisĂ©e.
    • La loi log-logistique, ou distribution de Fisk, est la loi d'une variable alĂ©atoire dont le logarithme est distribuĂ© selon une Loi logistique. Elle est utilisĂ©e pour modĂ©liser des durĂ©es de vie, des dĂ©bits de cours d'eau, des distributions de revenus.
    • La loi de Burr, ou de Singh-Maddala, ou loi log-logistisque gĂ©nĂ©ralisĂ©e, est communĂ©ment utilisĂ©e pour Ă©tudier les revenus des mĂ©nages.
    • La loi de Dagum, ou Burr inverse, est la distribution de l'inverse d'une v.a. de distribution Burr. Il existe une loi de Dagum de type I Ă  trois paramĂštres et une loi de Dagum de type II Ă  quatre paramĂštres, qui ajoute un point de masse en zĂ©ro.
  • La loi F ou loi de Fisher ou de Fisher-Snedecor est la distribution du ratio de deux variables suivant une loi khi-2 indĂ©pendantes normalisĂ©es (c.-Ă .-d. divisĂ©es par leur degrĂ© de libertĂ©). Elle s'utilise pour effectuer des tests en rĂ©gression multiple et en analyse de la variance (ANOVA). Le carrĂ© d'une variable T de Student est une variable F de paramĂštre (1,m).
    • Le TÂČ de Hotelling est la distribution d'une transformĂ©e de F, qui s'utilise pour effectuer des tests d'analyse de variance.
    • La loi F non centrĂ©e gĂ©nĂ©ralise la loi F au ratio de deux v.a. khi-carrĂ©es non centrĂ©es indĂ©pendantes normalisĂ©es.
    • La distribution du ratio de deux v.a. khi-carrĂ©es indĂ©pendantes non normalisĂ©es (c.-Ă .-d. non divisĂ©es par leur degrĂ© de libertĂ©) est la loi bĂȘta prime.
  • Distributions dĂ©rivĂ©es de la normale
  • La loi de Pareto a des applications dans l'Ă©tude de la rĂ©partition des richesses, entre autres. Elle a quatre types.
    • La Pareto (type I), ou « distribution puissance Â».
    • La Pareto type II.
      • La loi de Lomax est un cas particulier de Pareto type II.
    • La Pareto type III.
    • La Pareto type IV.
  • La loi de Feller-Pareto est une gĂ©nĂ©ralisation supplĂ©mentaire de la type IV, Ă  5 paramĂštres.
  • La loi de Pareto gĂ©nĂ©ralisĂ©e a pour support [”,∞[ si c > 0 et [”,”-b⁄c[ si c > 0. Elle se rĂ©duit Ă  une exponentielle si c tend vers 0.
  • Distributions d'extrema (voir GEV ou loi de Fisher-Tippett)
    • La loi de Weibull ordinaire, ou de Rosin-Rammler, est la distribution d'un minimum. Elle dĂ©crit la durĂ©e de vie de composants techniques, ou la distribution des tailles des particules produites par des opĂ©rations de concassage. Elle a pour cas particuliers la loi exponentielle (a=1) et la loi de Rayleigh (a=2).
    • La poly-Weibull est la distribution du minimum de plusieurs Weibull de paramĂštres diffĂ©rents.
    • La Weibull exponentiĂ©e est une gĂ©nĂ©ralisation.
    • La loi de Weibull renversĂ©e, ou loi de Fisher-Tippett de type III, est la distribution d'un maximum. Elle a pour domaine x<m.
    • La loi de FrĂ©chet, ou loi de Fisher-Tippett de type II, est aussi une distribution de maximum. Son domaine est x>0.
    • La loi de Gumbel (de type 2) gĂ©nĂ©ralise la loi de FrĂ©chet.
    • La loi de Gompertz, une Gumbel renversĂ©e, dĂ©crit des extrema et des taux de mortalitĂ©.
    • La loi de Gompertz avec dĂ©rive, dĂ©crit le maximum d'une loi exponentielle et d'une loi de Gumbel.
    • La loi gamma-Gompertz est une mixture gamma de lois Gompertz.
  • La loi Exponentielle-Logarithmique est la distribution du minimum d'un nombre N de variables exponentielles, oĂč N a une distribution logarithmique.
  • La loi de Birnbaum–Saunders, ou loi du temps d'usure, est construite Ă  partir de la normale, appliquĂ©e Ă  une transformation . Elle a des applications en contrĂŽle de qualitĂ© et modĂ©lisation des durĂ©es de vie de systĂšmes mĂ©caniques.
  • La loi de Planck s'utilise en physique statistique.
    • La loi de Davis la gĂ©nĂ©ralise en dĂ©calant son mode et a Ă©tĂ© utilisĂ©e pour modĂ©liser des distributions de revenus.
  • La loi log-Cauchy est la distribution d'une variable dont le logarithme suit une distribution de Cauchy.
  • La loi log-Laplace est la distribution d'une variable dont le logarithme suit une distribution de Laplace.
  • La loi de Mittag–Leffler est un cas particulier de loi gĂ©omĂ©trique stable ou loi gĂ©o-stable.

Sur la droite des réels

Fonctions de densité de lois stables.
Fonctions de densité de lois de Cauchy.
Fonctions de densité de lois de Laplace.

Lois qui portent le nom de leur forme fonctionnelle :

  • La loi arctangente est un cas de la loi de Cauchy.
  • La loi sĂ©cante hyperbolique
  • La loi logistique
  • La loi logistique gĂ©nĂ©ralisĂ©e
  • La loi normale, ou courbe de Gauss ou courbe en cloche (« bell curve »), est extrĂȘmement frĂ©quente dans la nature comme dans les applications statistiques, du fait du thĂ©orĂšme central limite : tout phĂ©nomĂšne modĂ©lisable comme une somme de nombreuses variables indĂ©pendantes, de moyenne et variance finies, a une distribution asymptotiquement normale.
  • La loi hyperbolique peut se dĂ©finir comme une mixture de normales.
  • La loi t ou loi de Student est utilisĂ©e dans de nombreux tests statistiques d'estimation de moyenne ou de rĂ©gression linĂ©aire. Une variable T de Student est le ratio d'une Normale standard et de la racine d'une Khi-carrĂ©e normalisĂ©e.
    • La loi t non centrale est basĂ©e sur une Normale rĂ©duite non centrĂ©e.
    • Il existe une loi t non standard : distributions de la variable ” + σt, oĂč t est une Student, et une loi t discrĂ©tisĂ©e.
  • La loi de Pearson Type IV est une version asymĂ©trique de la Type VII.
  • La loi de Pearson Type VII a pour cas particuliers la loi de Student, la loi normale (si a=1/m et m→infini) et la loi de Cauchy
  • La loi z de Fisher est la distribution de la moitiĂ© du logarithme d'une v.a. Fisher. Elle est liĂ©e Ă  la transformation de Fisher.
  • La loi de Laplace a pour cas particulier, quand m=0, la Double Exponentielle, qui est la distribution de la diffĂ©rence de deux Exponentielles. C'est une loi stable.
  • Distributions sans moments
    • La loi de Cauchy, ou de Breit-Wigner, est la distribution du ratio de deux normales centrĂ©es, autrement dit de la tangente de l'angle formĂ© par ces deux Normales dans le plan. C'est un exemple de distribution sans espĂ©rance ni variance finies. En physique, elle porte le nom de fonction de Lorentz. C'est une loi stable.
    • La loi de Voigt, ou profil de Voigt, est la convolution d'une Normale et d'une Cauchy. Elle trouve des applications en spectroscopie.
    • La loi de Holtsmark est un exemple de distribution Ă  espĂ©rance finie mais variance infinie. C'est une loi stable.
    • La loi de Landau est aussi une loi stable. Les moments de la loi de Landau ne sont pas dĂ©finis, en particulier la moyenne et la variance. Elle est utilisĂ©e en physique pour dĂ©crire les fluctuations des pertes d'Ă©nergie de particules chargĂ©es traversant une fine couche de matiĂšre.
  • La loi de Linnik est une loi gĂ©omĂ©trique stable.
  • Distributions d'extrema (voir GEV ou loi de Fisher-Tippett)
    • La loi de Gumbel (de type 1), ou loi de Fisher-Tippett de type I, est aussi appelĂ©e log-Weibull, parce qu'elle est la distribution du logarithme d'une loi de Weibull. Elle est la distribution du maximum observĂ© parmi plusieurs donnĂ©es.
    • La loi de Gumbel standard en est le cas a=b=1, m=0.

Domaine variable

  • La loi d'extremum gĂ©nĂ©ralisĂ©e, ou GEV (pour generalized extreme value) ou loi de Fisher-Tippett, a comme cas particuliers les distributions de Gumbel (ou type I) de domaine Ă©gal Ă  l'ensemble des rĂ©els, de FrĂ©chet (ou type II) de borne infĂ©rieure finie et de Weibull renversĂ©e (ou type III) de borne supĂ©rieure finie.
  • La loi de Pareto gĂ©nĂ©ralisĂ©e peut ĂȘtre bornĂ©e infĂ©rieurement (k≀0) ou bornĂ©e des deux cĂŽtĂ©s (k>0).
  • La loi de Tukey-Lambda a pour domaine la droite des rĂ©els ou un intervalle bornĂ© selon la valeur d'un de ses paramĂštres. Elle se dĂ©finit par ses quantiles ; sa fonction de densitĂ© n'a pas de forme close.

Distributions mixtes discrĂšte/continues

Ces distributions ont des points de masse parmi les valeurs continues. L'exemple le plus courant est celui du temps d'attente (à un feu de circulation, à un guichet) : il y a une probabilité que le temps soit égal à zéro s'il ne faut pas attendre (point de masse), puis une distribution continue s'il y a attente.

Distribution singuliĂšre

  • La loi de Cantor a un domaine qui n'est ni discret, ni continu, mais fractal.

Distributions multivariées

Lorsque les variables aléatoires sont indépendantes, la fonction de densité de leur distribution conjointe est le produit des fonctions de densité individuelles.

Vecteur de variables aléatoires de domaines indépendants

Vecteur aléatoire de domaine contraint

Simplexe

  • La loi multinomiale gĂ©nĂ©ralise la loi binomiale Ă  plus de deux rĂ©sultats possibles.
    • La loi multihypergĂ©omĂ©trique fait de mĂȘme pour la loi hypergĂ©omĂ©trique.
    • La distribution catĂ©gorielle, ou multi-Bernoulli, n'est autre que la loi multinomiale lorsque le nombre de tirages N vaut 1. C'est une gĂ©nĂ©ralisation de la Bernoulli Ă  une expĂ©rience prĂ©sentant plus de deux rĂ©sultats possibles. N.B. : elle est parfois prĂ©sentĂ©e comme « distribution Ă  support non numĂ©rique Â» ou « qualitatif Â», parce qu'elle dĂ©nombre la prĂ©sence de tels critĂšres, par exemple les nationalitĂ©s dans un sondage.
  • La distribution d'Ewens (en) est une distribution de probabilitĂ© sur l'ensemble des partitions d'un entier N, utilisĂ©e en gĂ©nĂ©tique des populations.

Disque

  • La distribution d'Airy est uniforme sur un disque.

SphĂšre

  • La loi de Kent, ou de Fisher-Bingham, est une sorte de normale bivariĂ©e sur la sphĂšre tridimensionnelle.
  • La loi de von Mises-Fisher gĂ©nĂ©ralise la loi de von Mises sur la sphĂšre N-dimensionnelle.

Matrices aléatoires

  • La loi de Wishart donne la distribution des matrices de variance-covariance d'Ă©chantillon.
  • La loi de Wishart inverse donne la distribution des matrices inverses
  • La loi normale matricielle et la loi t matricielle portent sur des Ă©chantillons de variables normales (resp. t) multivariĂ©es.

Familles

Certaines distributions ont des propriĂ©tĂ©s utiles qu'elles partagent avec d'autres. Parfois, ces « sƓurs » peuvent ĂȘtre formulĂ©es comme des cas particuliers d'une expression gĂ©nĂ©rale.

Pour une description plus précise de la notion de famille, voir famille exponentielle.
  • La famille exponentielle est une (famille de) distributions dont la forme fonctionnelle est factorisable, de façon Ă  gĂ©nĂ©rer une sĂ©rie d'avantages pour les applications en infĂ©rence statistique ou en analyse bayesienne. Elle comprend un trĂšs grand nombre des distributions dĂ©crites dans cet article. La sous-famille exponentielle naturelle exige une factorisation encore plus dĂ©pouillĂ©e. Elle comporte les lois binomiale, Poisson, binomiale nĂ©gative, Gamma, normale et une sixiĂšme sans nom propre. Elles ont pour propriĂ©tĂ© que la somme de deux variables indĂ©pendantes a une distribution de mĂȘme forme (appelĂ©e la convolution).
  • La loi stable, ou distribution de LĂ©vy tronquĂ©e, est une famille de distributions continues dont la convolution est une distribution de la mĂȘme forme ; elle a pour cas particuliers :
  • La loi gĂ©omĂ©trique stable, ou gĂ©o-stable, est une famille de distributions telles que la somme d'un nombre N d'entre elles, oĂč N a une distribution gĂ©omĂ©trique, a une distribution de la mĂȘme forme ; elle a pour cas particuliers la loi de Linnik (cas symĂ©trique, droite des rĂ©els), la loi de Laplace et la loi de Mittag-Leffler (sur [0,∞[).
  • Les distributions de Pearson (12 types Ă  l'origine) sont les formes variĂ©es de solutions d'une Ă©quation diffĂ©rentielle Ă©tablie par Karl Pearson en 1894, afin d'obtenir des propriĂ©tĂ©s statistiques souhaitables. Plusieurs de ces solutions ont reçu un nom par la suite. On y retrouve notamment les distributions suivantes :
  • La famille de distributions logistiques gĂ©nĂ©ralisĂ©es (4 types) comprend, entre autres, la loi logistique asymĂ©trique, la loi de Champernowne, la loi log-logistique dĂ©calĂ©e, la loi bĂȘta gĂ©nĂ©ralisĂ©e et la loi de Burr.

Adaptations

  • Les processus stochastiques et la distribution de phases (en) d'une chaĂźne de Markov.
  • Les loi tronquĂ©es, ou conditionnelles, limitent le domaine de dĂ©finition considĂ©rĂ© (p.ex. une distribution normale sachant que x est positive).
  • Les loi mĂ©langĂ©es ou mixtures donnent la distribution globale d'une variable dans une 'population' dont chaque sous-groupe a sa propre loi (p.ex. la distribution des tailles dans une population mixte : bimodale).

Voir aussi

Articles connexes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.