Loi de Bernoulli
En mathĂ©matiques et plus prĂ©cisĂ©ment en thĂ©orie des probabilitĂ©s, la loi de Bernoulli, du nom du mathĂ©maticien suisse Jacques Bernoulli, dĂ©signe la loi de probabilitĂ© d'une variable alĂ©atoire discrĂšte qui prend la valeur 1 avec la probabilitĂ© p et 0 avec la probabilitĂ© q = 1 â p.
Exemple
Par exemple, dans pile ou face, le lancer d'une piĂšce de monnaie bien Ă©quilibrĂ©e tombe sur pile avec une probabilitĂ© 1/2 et sur face avec une probabilitĂ© 1/2. Une piĂšce peut ne pas ĂȘtre Ă©quilibrĂ©e et dans ce cas, on obtient pile avec une probabilitĂ© p â 1/2 et face avec une probabilitĂ© q = 1 â p â 1/2. En dĂ©signant pile par 1 et face par 0, on obtient une distribution de Bernoulli.
De maniÚre générale, la loi de Bernoulli est la loi de la variable aléatoire qui code le résultat d'une épreuve qui n'admet que deux issues (épreuve de Bernoulli) : 1 pour « succÚs », 0 pour « échec », ou quel que soit le nom qu'on donne aux deux issues d'une telle expérience aléatoire.
DĂ©finition
Une variable aléatoire suivant la loi de Bernoulli est appelée variable de Bernoulli. Plus formellement, une variable aléatoire X suit la loi de Bernoulli de probabilité p si
ou, de maniĂšre Ă©quivalente,
Propriétés
L'espĂ©rance mathĂ©matique d'une variable alĂ©atoire de Bernoulli vaut p et la variance vaut p(1 â p).
Le kurtosis tend vers l'infini pour des valeurs hautes et basses de p, mais pour p = 1/2 la distribution de Bernoulli a un kurtosis plus bas que toute autre distribution, câest-Ă -dire 1.
Plus généralement, toute application mesurable à valeur dans {0,1} est une variable de Bernoulli. Autrement dit, toute fonction indicatrice d'un évÚnement suit une loi de Bernoulli.
Réciproquement, pour toute variable de Bernoulli X définie sur (Ω, A, P), on peut trouver un ensemble mesurable B tel que X et la fonction indicatrice de B soient presque sûrement égales : toute variable de Bernoulli est presque sûrement égale à une fonction indicatrice.
Distributions liées
Loi binomiale
Si X1, X2, ⊠, Xn sont des variables aléatoires de Bernoulli de paramÚtre p, indépendantes et identiquement distribuées, alors leur somme N est une variable aléatoire, qui suit la loi binomiale :
En particulier, une variable aléatoire de Bernoulli de paramÚtre p suit une loi binomiale
Loi de Poisson
Soit X1, n, X2, n, ⊠, Xan, n un tableau de variables aléatoires de Bernoulli indépendantes, avec paramÚtres respectifs pk, n. On note
InĂ©galitĂ© de Le Cam[1] â Pour tout ensemble A d'entiers naturels,
En particulier, si les deux conditions suivantes sont réunies :
alors Sn converge en loi vers la loi de Poisson de paramÚtre λ.
Les deux conditions ci-dessus entrainent que
ConsĂ©quence : paradigme de Poisson â La somme Sn d'un grand nombre de variables de Bernoulli indĂ©pendantes de petit paramĂštre suit approximativement la loi de Poisson de paramĂštre
La loi de Poisson intervient souvent lorsqu'on compte des événements rares comme les suicides d'enfants, les arrivées de bateaux dans un port ou les accidents dus aux coups de pied de cheval dans les armées (étude de Ladislaus Bortkiewicz). Le décompte des événements rares se fait souvent au travers d'une somme de variables de Bernoulli, et la rareté des événements se traduit par le fait que les paramÚtres de ces variables de Bernoulli sont petits (ainsi, la probabilité que chaque événement survienne est faible).
- Un cas particulier célÚbre du paradigme de Poisson est la convergence de la loi binomiale de paramÚtres n et λ/n vers la loi de Poisson de paramÚtre λ, qui correspond, dans l'inégalité de Le Cam, aux choix an = n, pk,n = λ/n, λn = λ.
- Ce paradigme reste pertinent, dans certaines conditions, si l'on relaxe l'hypothÚse d'indépendance[2].
- Un exemple frappant est le nombre de points fixes d'une permutation tirée au hasard.
- Un autre exemple est le nombre de points isolés du graphe aléatoire, dont la convergence vers la loi de Poisson a permis à Erdös et Rényi de démontrer, en 1960, le théorÚme double-exponentiel.
- Le cas particulier an = n, pk,n = λ/n, λn = λ de l'inégalité de Le Cam précise la rapidité de convergence de la loi binomiale de paramÚtres n et λ/n vers la loi de Poisson de paramÚtre λ : l'inégalité de Le Cam fournit alors une majoration de l'erreur par λ2/n.
Applications au comptage
Ăcrire une variable alĂ©atoire N, comptant un nombre d'Ă©vĂ©nements dans une situation donnĂ©e, comme la somme d'une famille de variables de Bernoulli, permet souvent de calculer simplement l'espĂ©rance de N, comme Ă©tant la somme des paramĂštres de ces variables de Bernoulli :
On utilise le fait que, pour une variable de Bernoulli, le paramÚtre p est à la fois l'espérance et la probabilité de la valeur 1 :
Cette méthode simplifie aussi le calcul de la variance de N, dans certains cas :
et, lorsque I est ordonné, grùce à la propriété de symétrie de la covariance,
On trouvera ci-dessous quelques exemples, parmi les plus représentatifs, de cette méthode de comptage trÚs répandue.
Sondage
On compte lĂ , par exemple, le nombre N de rĂ©ponses « oui » dans un Ă©chantillon de population, lors d'un sondage, afin d'en dĂ©duire la proportion de « oui ». On effectue une sĂ©rie de n tirages au hasard dans une population. On pose la mĂȘme question Ă chacun des n individus tirĂ©s au hasard. Le but est d'estimer la proportion p d'individus de la population totale qui auraient rĂ©pondu « oui » (si on leur avait posĂ© la question) Ă l'aide du nombre N d'individus qui ont effectivement rĂ©pondu « oui » parmi les n individus interrogĂ©s. On remarque que N peut s'Ă©crire
oĂč X1 , X2 , ..., Xn sont dĂ©finies par
i.e. Xk vaut 1 ou 0 selon que la rĂ©ponse du k-Ăšme individu est « oui » ou « non ». Ătant une fonction indicatrice, Xk est donc une variable de Bernoulli. Son paramĂštre est « la probabilitĂ© de rĂ©pondre « oui » », Ă savoir la proportion de « oui » dans la population totale, c'est-Ă -dire p. On a donc
D'oĂč l'idĂ©e, proposĂ©e par Bernoulli dans son ouvrage fondateur Ars Conjectandi, d'estimer cette proportion p a priori inconnue Ă l'aide de la proportion N/n de « oui » dans l'Ă©chantillon, qui est, elle, connue. Dans le but de dĂ©terminer la prĂ©cision de cette estimation, Bernoulli a proposĂ© dans le mĂȘme ouvrage les premiĂšres inĂ©galitĂ©s de concentration (pour la loi binomiale)[3]. Une approche plus simple (mais produisant des inĂ©galitĂ©s de concentration plus grossiĂšres) que celle de Bernoulli, serait de calculer la variance de N, dans l'idĂ©e d'appliquer l'inĂ©galitĂ© de BienaymĂ©-Tchebychev. Ă ce stade, il est nĂ©cessaire de prĂ©ciser
- si les tirages ont eu lieu avec remise (i.e. il est possible que la mĂȘme personne soit interrogĂ©e plusieurs fois), ce qui implique l'indĂ©pendance des Xk, et donne
- Dans le cas « avec remise », N suit la loi binomiale.
- si les tirages ont eu lieu sans remise (i.e. en Ă©vitant d'interroger 2 fois la mĂȘme personne), auquel cas les Xk ne sont pas indĂ©pendants. Alors
- En ce cas N suit la loi hypergéométrique, et les calculs requiÚrent de connaßtre la taille totale de la population, qu'on notera T dans la suite. On a
- En effet la variable Z = XiXj vaut 0 ou 1, et est donc une variable de Bernoulli. Pour i < j, on a alors
- puis, à l'aide des propriétés de la variance,
Dans les deux cas considérés ci-dessus, la loi de N est connue explicitement. Cependant, le calcul de l'espérance de N utilisant la décomposition de N en somme de variables de Bernoulli, présenté ci-dessus, est plus simple que le calcul de l'espérance de N utilisant le théorÚme de transfert :
La mĂȘme remarque vaut pour le calcul de la variance.
Fonction de répartition empirique
On compte là le nombre N d'éléments inférieurs au nombre réel x dans un échantillon de nombres aléatoires, afin d'en déduire la proportion de tels nombres, qui est appelée fonction de répartition empirique. En statistiques, la fonction de répartition empirique associée à un n-échantillon est la fonction de répartition de la loi de probabilité qui attribue la probabilité 1/n à chacun des n nombres de cet échantillon.
Soit un échantillon de variables i.i.d. à valeurs dans ayant pour fonction de répartition commune F(x) : la fonction de répartition empirique associée à l'échantillon est une fonction en escalier définie par
Pour un x fixĂ©, la variable est une variable de Bernoulli, de paramĂštre p = F(x). Par consĂ©quent, la variable est distribuĂ©e selon une loi binomiale, avec pour moyenne nF(x) et pour variance nF(x)(1 â F(x)).
Pour divers sens du mot « convergence », la fonction de répartition empirique converge vers la fonction de répartition F des lorsque la taille de l'échantillon augmente[4]. Par exemple, en vertu du calcul de la variance de Fn (x), on a, pour tout x réel,
ce qui démontre la convergence de Fn (x) vers F(x), dans L2 .
RĂ©currence et transience d'une chaĂźne de Markov
Le temps de séjour (ou nombre de passages) d'une chaßne de Markov en un état est une variable aléatoire à valeurs dans définie par
L'état est dit transitoire ou récurrent, suivant que vaut 0 ou 1, ou encore suivant que le temps de séjour moyen en i, partant de i, est fini ou infini. Comme est une somme (infinie) de variables de Bernoulli, discuter ce dernier point revient à discuter la convergence de la série
oĂč est le paramĂštre de la variable de Bernoulli concernĂ©e, i.e.
lequel paramÚtre étant par ailleurs un terme diagonal de la puissance k-Úme de la matrice de transition de la chaßne de Markov considérée.
ProblĂšmes d'allocation : boĂźtes et boules
On compte ici le nombre N de boĂźtes vides, dans une expĂ©rience alĂ©atoire faisant intervenir boĂźtes et boules, avec de nombreuses interprĂ©tations. On jette m boules au hasard dans n boĂźtes, expĂ©rience probabiliste dont un Ă©vĂ©nement Ă©lĂ©mentaire Ï est une application de dans : Ï(k) est le numĂ©ro de la boĂźte dans laquelle est rangĂ©e la boule numĂ©ro k. Ainsi les Ï(k) sont des variables alĂ©atoires indĂ©pendantes et uniformes sur A. L'application N, qui Ă une distribution Ï de m boules dans n boĂźtes associe le nombre N(Ï) de boĂźtes vides Ă la fin de cette distribution Ï, peut ĂȘtre vue comme une somme de variables alĂ©atoires de Bernoulli : en effet,
oĂč X1, X2, ⊠, Xn sont dĂ©finies par
i.e. Xk vaut 1 ou 0 selon que la k-Ăšme boĂźte est vide ou pas Ă la fin de la distribution Ï. Ătant une fonction indicatrice d'Ă©vĂ©nement, Xk est donc une variable de Bernoulli. Son paramĂštre est « la probabilitĂ© d'ĂȘtre vide », i.e. la probabilitĂ© que chacune des m boules ait Ă©vitĂ© la boĂźte n° k. Chacune des m boules ayant une probabilitĂ© 1/n de tomber dans la boĂźte n°k, et les allocations des m boules Ă©tant indĂ©pendantes, on obtient
puis
Grùce à cette décomposition en somme de variables de Bernoulli, on peut obtenir une inégalité de concentration précise pour N, en appliquant l'inégalité d'Azuma[5]. Cette inégalité de concentration permet de justifier une méthode statistique de comptage approximatif[6] basée sur la statistique N, et pouvant servir, par exemple, à déceler une attaque de virus informatique.
Remarque : La loi de probabilitĂ© de N s'exprime explicitement en termes des nombres de Stirling de seconde espĂšce, mais les expressions obtenues sont peu propices au calcul numĂ©rique, d'oĂč la nĂ©cessitĂ© d'une approximation via l'inĂ©galitĂ© d'Azuma.
Points fixes d'une permutation tirée au hasard
On jette n boules numĂ©rotĂ©es au hasard dans n boites numĂ©rotĂ©es, chacune de ces boites contenant au plus une boule, expĂ©rience probabiliste dont un Ă©vĂ©nement Ă©lĂ©mentaire est une permutation des Ă©lĂ©ments de : est, lĂ encore, le numĂ©ro de la boite dans laquelle est rangĂ©e la boule numĂ©ro k. On suppose que les diffĂ©rentes distributions (permutations) possibles sont Ă©quiprobables. L'application N, qui Ă une distribution de n boules dans n boites associe le nombre de boules portant le mĂȘme numĂ©ro que la boite dans laquelle elles sont rangĂ©es Ă la fin de cette distribution peut ĂȘtre vue comme une somme de variables de Bernoulli : en effet,
oĂč X1, X2, ⊠, Xn sont dĂ©finies par
c.-Ă -d. Xk vaut 1 ou 0 selon que la k-iĂšme boite contient la k-iĂšme boule ou pas. Ătant une fonction indicatrice d'Ă©vĂ©nement, Xk est donc une variable de Bernoulli. Son paramĂštre est 1/n. On obtient que
En suivant une démarche analogue à celle suivie pour un sondage (cas sans remise), on trouve que
Le principe d'inclusion-exclusion permet de calculer exactement la loi de N, et de constater que cette loi converge, lorsque n tend vers l'infini, vers la loi de Poisson de paramÚtre 1 (qui, incidemment, a 1 pour espérance, et a aussi 1 pour variance). Cet exemple est représentatif : en général, la loi de Poisson de paramÚtre est une bonne approximation de la loi de la somme N d'un grand nombre de variables de Bernoulli de petit paramÚtre et peu corrélées[2]. Là encore, un avantage de l'écriture de N comme somme de variables de Bernoulli est de permettre un calcul de l'espérance et de la variance de N plus rapide qu'à partir de l'expression explicite de la loi de N.
Nombre d'occurrences d'un mot dans un texte (paradoxe du singe dactylographe)
On considĂšre un texte Ï = Ï1Ï2Ï3âŠÏm constituĂ© de m caractĂšres d'imprimerie, notĂ©s Ïi, 1 †i †m, lesquels caractĂšres d'imprimerie sont tous tirĂ©s au hasard, avec remise, d'un sac contenant exactement une fois chaque caractĂšre d'imprimerie. On note l'ensemble des caractĂšres d'imprimerie, n le cardinal de Soit une suite a = a1a2a3âŠar de caractĂšres de par exemple un mot, comme WikipĂ©dia (r = 9 dans ce cas particulier). L'application N, qui Ă un texte Ï associe le nombre N(Ï) d'occurrences de la suite a dans le texte Ï peut ĂȘtre vue comme une somme de variables de Bernoulli : en effet,
oĂč X1, X2, ⊠, Xmâr+1 sont dĂ©finies par
i.e. Xk vaut 1 ou 0 suivant que la suite a apparaĂźt dans le texte Ï, juste aprĂšs le (k â 1)-Ăšme caractĂšre de ce texte Ï, ou pas. Ătant une fonction indicatrice d'Ă©vĂ©nement, Xk est donc une variable de Bernoulli. Son paramĂštre est
Ainsi
L'intuition est alors qu'il faut un texte Ï de longueur au moins m = nr pour que l'Ă©vĂ©nement (autrement dit l'Ă©vĂ©nement « le mot a apparaĂźt au moins une fois dans le texte Ï Â») devienne probable. En effet, l'inĂ©galitĂ© de Markov entraĂźne que
Le paradoxe du singe dactylographe, popularisĂ© par Ămile Borel[7], exploite les propriĂ©tĂ©s de N lorsque la longueur r de la sĂ©quence de caractĂšres a est trĂšs grande. Dans l'exemple donnĂ© par Ămile Borel, la sĂ©quence a est un texte classique de la littĂ©rature française, par exemple le texte intĂ©gral de La ComĂ©die humaine. La mĂȘme dĂ©marche conduit le mĂȘme Ămile Borel Ă dĂ©montrer le thĂ©orĂšme du nombre normal.
L'analyse statistique des suites de caractÚres tirés au hasard indépendamment, ou tirés au hasard suivant des modÚles plus sophistiqués, a de nombreuses applications, comme l'analyse des performances de différentes méthodes de compression de données, ou encore l'étude du génome, et est à l'origine de la formalisation, par Andreï Markov, de la notion de chaßne de Markov.
Nombre de records et nombre de cycles des permutations
DĂ©finition â Dans une suite u = (uk)1â€kâ€n, il y a record vers le bas (resp. vers le haut) au rang k si uk est strictement plus petit (resp. strictement plus grand) que chaque terme ui tel que i < k, c'est-Ă -dire strictement plus petit (resp. strictement plus grand) que chacun des termes qui le prĂ©cĂšdent.
Exemple. Les records vers le bas de la suite Ï ci-dessous sont en gras et soulignĂ©s :
Soit B(k) (resp. H(k)) l'Ă©vĂ©nement « il y a record vers le bas (resp. vers le haut) au rang k ». Autrement dit, B(k) est l'ensemble des permutations Ï de pour lesquelles la suite (Ï(1), Ï(2), Ï(3), ..., Ï(n)) prĂ©sente un record vers le bas au rang k. Ainsi le nombre Nb(Ï) (resp. Nh(Ï)) de records vers le bas (resp. vers le haut) de la permutation Ï s'Ă©crit comme une somme de variables de Bernoulli :
En vertu des propriétés statistiques du code de Lehmer, ces variables de Bernoulli ont pour paramÚtres respectifs 1/k :
Ainsi
oĂč Hn dĂ©signe le n-Ăšme nombre harmonique. Comme, toujours en vertu des propriĂ©tĂ©s statistiques du code de Lehmer, les variables de Bernoulli concernĂ©es sont indĂ©pendantes[8], on a Ă©galement
oĂč Hn(2) est le nombre harmonique dĂ©fini par
et converge vers ζ(2), i.e. vers Ï2/6.
La correspondance fondamentale de Foata permet de montrer que les deux applications suivantes :
- le nombre Nb(Ï) de records d'une permutation Ï tirĂ©e au hasard,
- le nombre C(Ï) de cycles de la dĂ©composition d'une permutation Ï tirĂ©e au hasard,
sont deux variables alĂ©atoires ayant mĂȘme loi de probabilitĂ©. Cette loi de probabilitĂ© s'exprime en termes des nombres de Stirling de premiĂšre espĂšce, notĂ©s :
ce qui donne une formule exacte, mais peu explicite, pour formule exacte dont il est alors difficile de déduire un calcul effectif de la probabilité en question.
En revanche, l'écriture de Nb comme somme de variables de Bernoulli permet d'appliquer à Nb le théorÚme central limite. Ainsi, on constate que le nombre de cycles d'une permutation tirée au hasard, comme son nombre de records, sont trÚs concentrés autour leur espérance, qui vaut approximativement ln n. Plus précisément :
pour a = 3,3.
Coût moyen de l'algorithme de tri rapide
L'algorithme de tri rapide, également appelé Quicksort, est un des algorithmes les plus utilisés pour ranger, dans l'ordre croissant, une liste désordonnée x = (x1, x2, x3, ⊠, xn) de n articles, à l'aide d'un petit nombre de comparaisons deux à deux. En effet, Quicksort est réputé à la fois simple et efficace. Quicksort se déroule de la maniÚre suivante :
- on compare x1 avec chacun des Ă©lĂ©ments de la liste (x2, x3, ⊠, xn), ce qui permet de constituer 2 sous-listes, la liste des Ï1 â 1 Ă©lĂ©ments plus petits (resp. des n â Ï1 Ă©lĂ©ments plus grands) que x1. Cela fournit le rang Ï1 que x1 occupera dans la liste une fois que celle-ci sera bien rangĂ©e.
- on compare x2 avec chacun des Ă©lĂ©ments de sa sous-liste, ce qui permet de trouver le rang de x2 dans cette sous-liste, et finalement le rang Ï2 que x2 occupera dans la liste complĂšte une fois que celle-ci sera bien rangĂ©e. Par ailleurs cela scinde une des deux sous-listes constituĂ©es Ă l'Ă©tape prĂ©cĂ©dente en deux, constituant ainsi 3 sous-listes, dont certaines, Ă©ventuellement, peuvent ĂȘtre vides (si x1 ou x2 sont des Ă©lĂ©ments extrĂ©maux de leur (sous-)liste).
- on compare x3, etc.
Une implémentation concrÚte de cet algorithme abstrait est décrite par Donald Knuth dans The Art of Computer Programming[9].
La performance de Quicksort, dans le pire des cas (pire des cas qui correspond Ă une liste dĂ©jĂ bien rangĂ©e, dans l'ordre croissant ou dĂ©croissant), est de l'ordre de n2 comparaisons deux Ă deux. Pour cette raison, une liste constituĂ©e de concatĂ©nations de listes bien rangĂ©es (configuration frĂ©quente en pratique) coĂ»tera cher Ă ranger, en nombre de comparaisons effectuĂ©es. Le remĂšde souvent adoptĂ© pour pallier cette faiblesse de Quicksort est de dĂ©sordonner artificiellement la liste avant de la traiter : on note Ï = (Ï(1), Ï(2), Ï(3), ⊠, Ï(n)) les rangs respectifs des Ă©lĂ©ments (x1, x2, x3, ⊠, xn) de la liste dĂ©sordonnĂ©e au prĂ©alable, une fois que ces Ă©lĂ©ments sont rangĂ©s en une liste croissante (y1 < y2 < y3 < ⊠< yn), de sorte que xi = yÏ(i). On suppose donc que la liste a Ă©tĂ© prĂ©traitĂ©e de sorte que Ï soit une permutation tirĂ©e au hasard avec Ă©quiprobabilitĂ© parmi les n! permutations possibles. On note N(Ï) le nombre de comparaisons effectuĂ©es par l'algorithme. Alors
oĂč A(i,j) est l'Ă©vĂ©nement « yi et yj sont comparĂ©s une fois au cours de l'algorithme ». En dĂ©coule une analyse Ă©lĂ©mentaire du coĂ»t moyen de Quicksort, plus simple que la mĂ©thode classique utilisant une formule de rĂ©currence et un calcul de fonction gĂ©nĂ©ratrice.
Ainsi la randomisation de la liste fournie en entrĂ©e permet de diminuer le coĂ»t de l'algorithme, de n2 Ă 2n ln(n). Une analyse plus poussĂ©e permet de dĂ©montrer que N est trĂšs concentrĂ© autour de sa moyenne 2n ln(n). Plus prĂ©cisĂ©ment, la variance de N est asymptotiquement (7 â (2Ï2/3)) n2, d'oĂč on dĂ©duit que l'Ă©cart-type de N est de l'ordre de n, c'est-Ă -dire nĂ©gligeable devant l'espĂ©rance de N. Notons que le coĂ»t (coĂ»t moyen ou coĂ»t dans le pire des cas) de n'importe quel algorithme de tri utilisant des comparaisons 2 Ă 2 est minorĂ© par ln(n!)/ln(2) qui, d'aprĂšs la formule de Stirling, vaut approximativement 1,4n ln(n).
Notes et références
- (en) L. Le Cam, « An Approximation Theorem for the Poisson Binomial Distribution », Pacific Journal of Mathematics, vol. 10, no 4,â , p. 1181-1197 (lire en ligne, consultĂ© le )
- (en) A. D. Barbour, L. Holst et S. Janson, Poisson approximation, Oxford, The Clarendon Press Oxford University Press, coll. « Oxford Studies in Probability », , 277 p. (ISBN 0-19-852235-5).
- (en) Stephen M. Stigler, The History of Statistics : The Measurement of Uncertainty before 1900, Harvard, Belknap Press of Harvard University Press, , 1re éd., 432 p. (ISBN 978-0-674-40341-3, lire en ligne), chap. 2 (« Probabilists and the measurement of uncertainty »), p. 65-70.
- voir (en) Galen R. Shorack et Jon A. Wellner, Empirical Processes With Applications to Statistics, Society for Industrial & Applied Mathematics, , 998 p. (ISBN 978-0-89871-684-9, lire en ligne), ou bien encore le ThéorÚme de Glivenko-Cantelli.
- (en) Rajeev Motwani et Prabhakar Raghavan, Randomized Algorithms, Cambridge, New York et Melbourne, Cambridge University Press, (réimpr. 1997, 2000), 1re éd., 476 p. (ISBN 978-0-521-47465-8, lire en ligne), chap. 4 (« Tail inequalities »), p. 94-95, ThéorÚme 4.18.
- proposĂ©e par (en) Kyu-Young Whang et Ravi Krishnamurthy, « Query optimization in a memory-resident domain relational calculus database system », ACM Transactions on Database Systems (TODS), New York, NY, USA, ACM, vol. 15, no 1,â , p. 67-95 (ISSN 0362-5915, lire en ligne).
- Voir Ămile Borel, « MĂ©canique Statistique et IrrĂ©versibilitĂ© », J. Phys. 5e sĂ©rie, vol. 3,â , p. 189-196.
- (en) Donald E. Knuth, The Art of Computer Programming, vol. 3 : Sorting and Searching, , 2e Ă©d. [dĂ©tail de lâĂ©dition], p. 13.
- Knuth 1998, chap. 5.2.2 (« Sorting by Exchanging »).
- (en) Michael Mitzenmacher et Eli Upfal, Probability and Computing : Randomized Algorithms and Probabilistic Analysis, Cambridge, Cambridge University Press, , 1re éd., 368 p. (ISBN 978-0-521-83540-4, lire en ligne), chap. 2 (« Discrete Random Variables and Expectation, Section 2.5 »), p. 34-37.
Voir aussi
Articles connexes
Lien externe
(en) Eric W. Weisstein, « Bernoulli Distribution », sur MathWorld