AccueilđŸ‡«đŸ‡·Chercher

Algorithme de Las Vegas

En informatique, un algorithme de Las Vegas est un type d'algorithme probabiliste qui donne toujours un résultat correct ; son caractÚre aléatoire lui donne de meilleures performances temporelles en moyenne[2]. Comme le suggÚre David Harel dans son livre d'algorithmique[3], ainsi que Motvani et Raghavan[2], le tri rapide randomisé[4] est un exemple paradigmatique d'algorithme de Las Vegas.

Algorithme de Las Vegas
Les exécutions d'un algorithme de Las Vegas donnent toujours un résultat correct ; c'est le temps d'exécution qui est aléatoire.
DĂ©couvreur ou inventeur
Date de découverte
1979[1]
ProblÚme lié
Algorithmic paradigm (en)
À l'origine de
Complexité en temps
Pire cas
Meilleur cas

Quand le problĂšme que l'algorithme rĂ©sout possĂšde plusieurs solutions, sur une mĂȘme donnĂ©e, comme c'est le cas pour le tri d'un tableau qui contient des clĂ©s Ă©quivalentes, l'algorithme de Las Vegas peut retourner l'une ou l'autre de ces solutions, et il le fait de façon non prĂ©visible.

Exemple du tri rapide randomisé

Dans cette section, nous expliquons l'exemple du tri rapide randomisé qui est un algorithme de Las Vegas.

Description de l'algorithme

L'algorithme de tri rapide aléatoire, ou quicksort randomisé consiste à trier un tableau d'éléments en utilisant diviser pour régner :

  1. choisir aléatoirement un pivot (i.e. un élément du tableau) ;
  2. partitionner le tableau en plaçant les éléments strictement plus petits que le pivot à gauche (sous-tableau A), puis le pivot, puis les éléments plus grands que le pivot (sous-tableau B) ;
  3. trier récursivement les sous-tableaux A et B.

Le résultat est un tableau constitué d'un tri du tableau A, suivi du pivot, suivi d'un tri du tableau B.

Analyse du temps d'exécution

On effectue l'algorithme de tri rapide randomisé sur un exemple. Les pivots successifs sont surlignés en gris.
On effectue l'algorithme de tri rapide randomisĂ© sur le mĂȘme exemple en surlignant en gris les pivots successifs. On obtient un autre ordre de tri

L'alĂ©atoire se situe au niveau du choix des pivots. Le rĂ©sultat est un tableau triĂ©, quels que soient les choix de pivots, i.e. le rĂ©sultat est toujours correct. En revanche, le temps d'exĂ©cution dĂ©pend de ces choix. C'est, en fait, un tri souvent utilisĂ© sur des tableaux de grandes tailles parce que, de maniĂšre empirique, il donne de bons rĂ©sultats en complexitĂ© temporelle[5]. Dans les figures Ă  droite, l'algorithme est exĂ©cutĂ© deux fois sur le mĂȘme Ă©chantillon ; on voit que l'on obtient un tableau triĂ© dans les deux cas, alors que les pivots sont choisis alĂ©atoirement.

  • Si l'algorithme choisit toujours le pivot le plus petit (ou le plus grand)[6], alors le partitionnement est dĂ©sĂ©quilibrĂ©. Le temps d'exĂ©cution vĂ©rifie l'Ă©quation de rĂ©currence et on a .
  • Si l'algorithme pouvait choisir toujours le pivot mĂ©dian, c'est-Ă -dire au milieu du tableau (par une sorte d'oracle), la relation de rĂ©currence serait et on a .

Pour simuler l'oracle, on prend un choix aléatoire du pivot en espérant qu'il nous donnera souvent un pivot situé pas trÚs loin de la médiane.

Proposition d’implĂ©mentation

La version Las Vegas du tri rapide choisit aléatoirement le pivot dans la liste à trier, tout en gardant le reste de l'algorithme inchangé. En voici le code en langage Python :

# Import des modules nécessaires
from random import *		# Outils et fonctions d'aléatoires
# Fonction de séparation de listes selon le pivot
def separation(liste, pivot, n):
	"""
		Entrée: une liste, un pivot et la place du pivot dans la liste
		Sortie: deux listes
		- la premiÚre contenant les éléments plus petits que le pivot
		- la seconde contenant les éléments plus grands ou égal au pivot
	"""
	# Les listes Ă  remplir
	listePetit = []
	listeGrand = []
	# Traitement liste à séparer
	for (i, x) in enumerate(liste):
		# Exclusion du pivot
		if i == n: continue
		# SĂ©paration
		if x >= pivot: listeGrand.append(x)
		else: listePetit.append(x)
	# for
	# On renvoie le tuple contenant les deux listes
	return (listePetit, listeGrand)
# separation()
# Fonction tri rapide
def quicksort(liste):
	"""
		Entrée: une liste
	  	Sortie: la liste triée
	"""
	# Longueur de la liste
	n = len(liste)
	# Une liste vide ou à un élément est toujours triée
	if n <= 1: return liste 
	# Choix du pivot au hasard dans la liste
	i = randint(0, n - 1) 
	pivot = liste[i]
	# SĂ©paration de la liste en deux sur le pivot
	(petit, grand) = separation(liste, pivot, i) 
	# Appel récursif sur chacune des listes et regroupement des résultats
	return quicksort(petit) + [pivot] + quicksort(grand)
# quicksort()

Existence d'une stratégie optimale pour les algorithmes de Las Vegas

Étant donnĂ© un algorithme de Las Vegas A, Luby, Sinclair et Zuckerman ont Ă©tudiĂ© comment minimiser l'espĂ©rance du temps requis pour obtenir la rĂ©ponse de A. Pour cela ils adoptent une stratĂ©gie[7] qui indique, quand relancer l'algorithme[8]. On note TA(x) le temps d'une exĂ©cution de A sur l'entrĂ©e x ; ce temps n'est pas toujours le mĂȘme, c'est une variable alĂ©atoire.

Etant donné A et une entrée x, les stratégies, telles que Luby et al. les considÚrent, ont la forme suivante :

  • On se fixe une entier t1 et on effectue t1 Ă©tapes de l'algorithme A sur l'entrĂ©e x. S'il s'est arrĂȘtĂ©, alors la stratĂ©gie se termine.
  • Sinon, on se fixe un autre entier t2 et on effectue t2 Ă©tapes de l'algorithme A sur l'entrĂ©e x. S'il s'est arrĂȘtĂ©, alors la stratĂ©gie se termine.
  • Sinon, etc.

Ainsi, une stratĂ©gie S a une deuxiĂšme composante, Ă  savoir une suite infinie d'entiers, de sorte que nous pouvons Ă©crire une stratĂ©gie sous la forme S(A, t1, t2, ...). Une stratĂ©gie est optimale si elle minimise l'espĂ©rance du temps de son exĂ©cution sur x pour un A fixĂ©. Luby et al. donne une stratĂ©gie optimale de la forme S(A, t*, t*, ...) oĂč t* dĂ©pend de la distribution de probabilitĂ© de TA(x). Le calcul de t* demande Ă  connaĂźtre cette distribution. On note l'espĂ©rance du temps d'exĂ©cution de la stratĂ©gie optimale.

Cependant, en général, on ne connaßt pas la distribution de probabilité de TA(x). C'est pourquoi Luby et al. montre l'existence d'une stratégie dite universelle dont l'espérance du temps d'exécution n'est pas trop éloignée de l'espérance de la stratégie optimale, à savoir que son espérance est . Cette stratégie est S(A, 1, 1, 2, 1, 1, 2, 4, 1, 1, 2, 1, 1, 2, 4, 8, 1, ...) et ne requiert, comme on le voit, aucune connaissance sur la distribution de TA(x).

DĂ©finition et comparaison avec les algorithmes de Monte Carlo et d'Atlantic City

Algorithme de Las Vegas

Un algorithme de Las Vegas est un algorithme probabiliste (utilisant le hasard) qui fournit toujours un résultat juste. Ainsi, l'algorithme renverra toujours une solution au problÚme posé mais sa complexité temporelle n'est pas prévisible. Par des bons choix lors des points clés de l'exécution de l'algorithme, on doit pouvoir montrer que cette complexité est faible.

Ces algorithmes ont été ainsi nommés par Laszlo Babai en 1979 par métonymie avec les algorithmes de Monte-Carlo. On nommera par la suite une troisiÚme famille d'algorithmes probabilistes les algorithmes d'Atlantic City, en référence aux nombreux jeux d'argent se déroulant dans ces trois villes.

Algorithmes de Monte-Carlo

Les algorithmes de Monte-Carlo sont des algorithmes probabilistes qui utilisent le hasard pour renvoyer la meilleure réponse possible en un temps fixé. La complexité temporelle est donc fixé pour ces algorithmes. Cependant, la justesse du résultat est soumise à une incertitude.

Algorithmes d'Atlantic City

Les algorithmes d'Atlantic City essayent de tirer le meilleur des deux méthodes précédentes. Ce type d'algorithme renverra presque toujours un résultat juste en un temps presque toujours fixé. L'incertitude se situe donc sur la complexité temporelle et sur la justesse du résultat.

Conclusion

Exprimé autrement :

Notes et références

  1. (en) Laszlo Babai, Monte-Carlo algorithms in graph isomorphism testing (Technical Report), Université de Montréal, Canada, (lire en ligne).
  2. (en) Rajeev Motwani et Prabhakar Raghavan, Randomized Algorithms, Cambridge University Press, , 476 p. (ISBN 978-0-521-47465-8, lire en ligne), section 1.2, p. 9
  3. (en) David Harel, Computers Ltd : What They Really Can't Do, Oxford University Press, (lire en ligne), p. 130
  4. (en) Robert Sedgewick, « Implementing Quicksort Programs », Commun. ACM, vol. 21, no 10,‎ , p. 847-857 (DOI 10.1145/359619.359631)
  5. (en) S. Dasgupta, C.H. Papadimitriou, U.V. Vazirani, Algorithms, , 318 p., p. 62; The Unix Sort Command
  6. (en) Thomas H. Cormen, Charles E. Leiserson et Ronald L. Rivest, Introduction à l'algorithmique : cours et exercices, Paris, Dunod, , xxix+1146 (ISBN 978-2-10-003922-7, SUDOC 068254024), chap. 7 (« Tri rapide »)
  7. Une « stratégie » est une succession de choix d'exécution, qui prend un algorithme (ici l'algorithme A), comme l'une de ses composantes.
  8. (en) Michael Luby, Alistair Sinclair et David Zuckerman, « Optimal speedup of Las Vegas algorithms », Information Processing Letters Volume 47, Issue 4,‎ , Pages 173-180 (lire en ligne)

Voir aussi

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.