AccueilđŸ‡«đŸ‡·Chercher

Algorithme de colonies de fourmis

Les algorithmes de colonies de fourmis (en anglais : ant colony optimization, ou ACO) sont des algorithmes inspirĂ©s du comportement des fourmis, ou d'autres espĂšces formant un superorganisme, et qui constituent une famille de mĂ©taheuristiques d’optimisation.

Algorithme de colonies de fourmis
Certains comportements des fourmis sont Ă  l'origine d'algorithmes d’optimisation (ici, des fourmis lĂ©gionnaires du genre Dorylus).
Présentation
Type

Initialement proposĂ© par Marco Dorigo et al. dans les annĂ©es 1990[1] - [2], pour la recherche de chemins optimaux dans un graphe, le premier algorithme s’inspire du comportement des fourmis recherchant un chemin entre leur colonie et une source de nourriture. L’idĂ©e originale s'est depuis diversifiĂ©e pour rĂ©soudre une classe plus large de problĂšmes et plusieurs algorithmes ont vu le jour, s’inspirant de divers aspects du comportement des fourmis.

En anglais, le terme consacrĂ© Ă  la principale classe d’algorithme est « Ant Colony Optimisation » (ACO). Les spĂ©cialistes rĂ©servent ce terme Ă  un type particulier d'algorithme. Il existe cependant plusieurs familles de mĂ©thodes s'inspirant du comportement des fourmis. En français, ces diffĂ©rentes approches sont regroupĂ©es sous les termes : « algorithmes de colonies de fourmis », « optimisation par colonies de fourmis », « fourmis artificielles » ou diverses combinaisons de ces variantes.

Origine

L’idĂ©e originale provient de l’observation de l’exploitation des ressources alimentaires chez les fourmis. En effet, celles-ci, bien qu’ayant individuellement des capacitĂ©s cognitives limitĂ©es, sont capables collectivement de trouver le chemin le plus court entre une source de nourriture et leur nid.

1) la premiÚre fourmi trouve la source de nourriture (F), via un chemin quelconque (a), puis revient au nid (N) en laissant derriÚre elle une piste de phéromone (b). 2) les fourmis empruntent indifféremment les quatre chemins possibles, mais le renforcement de la piste rend plus attractif le chemin le plus court. 3) les fourmis empruntent le chemin le plus court, les portions longues des autres chemins perdent leur piste de phéromones.

Des biologistes ont ainsi observĂ©, dans une sĂ©rie d’expĂ©riences menĂ©es Ă  partir de 1989[3] - [4], qu’une colonie de fourmis ayant le choix entre deux chemins d’inĂ©gale longueur menant Ă  une source de nourriture avait tendance Ă  utiliser le chemin le plus court.

Un modĂšle expliquant ce comportement est le suivant :

  1. une fourmi (appelĂ©e « Ă©claireuse ») parcourt plus ou moins au hasard l’environnement autour de la colonie ;
  2. si celle-ci découvre une source de nourriture, elle rentre plus ou moins directement au nid, en laissant sur son chemin une piste de phéromones ;
  3. ces phéromones étant attractives, les fourmis passant à proximité vont avoir tendance à suivre, de façon plus ou moins directe, cette piste ;
  4. en revenant au nid, ces mĂȘmes fourmis vont renforcer la piste ;
  5. si deux pistes sont possibles pour atteindre la mĂȘme source de nourriture, celle Ă©tant la plus courte sera, dans le mĂȘme temps, parcourue par plus de fourmis que la longue piste ;
  6. la piste courte sera donc de plus en plus renforcée, et donc de plus en plus attractive ;
  7. la longue piste, elle, finira par disparaßtre, les phéromones étant volatiles ;
  8. Ă  terme, l’ensemble des fourmis a donc dĂ©terminĂ© et « choisi » la piste la plus courte.

Les fourmis utilisent leur environnement comme support de communication : elles Ă©changent indirectement de l’information en dĂ©posant des phĂ©romones, le tout dĂ©crivant l’état de leur « travail ». L’information Ă©changĂ©e a une portĂ©e locale, seule une fourmi situĂ©e Ă  l’endroit oĂč les phĂ©romones ont Ă©tĂ© dĂ©posĂ©es y a accĂšs. Ce systĂšme porte le nom de « stigmergie », et se retrouve chez plusieurs animaux sociaux (il a notamment Ă©tĂ© Ă©tudiĂ© dans le cas de la construction de piliers dans les nids de termites).

Le mĂ©canisme permettant de rĂ©soudre un problĂšme trop complexe pour ĂȘtre abordĂ© par des fourmis seules est un bon exemple de systĂšme auto-organisĂ©. Ce systĂšme repose sur des rĂ©troactions positives (le dĂ©pĂŽt de phĂ©romone attire d’autres fourmis qui vont la renforcer Ă  leur tour) et nĂ©gatives (la dissipation de la piste par Ă©vaporation empĂȘche le systĂšme de s'emballer). ThĂ©oriquement, si la quantitĂ© de phĂ©romone restait identique au cours du temps sur toutes les branches, aucune piste ne serait choisie. Or, du fait des rĂ©troactions, une faible variation sur une branche va ĂȘtre amplifiĂ©e et permettre alors le choix d’une branche. L'algorithme va permettre de passer d'un Ă©tat instable oĂč aucune branche n'est plus marquĂ©e qu'une autre, vers un Ă©tat stable oĂč l'itinĂ©raire est formĂ© des « meilleures » branches.

Exemple : le « systÚme fourmi »

Description générale

Le premier algorithme de colonies de fourmis proposĂ© est appelĂ© le Ant system[5] (systĂšme fourmi). Il vise notamment Ă  rĂ©soudre le problĂšme du voyageur de commerce, oĂč le but est de trouver le plus court chemin permettant de relier un ensemble de villes.

L’algorithme gĂ©nĂ©ral est relativement simple, et repose sur un ensemble de fourmis, chacune parcourant un trajet parmi ceux possibles. À chaque Ă©tape, la fourmi choisit de passer d’une ville Ă  une autre en fonction de quelques rĂšgles :

  1. elle ne peut visiter qu’une fois chaque ville ;
  2. plus une ville est loin, moins elle a de chance d’ĂȘtre choisie (c’est la « visibilitĂ© ») ;
  3. plus l'intensitĂ© de la piste de phĂ©romone disposĂ©e sur l’arĂȘte entre deux villes est grande, plus le trajet aura de chance d’ĂȘtre choisi ;
  4. une fois son trajet terminĂ©, la fourmi dĂ©pose, sur l’ensemble des arĂȘtes parcourues, plus de phĂ©romones si le trajet est court ;
  5. les pistes de phĂ©romones s’évaporent Ă  chaque itĂ©ration.
L’algorithme «systĂšme formique» optimisant le problĂšme du voyageur de commerce : 1) une fourmi choisit un trajet, et trace une piste de phĂ©romone. 2) l’ensemble des fourmis parcourt un certain nombre de trajets, chaque fourmi dĂ©posant une quantitĂ© de phĂ©romone proportionnelle Ă  la qualitĂ© du parcours. 3) chaque arĂȘte du meilleur chemin est plus renforcĂ©e que les autres. 4) l’évaporation fait disparaĂźtre les mauvaises solutions.

Description formelle

La rÚgle de déplacement, appelée « rÚgle aléatoire de transition proportionnelle », est écrite mathématiquement sous la forme suivante :

oĂč Jk
i
est la liste des dĂ©placements possibles pour une fourmi k lorsqu’elle se trouve sur une ville i, ηij la visibilitĂ©, qui est Ă©gale Ă  l’inverse de la distance de deux villes i et j (1/dij) et τij(t) l’intensitĂ© de la piste Ă  une itĂ©ration donnĂ©e t. Les deux principaux paramĂštres contrĂŽlant l’algorithme sont α et ÎČ, qui contrĂŽlent l’importance relative de l’intensitĂ© et de la visibilitĂ© d’une arĂȘte.

En pratique, pour que les fourmis explorent des pistes non découvertes, on attribue une probabilité non nulle d'exploration de ces villes « inconnues », contrÎlée par le paramÚtre γ. De cette façon, la probabilité de déplacement s'écrit:

Une fois la tournĂ©e des villes effectuĂ©e, une fourmi k dĂ©pose une quantitĂ© de phĂ©romone sur chaque arĂȘte de son parcours :

oĂč Tk(t) est la tournĂ©e faite par la fourmi k Ă  l’itĂ©ration t, Lk(t) la longueur du trajet et Q un paramĂštre de rĂ©glage.

À la fin de chaque itĂ©ration de l’algorithme, les phĂ©romones dĂ©posĂ©es aux itĂ©rations prĂ©cĂ©dentes par les fourmis s’évaporent de

Et Ă  la fin de l'itĂ©ration, on a la somme des phĂ©romones qui ne se sont pas Ă©vaporĂ©es et de celles qui viennent d'ĂȘtre dĂ©posĂ©es :

oĂč m est le nombre de fourmis utilisĂ©es pour l’itĂ©ration t et ρ un paramĂštre de rĂ©glage.

Principales variantes

L’algorithme de colonies de fourmis a Ă©tĂ© Ă  l’origine surtout utilisĂ© pour produire des solutions quasi-optimales au problĂšme du voyageur de commerce, puis, plus gĂ©nĂ©ralement, aux problĂšmes d’optimisation combinatoire. On observe que depuis ses dĂ©buts son emploi s'est Ă©tendu Ă  plusieurs domaines, depuis l’optimisation continue jusqu’à la classification ou encore le traitement d’images.

Le cadre « ACO »

Une partie des algorithmes (notamment ceux conçus par M. Dorigo et ses collÚgues) sont maintenant regroupés sous le terme de « Ant Colony Optimisation » (ACO). Ce cadre se limite cependant aux algorithmes construisant des solutions sous la forme de paramÚtres associés aux composants d'un graphe, à l'aide d'un modÚle statistique biaisé.

Une méthode de type ACO suit le schéma algorithmique suivant, paramétré par :

un critĂšre d'arrĂȘt de l’algorithme
un temps de calcul ou un nombre d'itĂ©rations allouĂ© dĂ©passĂ©, un seuil d'amĂ©lioration des solutions qui n’est plus satisfaisant, ou une combinaison de critĂšres
des heuristiques
(Ă©ventuellement) un critĂšre de choix des pistes Ă  explorer ou Ă  Ă©liminer, ...
une construction des solutions et des pistes de phéromones
dépendant du problÚme à résoudre et de sa structure
Initialisation des pistes de phéromone ;
Boucler tant que critĂšre d'arrĂȘt non atteint :
   construire les solutions composant par composant,
   utilisation (facultative) d'une heuristique,
   mise à jour des pistes de phéromone ;
Fin de la boucle.

Une variante efficace du systĂšme formique est le Max-Min Ant System (MMAS)[6], oĂč seules les meilleures fourmis tracent des pistes et oĂč le dĂ©pĂŽt de phĂ©romones est limitĂ© par une borne supĂ©rieure (empĂȘchant une piste d’ĂȘtre trop renforcĂ©e) et une borne infĂ©rieure (laissant la possibilitĂ© d’ĂȘtre explorĂ©e Ă  n’importe quelle solution). Cet algorithme atteint de meilleurs rĂ©sultats que l’original, et Ă©vite notamment une convergence prĂ©maturĂ©e.

L’autre variante la plus connue est le Ant Colony System (ACS)[7], oĂč Ă  une nouvelle rĂšgle de dĂ©placement (appelĂ©e « rĂšgle pseudo-alĂ©atoire proportionnelle ») s’ajoute un processus de mise Ă  jour « locale » des Ă©lĂ©ments des pistes de phĂ©romones, l’objectif de ce mĂ©canisme Ă©tant d’augmenter la diversification de la recherche.

Il est possible, pour certaines versions, de prouver que l’algorithme est convergent (c’est-Ă -dire qu’il est capable de trouver l’optimum global en un temps fini). La premiĂšre preuve de convergence d'un algorithme de colonies de fourmis fut apportĂ©e en 2000, pour l’algorithme graph-base ant system, puis pour les algorithmes ACS et MMAS. Comme pour la plupart des mĂ©taheuristiques, il est trĂšs difficile d’estimer thĂ©oriquement la vitesse de convergence.

En 2004, Zlochin et ses collĂšgues ont montrĂ©[8] que les algorithmes de type ACO pouvaient ĂȘtre assimilĂ©s aux mĂ©thodes de descente stochastique de gradient, d'entropie croisĂ©e et des algorithmes Ă  estimation de distribution. Ils ont proposĂ© de regrouper ces mĂ©taheuristiques sous le terme de « recherche Ă  base de modĂšle ».

Une définition difficile

Avec un algorithme de colonies de fourmis, le plus court chemin, au sein d’un graphe, entre deux points A et B, est construit à partir de la combinaison de plusieurs chemins.

Il n’est pas facile de donner une dĂ©finition prĂ©cise de ce qu’est ou ce que n’est pas un algorithme de colonies de fourmis, car la dĂ©finition peut varier selon les auteurs et les usages.

D’une façon trĂšs gĂ©nĂ©rale, les algorithmes de colonies de fourmis sont considĂ©rĂ©s comme des mĂ©taheuristiques Ă  population, oĂč chaque solution est reprĂ©sentĂ©e par une fourmi se dĂ©plaçant sur l’espace de recherche. Les fourmis marquent les meilleures solutions, et tiennent compte des marquages prĂ©cĂ©dents pour optimiser leur recherche.

On peut les considérer comme des algorithmes multi-agents probabilistes, utilisant une distribution de probabilité implicite pour effectuer la transition entre chaque itération. Dans leurs versions adaptées à des problÚmes combinatoires, ils utilisent une construction itérative des solutions.

D’aprĂšs certains auteurs, ce qui diffĂ©rencierait les algorithmes de colonies de fourmis d’autres mĂ©taheuristiques proches (telles que les algorithmes Ă  estimation de distribution ou l’optimisation par essaim particulaire) serait justement son aspect constructif. En effet, dans les problĂšmes combinatoires, il est possible que la meilleure solution finisse par ĂȘtre trouvĂ©e, alors mĂȘme qu’aucune fourmi ne l’aura Ă©prouvĂ©e effectivement. Ainsi, dans l’exemple du problĂšme du voyageur de commerce, il n’est pas nĂ©cessaire qu’une fourmi parcoure effectivement le chemin le plus court : celui-ci peut ĂȘtre construit Ă  partir des segments les plus renforcĂ©s des meilleures solutions. Cependant, cette dĂ©finition peut poser problĂšme dans le cas des problĂšmes Ă  variables rĂ©elles, oĂč aucune structure du voisinage n’existe.

Le comportement collectif des insectes sociaux reste une source d’inspiration pour les chercheurs. La grande diversitĂ© d’algorithmes (pour l’optimisation ou non) se rĂ©clamant de l’auto-organisation dans les systĂšmes biologiques a donnĂ© lieu au concept d’« intelligence en essaim », qui est un cadre trĂšs gĂ©nĂ©ral, dans lequel s’inscrivent les algorithmes de colonies de fourmis.

Algorithmes stigmergiques

On observe en pratique qu’un grand nombre d’algorithmes se rĂ©clament d’une inspiration « colonies fourmis », sans toujours partager le cadre gĂ©nĂ©ral de l’optimisation par colonies de fourmis canonique (ACO). En pratique, l’utilisation d’un Ă©change d’informations entre fourmis via l’environnement (principe dĂ©nommĂ© « stigmergie ») suffit Ă  rentrer dans la catĂ©gorie des algorithmes de colonies de fourmis. Ce principe a menĂ© certains auteurs Ă  crĂ©er le terme d’« optimisation stigmergique »[9].

On trouve ainsi des mĂ©thodes s’inspirant de comportements de recherche de nourriture, de tri de larves, de division du travail ou de transport coopĂ©ratif.

Applications

ProblÚme du sac à dos. Les fourmis en nombre limité privilégient la goutte de miel, en plus petite quantité mais plus intéressante que l'eau sucrée, plus abondante mais moins nutritive.

Les variantes combinatoires peuvent avoir un avantage, par rapport aux autres mĂ©taheuristiques, dans le cas oĂč le graphe Ă©tudiĂ© peut changer dynamiquement au cours de l’exĂ©cution : la colonie de fourmis s’adaptera de façon relativement flexible aux changements. Ceci semble ĂȘtre intĂ©ressant pour le routage rĂ©seau[10].

Les algorithmes de colonies de fourmis ont Ă©tĂ© appliquĂ©s Ă  un grand nombre de problĂšmes d’optimisation combinatoire, allant de l'affectation quadratique au repli de protĂ©ine ou au routage de vĂ©hicules. Comme beaucoup de mĂ©taheuristiques, l’algorithme de base a Ă©tĂ© adaptĂ© aux problĂšmes dynamiques, en variables rĂ©elles, aux problĂšmes stochastiques, multi-objectifs ou aux implĂ©mentations parallĂšles, etc.

Historique

Chronologie des algorithmes de colonies de fourmis.

  • 1959, Pierre-Paul GrassĂ© invente la thĂ©orie de la stigmergie pour expliquer le comportement de construction du nid chez des termites[11] ;
  • 1983, Deneubourg et ses collĂšgues Ă©tudient le comportement collectif des fourmis[12] ;
  • 1988, Moyson et Manderick prĂ©sentent un article sur l’auto-organisation chez les fourmis[13] ;
  • 1989, travaux de Goss, Aron, Deneubourg et Pasteels, sur le comportement collectifs des fourmis Argentines, qui donneront l’idĂ©e des algorithmes de colonies de fourmis[3] ;
  • 1989, implĂ©mentation d’un modĂšle de comportement de recherche de nourriture par Ebling et ses collĂšgues[14] ;
  • 1991, M. Dorigo propose le Ant System dans sa thĂšse de doctorat (qui ne sera publiĂ©e qu’en 1992[2]). Il fait paraĂźtre, avec V. Maniezzo et A. Colorni, un rapport technique[15], qui sera publiĂ© cinq ans plus tard[5] ;
  • 1995, Bilchev et Parmee publient la premiĂšre tentative d'adaptation aux problĂšmes continus[16] ;
  • 1996, publication de l'article sur le Ant System[5] ;
  • 1996, StĂŒtzle et Hoos inventent le MAX-MIN Ant System[6] ;
  • 1997, Dorigo et Gambardella publient le Ant Colony System[7] ;
  • 1997, Schoonderwoerd et ses collĂšgues conçoivent la premiĂšre application aux rĂ©seaux de tĂ©lĂ©communications[17] ;
  • 1997, Martinoli et ses collĂšgues s’inspirent des algorithmes de colonies de fourmis pour le contrĂŽle de robots[18] ;
  • 1998, Dorigo lance la premiĂšre confĂ©rence consacrĂ©e aux algorithmes de colonies de fourmis[19] ;
  • 1998, StĂŒtzle propose les premiĂšres implĂ©mentations parallĂšles[20] ;
  • 1999, Bonabeau et ses collĂšgues font paraĂźtre un livre traitant principalement des fourmis artificielles[21] ;
  • 1999, premiĂšres applications pour le routage de vĂ©hicule, le problĂšme d'affectation (dans sa variante du problĂšme d'affectation quadratique (en)), le sac Ă  dos multi-dimensionnel ;
  • 2000, numĂ©ro spĂ©cial d’une revue scientifique sur les algorithmes de colonies de fourmis[22] ;
  • 2000, premiĂšres applications Ă  l’ordonnancement, l’ordonnancement sĂ©quentiel, la satisfaction de contraintes ;
  • 2000, Gutjahr donne la premiĂšre preuve de convergence pour un algorithme de colonies de fourmis[23] ;
  • 2001, premiĂšre utilisation des algorithmes de colonies de fourmis par des entreprises (Eurobios et AntOptima) ;
  • 2001, Iredi et ses collĂšgues publient le premier algorithme multi-objectif[24] ;
  • 2002, premiĂšres applications Ă  la conception d’emploi du temps, les rĂ©seaux bayĂ©siens ;
  • 2002, Bianchi et ses collĂšgues proposent le premier algorithme pour problĂšme stochastique (en)[25] ;
  • 2004, Zlochin et Dorigo montrent que certains algorithmes sont Ă©quivalents Ă  la descente stochastique de gradient, l'entropie croisĂ©e et les algorithmes Ă  estimation de distribution[8] ;
  • 2005, premiĂšres applications au repliement des protĂ©ines.
  • 2012, Prabhakar et ses collĂšgues publient des travaux relatifs Ă  la communication en tandem de fourmis sans phĂ©romones, reflĂ©tant les principes d'organisation de rĂ©seau informatique. Le modĂšle de communication a Ă©tĂ© comparĂ© au Transmission Control Protocol[26].

Sources

  • (en) M. Dorigo, M. Birattari, T. StĂŒtzle, Ant Colony Optimization : Artificial Ants as a Computational Intelligence Technique, IEEE Computational Intelligence Magazine, volume 1, numĂ©ro 4, pages 28–39, 2006.
  • (fr) Johann DrĂ©o, Alain Petrowski, Éric Taillard, Patrick Siarry, MĂ©taheuristiques pour l’optimisation difficile, 2003 extrait concernant les algorithmes de colonies de fourmis.
  • (en) Éric Bonabeau, Marco Dorigo et Guy Theraulaz, Swarm Intelligence: From Natural to Artificial Systems, Oxford University Press, 1999. (ISBN 0195131592)
  • (en) Marco Dorigo et Thomas StĂŒtzle, Ant Colony Optimization, Cambridge, MA, MIT Press/Bradford Books, 2004. (ISBN 0262042193)
  • (fr) Nicolas MonmarchĂ©, FrĂ©dĂ©ric Guinand et Patrick Siarry (sous la dir.), Fourmis artificielles, TraitĂ© Informatique et SystĂšmes d'Information - IC2, Hermes, , Volume 1 (Des bases de l'optimisation aux applications industrielles), 333 p. 16x24 ReliĂ©, (ISBN 978-2-7462-2119-2). et Volume 2 (Nouvelles directions pour une intelligence collective), 323 p. 16x24 ReliĂ©, (ISBN 978-2-7462-2349-3).
  • (fr) Christine Solnon. Optimisation par colonies de fourmis, Hermes-Lavoisier, aout 2008, 192 p. (ISBN 978-2-7462-1863-5).

Notes et références

  1. A. Colorni, M. Dorigo et V. Maniezzo, Distributed Optimization by Ant Colonies, actes de la premiÚre conférence européenne sur la vie artificielle, Paris, France, Elsevier Publishing, 134-142, 1991.
  2. M. Dorigo, Optimization, Learning and Natural Algorithms, PhD thesis, Politecnico di Milano, Italie, 1992.
  3. S. Goss, S. Aron, J.-L. Deneubourg et J.-M. Pasteels, The self-organized exploratory pattern of the Argentine ant, Naturwissenschaften, volume 76, pages 579-581, 1989.
  4. J.-L. Deneubourg, S. Aron, S. Goss et J.-M. Pasteels, The self-organizing exploratory pattern of the Argentine ant, Journal of Insect Behavior, volume 3, page 159, 1990.
  5. M. Dorigo, V. Maniezzo, et A. Colorni, Ant system: optimization by a colony of cooperating agents, IEEE Transactions on Systems, Man, and Cybernetics--Part B, volume 26, numéro 1, pages 29-41, 1996.
  6. T. StĂŒtzle et H.H. Hoos, MAX MIN Ant System, Future Generation Computer Systems, volume 16, pages 889-914, 2000.
  7. M. Dorigo et L.M. Gambardella, Ant Colony System : A Cooperative Learning Approach to the Traveling Salesman Problem, IEEE Transactions on Evolutionary Computation, volume 1, numéro 1, pages 53-66, 1997.
  8. M. Zlochin, M. Birattari, N. Meuleau, et M. Dorigo, Model-based search for combinatorial optimization: A critical survey, Annals of Operations Research, vol. 131, p. 373-395, 2004.
  9. A. Ajith; G. Crina; R. Vitorino (Ă©diteurs), Stigmergic Optimization, Studies in Computational Intelligence, volume 31, 299 pages, 2006. (ISBN 978-3-540-34689-0).
  10. K. M. Sim, W. H. Sun, Ant colony optimization for routing and load-balancing : survey and new directions, IEEE Transactions on Systems, Man and Cybernetics, Part A, volume 33, numéro 5, pages 560-572, 2003.
  11. P.-P. GrassĂ©, La reconstruction du nid et les coordinations inter-individuelles chez Belicositermes natalensis et Cubitermes sp. La thĂ©orie de la Stigmergie : Essai d’interprĂ©tation du comportement des termites constructeurs, Insectes Sociaux, numĂ©ro 6, p. 41-80, 1959.
  12. J.L. Denebourg, J.M. Pasteels et J.C. Verhaeghe, Probabilistic Behaviour in Ants : a Strategy of Errors?, Journal of Theoretical Biology, numéro 105, 1983.
  13. F. Moyson, B. Manderick, The collective behaviour of Ants : an Example of Self-Organization in Massive Parallelism, Actes de AAAI Spring Symposium on Parallel Models of Intelligence, Stanford, Californie, 1988.
  14. M. Ebling, M. Di Loreto, M. Presley, F. Wieland, et D. Jefferson, An Ant Foraging Model Implemented on the Time Warp Operating System, Proceedings of the SCS Multiconference on Distributed Simulation, 1989.
  15. Dorigo M., V. Maniezzo et A. Colorni, Positive feedback as a search strategy, rapport technique numéro 91-016, Dip. Elettronica, Politecnico di Milano, Italy, 1991.
  16. G. Bilchev et I. C. Parmee, The Ant Colony Metaphor for Searching Continuous Design Spaces, Proceedings of the AISB Workshop on Evolutionary Computation. Terence C. Fogarty (Ă©diteurs), Evolutionary Computing Springer-Verlag, pages 25-39, avril 1995.
  17. R. Schoonderwoerd, O. Holland, J. Bruten et L. Rothkrantz, Ant-based load balancing in telecommunication networks, Adaptive Behaviour, volume 5, numéro 2, pages 169-207, 1997.
  18. A. Martinoli, M. Yamamoto, et F. Mondada, On the modelling of bioinspired collective experiments with real robots, Fourth European Conference on Artificial Life ECAL-97, Brighton, Royaume-Uni, juillet 1997.
  19. M. Dorigo, ANTS’ 98, From Ant Colonies to Artificial Ants : First International Workshop on Ant Colony Optimization, ANTS 98, Bruxelles, Belgique, octobre 1998.
  20. T. StĂŒtzle, Parallelization Strategies for Ant Colony Optimization, Proceedings of PPSN-V, Fifth International Conference on Parallel Problem Solving from Nature, Springer-Verlag, volume 1498, pages 722-731, 1998.
  21. É. Bonabeau, M. Dorigo et G. Theraulaz, Swarm intelligence, Oxford University Press, 1999.
  22. M. Dorigo, G. Di Caro et T. StĂŒtzle, special issue on “Ant Algorithms”, Future Generation Computer Systems, volume 16, numĂ©ro 8, 2000.
  23. W.J. Gutjahr, A graph-based Ant System and its convergence, Future Generation Computer Systems, volume 16, pages 873-888, 2000.
  24. S. Iredi, D. Merkle et M. Middendorf, Bi-Criterion Optimization with Multi Colony Ant Algorithms, Evolutionary Multi-Criterion Optimization, First International Conference (EMO’01), Zurich, Springer Verlag, pages 359-372, 2001.
  25. L. Bianchi, L.M. Gambardella et M.Dorigo, An ant colony optimization approach to the probabilistic traveling salesman problem, PPSN-VII, Seventh International Conference on Parallel Problem Solving from Nature, Lecture Notes in Computer Science, Springer Verlag, Berlin, Allemagne, 2002.
  26. Balaji Prabhakar, Katherine N. Dektar et Deborah M. Gordon, « The Regulation of Ant Colony Foraging Activity without Spatial Information », PLOS Comput Biol, vol. 8,‎ , e1002670 (ISSN 1553-7358, PMID 22927811, PMCID 3426560, DOI 10.1371/journal.pcbi.1002670, lire en ligne, consultĂ© le )

Voir aussi

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.