Accueil🇫🇷Chercher

Principe de l'énergie libre

Le principe d'énergie libre est un cadre utilisé pour décrire comment le cerveau prend des décisions et s'adapte à des circonstances changeantes. Il repose sur l'idée que le cerveau essaie constamment de minimiser son énergie libre, qui est une mesure de la surprise que le cerveau ressent face aux informations sensorielles qu'il reçoit.

En minimisant son énergie libre, le cerveau peut faire des prédictions sur le monde qui l'entoure et prendre les actions appropriées. La minimisation implicite de l'énergie libre variationnelle est formellement liée aux méthodes bayésiennes variationnelles et a été introduite à l'origine par Karl Friston comme explication de la perception incarnée dans les neurosciences[1], où elle est aussi connue sous le nom d'inférence active ou de codage prédictif.

En termes généraux, le principe de l'énergie libre est utilisé pour décrire un système tel que défini comme étant enfermé dans une couverture de Markov - essaie de minimiser la différence entre son modèle du monde et la perception de ses capteurs. Cette différence peut être qualifiée de « surprise » et minimisée par une mise à jour constante du modèle du monde. En tant que tel, le principe est basé sur l'idée bayésienne du cerveau comme « moteur d'inférence ». Friston a ajouté une deuxième voie à la minimisation : l'action. En changeant activement le monde dans l'état attendu, les systèmes peuvent aussi minimiser l'énergie libre du système. Friston suppose que c'est le principe de toute réaction biologique.

Friston considère que son principe s'applique aussi bien aux troubles mentaux qu'à l'intelligence artificielle. Les implémentations de l'IA basées sur le principe de l'inférence active ont montré des avantages par rapport à d'autres méthodes. Il est également utilisé pour expliquer comment les systèmes biologiques se maintiennent en état de non-équilibre quasi-stationnaire en se limitant à un nombre limité d'états[2]

Définitions

Codage prédictif

Le codage prédictif est une théorie de neurosciences sur la manière dont le cerveau traite les informations sensorielles. Elle propose que le cerveau génère constamment des prévisions sur les entrées sensorielles qu'il est susceptible de recevoir, en fonction de son expérience passée et de son contexte actuel. Lorsque de nouvelles entrées sensorielles sont reçues, elles sont comparées à ces prévisions, et toutes les différences sont utilisées pour mettre à jour le modèle interne du cerveau à propos du monde. Ce processus permet au cerveau de traiter rapidement et efficacement les informations sensorielles, ce qui nous permet d'interagir avec notre environnement en temps réel.

Inférence active

L'inférence active est le cadre computationnel qui décrit comment un agent (comme une personne ou une intelligence artificielle) peut interagir avec son environnement pour atteindre un résultat souhaité. Il repose sur l'idée qu'un agent peut maximiser ses chances de réussite en recherchant activement des informations sur son environnement et en utilisant ces informations pour faire des prévisions sur les événements futurs. Ces prévisions peuvent alors être utilisées pour orienter les actions de l'agent de manière cohérente avec ses objectifs et ses préférences.

Energie libre

L'énergie libre est une mesure de l'incertitude ou de la surprise dans un système. Elle est définie comme la différence entre l'énergie attendue du système et l'énergie réelle du système.

Dans la théorie de Karl Friston, le but d'un système intelligent, tel que le cerveau, est de minimiser son énergie libre en réduisant l'incertitude et la surprise. Cela est réalisé en faisant des prédictions sur l'état futur du système, puis en utilisant les informations sensorielles pour mettre à jour ces prédictions et réduire l'erreur ou la discordance entre les états prédits et réels.

En d'autres termes est une mesure de l'écart ou de l'erreur entre les prédictions du système et les entrées sensorielles réelles qu'il reçoit. En minimisant son énergie libre le système peut réduire l'incertitude et la surprise, et s'adapter à son environnement de manière plus efficace.

Formalisme

Formulation continue

Ces schémas illustrent la partition des états en états internes et en états cachés ou externes séparés par une couverture de Markov - comprenant des états sensoriels et actifs. Le panneau inférieur montre cette partition telle qu'elle serait appliquée à l'action et à la perception dans le cerveau, où les états actifs et internes minimisent une énergie libre fonctionnelle des états sensoriels. L'auto-organisation des états internes qui s'ensuit correspond alors à la perception, tandis que l'action couple les états du cerveau aux états externes. Le panneau supérieur montre exactement les mêmes dépendances mais réarrangées de sorte que les états internes sont associés aux états intracellulaires d'une cellule, tandis que les états sensoriels deviennent les états de surface de la membrane cellulaire recouvrant les états actifs (par exemple, les filaments d'actine du cytosquelette).

L'inférence active repose sur le tuple ,

  • Un échantillon de l'espace – à partir de laquelle les fluctuations aléatoires sont tirées
  • États cachés ou externes – qui provoquent des états sensoriels et dépendent de l'action
  • États sensoriels – une cartographie probabiliste à partir de l'action et des états cachés
  • Action – qui dépend des états sensoriels et internes
  • États internes – qui provoquent l'action et dépendent des états sensoriels
  • Densité générative – sur des états sensoriels et cachés sous un modèle génératif
  • Densité variationnelle – sur des états cachés paramétrée par des états internes

Action et perception

L'objectif est de maximiser la preuve du modèle ou de minimiser la surprise . Il s'agit généralement d'une marginalisation insoluble sur les états cachés, donc la surprise est remplacée par une énergie libre variationnelle supérieure liée. Cependant, cela signifie que les états internes doivent également minimiser l'énergie libre, car l'énergie libre est une fonction des états sensoriels et internes :

Ceci induit une double minimisation par rapport à l'action et aux états internes qui correspondent respectivement à l'action et à la perception.

Comparaison avec d'autres cadres

L'idée que les systèmes biologiques auto-organisés - comme une cellule ou un cerveau - peuvent être compris comme minimisant l'énergie libre variationnelle est basée sur les observations de Helmholtz sur l'inférence inconsciente[3] et les traitements ultérieurs en psychologie[4] et en apprentissage automatique[5].

L'énergie libre variationnelle est fonction de certains résultats et d'une densité de probabilité sur leurs causes (cachées). Cette densité variationnelle est définie par rapport à un modèle probabiliste qui génère des résultats à partir des causes. Dans ce contexte, l'énergie libre fournit une approximation (limite supérieure) des données probantes du modèle bayésien[6]. Sa minimisation peut donc être utilisée pour expliquer l'inférence et l'apprentissage bayésiens. Lorsqu'un système échantillonne activement les résultats pour minimiser l'énergie libre, il effectue implicitement une inférence active et maximise les preuves pour son modèle (génératif).

Entropie

Cependant, l'énergie libre est aussi une limite supérieure sur l'auto-information (ou surprise) des résultats, où la moyenne à long terme de la surprise est l'entropie. Cela signifie que si un système agit pour minimiser l'énergie libre, il placera implicitement une limite supérieure sur l'entropie des résultats - ou états sensoriels - qu'il échantillonne[7].

Minimisation de l'énergie libre et auto-organisation

La minimisation de l'énergie libre a été proposée comme caractéristique des systèmes auto-organisés, lorsqu'elle est présentée comme des systèmes dynamiques aléatoires[8]. Cette formulation repose sur une couverture de Markov (comprenant des états d'action et des états sensoriels) qui sépare les états internes et externes. Si les états internes et l'action minimisent l'énergie libre, alors ils placent une limite supérieure sur l'entropie des états sensoriels

En effet, dans les hypothèses ergodiques, la moyenne à long terme des surprises est l'entropie. Cette limite résiste à une tendance naturelle au désordre - du type associé à la deuxième loi de la thermodynamique et au théorème de fluctuation.

Minimisation de l'énergie libre et inférence bayésienne

Toutes les inférences bayésiennes peuvent être exprimées en termes de minimisation de l'énergie libre, par exemple[9] lorsque l'énergie libre est minimisée par rapport aux états internes, la divergence de Kullback-Leibler entre la densité variationnelle et la densité postérieure sur les états cachés est minimisée. Cela correspond à une inférence bayésienne approximative - lorsque la forme de la densité variationnelle est fixe - et à une inférence bayésienne exacte sinon. La minimisation de l'énergie libre fournit donc une description générique de l'inférence et du filtrage bayésiens (p. ex. filtre de Kalman). Elle est également utilisée dans la sélection de modèles bayésiens, où l'énergie libre peut être utilement décomposée en complexité et précision :

Les modèles avec un minimum d'énergie libre fournissent une explication précise des données, sous les coûts de complexité (c.f., le rasoir d'Ockham et les traitements plus formels des coûts de calcul)[10]). Ici, la complexité est la divergence entre la densité variationnelle et les croyances antérieures sur les états cachés (c'est-à-dire les degrés effectifs de liberté utilisés pour expliquer les données).

Minimisation de l'énergie libre et thermodynamique

L'énergie libre variationnelle est une information théorique fonctionnelle et se distingue de l'énergie libre thermodynamique (Helmholtz)[11]. Cependant, le terme de complexité de l'énergie libre variationnelle partage le même point fixe que l'énergie libre de Helmholtz (dans l'hypothèse où le système est fermé thermodynamiquement mais non isolé). En effet, si les perturbations sensorielles sont suspendues (pour une période de temps suffisamment longue), la complexité est minimisée (car la précision peut être négligée). À ce stade, le système est en équilibre et les états internes minimisent l'énergie libre de Helmholtz, par le principe de l'énergie minimale[12].

Minimisation de l'énergie libre et théorie de l'information

La minimisation de l'énergie libre équivaut à maximiser l'information mutuelle entre les états sensoriels et les états internes qui paramètrent la densité variationnelle (pour une densité variationnelle à entropie fixe). Ceci relie la minimisation de l'énergie libre au principe de la redondance minimale[13] et aux traitements connexes utilisant la théorie de l'information pour décrire le comportement optimal[14] - [15].

Dans d'autres domaines

L'inférence active est étroitement liée au théorème du bon régulateur[16] et aux comptes-rendus connexes de l'auto-organisation[17] - [18], tels que l'auto-assemblage, la formation de motifs, l'autopoïèse[19] et la practopoièse[20]. Elle aborde les thèmes de la cybernétique, la synergétique[21] et l'embodiment. Puisque l'énergie libre peut être exprimée comme l'énergie attendue (des résultats) sous la densité variationnelle moins son entropie, elle est également liée au principe d'entropie maximale[22]. Enfin, parce que la moyenne temporelle de l'énergie est l'action, le principe de l'énergie libre variationnelle minimale est un principe de moindre action.

En neurosciences computationelles

La minimisation de l'énergie libre fournit un moyen utile de formuler des modèles normatifs (optimaux de Bayes) d'inférence neuronale et d'apprentissage sous incertitude [23] et souscrit donc à l'hypothèse bayésienne du cerveau[24]. Les processus neuronaux décrits par la minimisation de l'énergie libre dépendent de la nature des états cachés : qui peuvent comprendre des variables dépendantes du temps, des paramètres invariants dans le temps et la précision (variance inverse ou température) des fluctuations aléatoires. La minimisation des variables, des paramètres et de la précision correspond respectivement à l'inférence, à l'apprentissage et au codage de l'incertitude.

Inférence perceptuelle et catégorisation

La minimisation de l'énergie libre formalise la notion d'inférence inconsciente dans la perception et fournit une théorie normative (bayésienne) du traitement neuronal. La théorie des processus associés de la dynamique neuronale est basée sur la minimisation de l'énergie libre par la descente de gradient. Ceci correspond au filtrage bayésien généralisé (où ~ désigne une variable en coordonnées de mouvement généralisées et est un opérateur de matrice dérivée)[25] :

Habituellement, les modèles génératifs qui définissent l'énergie libre sont non linéaires et hiérarchiques (comme les hiérarchies corticales dans le cerveau). Parmi les cas particuliers de filtrage généralisé, on peut citer le filtrage de Kalman, qui est formellement équivalent au codage prédictif[26] – une métaphore populaire pour le message qui passe dans le cerveau. Dans les modèles hiérarchiques, le codage prédictif implique l'échange récurrent d'erreurs de prédiction ascendantes (bottom-up) et descendantes (top-down)[27] qui est compatible avec l'anatomie et la physiologie des systèmes sensoriel[28] et moteur[29].

Apprentissage perceptif et mémoire

Dans le codage prédictif, l'optimisation des paramètres du modèle par une montée en gradient sur l'intégrale temporelle de l'énergie libre (action libre) se réduit à une plasticité associative ou Hebbienne et est associée à une plasticité synaptique dans le cerveau.

Précision perceptuelle, attention et prépondérance

L'optimisation des paramètres de précision correspond à l'optimisation du gain des erreurs de prédiction (c.f. gain de Kalman). Dans les implémentations neuronalement plausibles du codage prédictif, cela correspond à l'optimisation de l'excitabilité des cellules pyramidales superficielles et a été interprété en termes de gain attentionnel[30].

En psychiatrie

L'inférence active a été utilisée pour aborder un éventail de questions en neuropsychiatrie, notamment l'observation de l'action[31], les neurones miroirs[32], les saccades et la recherche visuelle[33], les mouvements oculaires[34], le sommeil[35], les illusions[36], l'attention, la sélection des actions, l'hystérie[37] et la psychose[38]

Inférence active et théorie (des jeux) de la décision optimale

Les problèmes de décision optimale (habituellement formulés comme des processus de décision de Markov partiellement observables) sont traités par inférence active en absorbant les fonctions d'utilité dans des croyances antérieures. Dans ce paramètre, les états qui ont une utilité élevée (faible coût) sont les états qu'un agent s'attend à occuper. En équipant le modèle générateur d'états cachés qui contrôlent le modèle, les politiques (séquences de contrôle) qui minimisent l'énergie libre variationnelle conduisent à des états d'utilité élevée[32].

Neurobiologiquement, les neuromodulateurs comme la dopamine sont considérés pour rapporter la précision des erreurs de prédiction en modulant le gain des cellules principales codant l'erreur de prédiction[39]. Cela est étroitement lié au rôle de la dopamine dans la déclaration des erreurs de prévision en soi, mais en est formellement distinct[40] et dans les comptes rendus informatiques connexes[41].

Mathématiques

Lorsque la descente de gradient est appliquée à l'action le contrôle moteur peut être compris en termes d'arcs réflexes classiques qui sont engagés par des prédictions descendantes (corticospinales). Ceci fournit un formalisme qui généralise la solution du point d'équilibre - au problème des degrés de liberté[42] - aux trajectoires de mouvement.

Inférence et contrôle optimal

L'inférence active est liée au contrôle optimal en remplaçant les fonctions de valeur ou de coût à emporter par des croyances préalables sur les transitions d'état ou le débit[43]. Ceci exploite le lien étroit entre le filtrage bayésien et la solution à l'équation de Bellman. Cependant, l'inférence active commence par (prend le pas sur) le débit qui sont spécifiés par des fonctions de valeur scalaire et vectorielle de l'espace d'état (c.f. la décomposition de Helmholtz). Ici, est l'amplitude des fluctuations aléatoires et le coût est . Les antécédents de dépassement du flux induisent une priorité sur les états qui est la solution aux équations de Kolmogorov avancées appropriées[44]. En revanche, la régulation optimale optimise le débit, compte tenu d'une fonction de coût, en supposant que (c'est-à-dire que le débit n'est pas bouclé ou qu'il présente un bilan détaillé). Habituellement, il s'agit de résoudre les équations de Kolmogorov rétrogrades[45]

Références

  1. (en) Karl Friston, James Kilner et Lee Harrison, « A free energy principle for the brain », Journal of Physiology-Paris, vol. 100, nos 1-3, , p. 70–87 (DOI 10.1016/j.jphysparis.2006.10.001, lire en ligne, consulté le )
  2. (en) W. Ross Ashby, « Principles of the Self-Organizing System », dans Facets of Systems Science, Springer US, (ISBN 978-1-4899-0718-9, DOI 10.1007/978-1-4899-0718-9_38, lire en ligne), p. 521–536
  3. G. Helmholtz, Concerning the perceptions in general In : Treatise on physiological optics (J. Southall, Trans., 3e ed., Vol. III), New York: Dover,
  4. R. L. Gregory, « Perceptions as Hypotheses », Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences, vol. 290, no 1038, , p. 181–197 (ISSN 0080-4622, lire en ligne, consulté le )
  5. P. Dayan, G.E. Hinton, R. Neal, The Helmholtz machine, Neural Computation, 7, 1995 : 889–904.
  6. « Matthew J. Beal - Thesis: Matthew J. Beal, Variational Algorithms for Approximate Bayesian Inference », sur cse.buffalo.edu (consulté le )
  7. (en) Karl Friston, « A Free Energy Principle for Biological Systems », Entropy, vol. 14, no 11, , p. 2100–2121 (ISSN 1099-4300, PMID 23204829, PMCID PMC3510653, DOI 10.3390/e14112100, lire en ligne, consulté le )
  8. H. Crauel, F. Flandoli, Attractors for random dynamical systems. Probab Theory Relat Fields, 100, 1994 : 365–393.
  9. S. Roweis, en:Zoubin Ghahramani, A unifying review of linear Gaussian models, Neural Computat, 11 (2), 1999 : 305–345. DOI 10.1162/089976699300016674
  10. Pedro A. Ortega et Daniel A. Braun, « Thermodynamics as a theory of decision-making with information-processing costs », Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences, vol. 469, no 2153, , p. 20120683 (DOI 10.1098/rspa.2012.0683, lire en ligne, consulté le )
  11. (en) Denis J. Evans, « A non-equilibrium free energy theorem for deterministic systems », Molecular Physics, vol. 101, no 10, , p. 1551–1554 (ISSN 0026-8976 et 1362-3028, DOI 10.1080/0026897031000085173, lire en ligne, consulté le )
  12. C. Jarzynski, « Nonequilibrium Equality for Free Energy Differences », Physical Review Letters, vol. 78, no 14, , p. 2690–2693 (ISSN 0031-9007 et 1079-7114, DOI 10.1103/physrevlett.78.2690, lire en ligne, consulté le )
  13. H. B. Barlow, « Possible Principles Underlying the Transformations of Sensory Messages », dans Sensory Communication, The MIT Press, (ISBN 978-0-262-51842-0, DOI 10.7551/mitpress/9780262518420.003.0013, lire en ligne), p. 216–234
  14. (en) R. Linsker, « Perceptual Neural Organization: Some Approaches Based on Network Models and Information Theory », Annual Review of Neuroscience, vol. 13, no 1, , p. 257–281 (ISSN 0147-006X et 1545-4126, DOI 10.1146/annurev.ne.13.030190.001353, lire en ligne, consulté le )
  15. William Bialek, Ilya Nemenman et Naftali Tishby, « Predictability, complexity and learning », arXiv:physics/0007070, (lire en ligne, consulté le )
  16. R.C. Conant, R. W. Ashby, Every Good Regulator of a system must be a model of that system, Int. J. Systems Sci., 1 (2), 1970 : 89–97.
  17. S. Kauffman, The Origins of Order: Self-Organization and Selection in Evolution, Oxford: Oxford University Press, 1993.
  18. Grégoire Nicolis, Ilya Prigogine, Self-organization in non-equilibrium systems, New York: John Wiley, 1977.
  19. « ᏟᎬᏢᎪ Constructivist E-Paper Archive » Publication 546 », sur cepa.info (consulté le )
  20. D. Nikolić, Practopoiesis: Or how life fosters a mind. Journal of theoretical biology no 373, 2015, p. 40-61.
  21. H. Haken, Synergetics: An introduction. Non-equilibrium phase transition and self-organisation in physics, chemistry and biology (3e ed.), Berlin: Springer Verlag, 1983.
  22. E. T. Jaynes, « Information Theory and Statistical Mechanics », Physical Review, vol. 106, no 4, , p. 620–630 (DOI 10.1103/PhysRev.106.620, lire en ligne, consulté le )
  23. (en) Karl Friston, « The free-energy principle: a unified brain theory? », Nature Reviews Neuroscience, vol. 11, no 2, , p. 127–138 (ISSN 1471-003X et 1471-0048, DOI 10.1038/nrn2787, lire en ligne, consulté le )
  24. (en) David C. Knill et Alexandre Pouget, « The Bayesian brain: the role of uncertainty in neural coding and computation », Trends in Neurosciences, vol. 27, no 12, , p. 712–719 (DOI 10.1016/j.tins.2004.10.007, lire en ligne, consulté le )
  25. (en) Karl Friston, Klaas Stephan, Baojuan Li et Jean Daunizeau, « Generalised Filtering », Mathematical Problems in Engineering, vol. 2010, , p. 1–34 (ISSN 1024-123X et 1563-5147, DOI 10.1155/2010/621670, lire en ligne, consulté le )
  26. R.P. Rao, D.H. Ballard, Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects, Nat Neurosci., 2 (1), 1999 : 79–87.
  27. (en) D. Mumford, « On the computational architecture of the neocortex: II The role of cortico-cortical loops », Biological Cybernetics, vol. 66, no 3, , p. 241–251 (ISSN 0340-1200 et 1432-0770, DOI 10.1007/BF00198477, lire en ligne, consulté le )
  28. (en) Andre M. Bastos, W. Martin Usrey, Rick A. Adams et George R. Mangun, « Canonical Microcircuits for Predictive Coding », Neuron, vol. 76, no 4, , p. 695–711 (PMID 23177956, PMCID PMC3777738, DOI 10.1016/j.neuron.2012.10.038, lire en ligne, consulté le )
  29. (en) Rick A. Adams, Stewart Shipp et Karl J. Friston, « Predictions not commands: active inference in the motor system », Brain Structure and Function, vol. 218, no 3, , p. 611–643 (ISSN 1863-2653 et 1863-2661, PMID 23129312, PMCID PMC3637647, DOI 10.1007/s00429-012-0475-5, lire en ligne, consulté le )
  30. Harriet Feldman et Karl J. Friston, « Attention, Uncertainty, and Free-Energy », Frontiers in Human Neuroscience, vol. 4, (ISSN 1662-5161, PMID 21160551, PMCID PMC3001758, DOI 10.3389/fnhum.2010.00215, lire en ligne, consulté le )
  31. (en) Karl Friston, Jérémie Mattout et James Kilner, « Action understanding and active inference », Biological Cybernetics, vol. 104, nos 1-2, , p. 137–160 (ISSN 0340-1200 et 1432-0770, PMID 21327826, PMCID PMC3491875, DOI 10.1007/s00422-011-0424-z, lire en ligne, consulté le )
  32. (en) James M. Kilner, Karl J. Friston et Chris D. Frith, « Predictive coding: an account of the mirror neuron system », Cognitive Processing, vol. 8, no 3, , p. 159–166 (ISSN 1612-4790, PMID 17429704, PMCID PMC2649419, DOI 10.1007/s10339-007-0170-2, lire en ligne, consulté le ).
  33. Karl Friston, Rick A. Adams, Laurent Perrinet et Michael Breakspear, « Perceptions as Hypotheses: Saccades as Experiments », Frontiers in Psychology, vol. 3, (ISSN 1664-1078, PMID 22654776, PMCID PMC3361132, DOI 10.3389/fpsyg.2012.00151, lire en ligne, consulté le )
  34. J. Lachmajer, « Symposium on malaria research », Bulletin of the Institute of Maritime and Tropical Medicine in Gdynia, vol. 26, no 1, , p. 53–58 (ISSN 0324-8542, PMID 108, lire en ligne, consulté le )
  35. Hobson, J. A. & Friston, K. J., (2012). Waking and dreaming consciousness: Neurobiological and functional considerations. Prog Neurobiol, 98(1), pp. 82–98.
  36. Harriet Brown et Karl Friston, « Free-Energy and Illusions: The Cornsweet Effect », Frontiers in Psychology, vol. 3, (ISSN 1664-1078, DOI 10.3389/fpsyg.2012.00043/full, lire en ligne, consulté le )
  37. (en) M. J. Edwards, R. A. Adams, H. Brown et I. Parees, « A Bayesian account of 'hysteria' », Brain, vol. 135, no 11, , p. 3495–3512 (ISSN 0006-8950 et 1460-2156, PMID 22641838, PMCID PMC3501967, DOI 10.1093/brain/aws129, lire en ligne, consulté le )
  38. Adams RA, Perrinet LU, Friston K. (2012). Smooth pursuit and visual occlusion: active inference and oculomotor control in schizophrenia. PLoS One., 12;7(10):e47502
  39. Karl J. Friston, Tamara Shiner, Thomas FitzGerald et Joseph M. Galea, « Dopamine, Affordance and Active Inference », PLoS Computational Biology, vol. 8, no 1, , e1002327 (ISSN 1553-7358, DOI 10.1371/journal.pcbi.1002327, lire en ligne, consulté le )
  40. Fiorillo, C. D., Tobler, P. N. & Schultz, W., (2003). Discrete coding of reward probability and uncertainty by dopamine neurons. Science, 299(5614), 1898–902.
  41. Michael J. Frank, « Dynamic Dopamine Modulation in the Basal Ganglia: A Neurocomputational Account of Cognitive Deficits in Medicated and Nonmedicated Parkinsonism », Journal of Cognitive Neuroscience, vol. 17, no 1, , p. 51–72 (ISSN 0898-929X et 1530-8898, DOI 10.1162/0898929052880093, lire en ligne, consulté le )
  42. Feldman, A. G., & Levin, M. F. (1995). The origin and use of positional frames of reference in motor control. Behav Brain Sci., 18, 723–806.
  43. Karl Friston, « What Is Optimal about Motor Control? », Neuron, vol. 72, no 3, , p. 488–498 (ISSN 0896-6273, DOI 10.1016/j.neuron.2011.10.018, lire en ligne, consulté le )
  44. (en) Karl Friston et Ping Ao, « Free Energy, Value, and Attractors », Computational and Mathematical Methods in Medicine, vol. 2012, , p. 1–27 (ISSN 1748-670X et 1748-6718, PMID 22229042, PMCID PMC3249597, DOI 10.1155/2012/937860, lire en ligne, consulté le )
  45. Kappen, H., (2005). Path integrals and symmetry breaking for optimal control theory. Journal of Statistical Mechanics: Theory and Experiment, 11, p. P11011.

Voir aussi

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.