Accueil🇫🇷Chercher

Grenoble images parole signal automatique

Grenoble images parole signal automatique ou GIPSA-lab est une unité mixte de recherche (CNRS, Institut polytechnique de Grenoble, Université Grenoble-Alpes) menant des recherches théoriques et appliquées sur les communications numériques et les interactions homme-système. Créé en 2007 et situé 11 rue des Mathématiques sur le domaine universitaire de Saint-Martin-d'Hères, ce laboratoire pluridisciplinaire possède en 2018 un effectif global de 371 personnes et ses équipes participent à de nombreuses collaborations scientifiques à travers le monde.

Grenoble images parole signal automatique (GIPSA-lab)
Histoire
Fondation
1er janvier 2007
Prédécesseurs
Institut de la communication parlée (d), Laboratoire des images et des signaux (d)
Cadre
Code
UMR5216
Type
Domaine d'activité
Siège
Pays
Coordonnées
45° 11′ 34″ N, 5° 45′ 58″ E
Organisation
Effectif
371[1]
Chercheurs
110
Doctorants
111
Direction
Nicolas Marchand
Organisations mères
Affiliation
Budget
4,6 M€ (2016) hors masse salariale
Site web
GĂ©olocalisation sur la carte : Grenoble-Alpes MĂ©tropole
(Voir situation sur carte : Grenoble-Alpes MĂ©tropole)
GĂ©olocalisation sur la carte : France
(Voir situation sur carte : France)

Bien que possédant un large éventail de secteurs de recherche de pointe comme le pilotage de machines par la seule activité cérébrale, l'un de ses développements le plus médiatisé est l'apprentissage des interactions et comportements humains chez un robot humanoïde, lors d'un face à face avec une personne.

Histoire

Le GIPSA-lab est né le de la fusion de trois laboratoires, le Laboratoire des images et des signaux, le Laboratoire d’automatique de Grenoble et l'Institut de la communication parlée[3]. Ce dernier laboratoire fondé en 1983 étant lui-même issu de l'Institut de phonétique créé à Grenoble en 1904 par le linguiste et phonéticien Théodore Rosset[4]. De son côté, le Laboratoire d’automatique de Grenoble a été créé en 1958 par René Perret, l’un des pionniers de l'enseignement et de la recherche universitaire en automatique en France[5]. Quant au Laboratoire des images et des signaux, il est le plus récent puisque créé en 1998 par la fusion du Centre d'études des phénomènes aléatoires et géophysiques (CEPHAG) et du Laboratoire de traitement d'images et reconnaissance de formes (LTIRF)[6].

Structure

Le GIPSA-lab est composé d'une douzaine d'équipes structurées en trois départements : Image et signal, Automatique, Parole et cognition. Les équipes de ce laboratoire publient environ 400 publications scientifiques par an[7], lesquelles sont consultables sur le site de l'Archive ouverte HAL. Son département Automatique est de nature a porter des projets pluridisciplinaires et transversaux comme l'utilisation de drones, de robots, de nano systèmes, ou la gestion de réseaux électriques embarqués, de transport, de trafic routier, de gestion de l'eau, de santé.

Avancées technologiques

GIPSA-lab se signale par ses avancées sur la communication non verbale lors d'une rencontre entre un robot et un être humain, en recherchant quel comportement précis doit adopter le robot (posture, clignement des yeux, émotions, intonations de la voix…). Dans ce but, le laboratoire possède un robot de type iCub 2.0, spécialement équipé d'une machoire et d'yeux dotés de caméras et de paupières, afin de parvenir à reproduire au plus près les émotions et les interactions humaines lors d'un face à face[8]. Ces échanges entre l'homme et la machine doivent être répétés un grand nombre de fois à l'aide d'algorithmes d'apprentissage afin de réagir de façon appropriée. Fin 2017, le GIPSA-lab prévoit la pose de sourcils sur le robot et l'intégration de leurs mouvements dans les algorithmes. Dans l'avenir, ce robot prénommé Nina par les chercheurs et doté d'une cinquantaine de moteurs[9] pourrait alors participer à des campagnes de détection de la maladie d'Alzheimer[9]. En , le magazine économique américain, Forbes, place Nina parmi dix robots humanoïdes incroyablement réalistes dans le monde en retenant que son apprentissage en profondeur lui permet de corriger elle-même ses erreurs et qu'elle utilise le contact visuel comme moyen de communication[10].

Entrée du GIPSA-lab.

Dans ces échanges homme-robot, l'apprentissage de la parole ou parole de synthèse est un autre défi technologique à relever, qui se fait grâce à un synthétiseur vocal, appareil permettant de reconstituer en temps réel la parole d'une personne articulant silencieusement[11]. Modéliser la voix humaine est une activité du GIPSA-lab[12], mais à plus long terme, il souhaite reconstruire la parole d'une personne muette à partir d'une interface neuronale directe en captant son activité cérébrale et en la traduisant en temps réel en une voix de synthèse[13].

Le GIPSA-lab est également reconnu pour la mise au point d'un jeu vidéo, Brain Invaders, fonctionnant à partir d'une interface neuronale directe (interface cerveau machine) et utilisant les propriétés des ondes électriques P300 du cerveau humain afin de s'affranchir de toute utilisation de souris ou de manette[14]. Un logiciel permettant dans ce cas de décoder l'intention du joueur équipé d'un casque à électrodes recueillant ses données encéphalographiques, transcrites alors en commande de tir sur une cible. Outre les applications évidentes dans les jeux vidéo d'un futur proche, des applications dans la vie courante ne sont pas encore connues mais l'utilisation de cette technique pour pallier l'absence de mobilité ou d'élocution semble très prometteuse[15] - [16].

Dans le domaine de la maîtrise des signaux, le GIPSA-lab s'est lancé dans la sécurisation du vol de drones, notamment lors de vols rapprochés en escadrille ou dans un espace contraint avec la présence de câbles voire d'aéronefs gros porteurs[7]. Le laboratoire travaille également sur la capacité d'un drone à naviguer en terrain inconnu comme la traversée d'une forêt[17]. Cette grande maîtrise lui a permis d'opérer l'incubation de la startup Drone interactive via la société d’accélération du transfert de technologies Linksium[18].

Dans d'autres domaines, une équipe internationale, dont des chercheurs du GIPSA-lab, a mesuré pour la première fois en 2014 la concentration de trois chlorofluorocarbures dans l'atmosphère[19]. En , le GIPSA-lab, le laboratoire de psychologie cognitive de Marseille et le Laboratoire d'anatomie de l'université de Montpellier mettent en évidence par la publication de données que les babouins produisent des vocalisations comparables aux voyelles malgré la position haute de leur larynx[20]. Cependant, ils ne vocalisent que deux des cinq voyelles[21]. En , une étude menée par le GIPSA-lab montre que les enfants souffrant de dyslexie ont un apprentissage orthographique tellement laborieux qu'il peut modifier ou altérer les compétences en écriture, et ce, malgré l'absence de dysgraphie chez ces enfants[22].

Accès

Le laboratoire est accessible par les lignes B et C du tramway.

Personnalités liées

Notes et références

  1. effectifs du GIPSA-lab.
  2. « Dix ans après sa création, Gipsa-lab face aux défis technologiques de la transition énergétique et numérique », sur placegrenet.fr, (consulté le )
  3. Archive ouverte HAL
  4. [PDF] Théodore Rosset et l'établissement de la phonétique expérimentale à Grenoble.
  5. aconit.inria.fr, René Perret.
  6. idref.fr, Laboratoire de traitement d'images et reconnaissance de formes (Grenoble)
  7. « VIDÉO - Plongée dans le Gipsa Lab de Grenoble », sur www.francebleu.fr, (consulté le )
  8. « VIDEO. Demain, les robots seront capables d'échanger avec vous d'un simple regard », sur sciencesetavenir.fr, (consulté le )
  9. « Nina, le robot qui apprend à parler aussi avec les yeux », sur www.lepoint.fr, (consulté le )
  10. (en) « Ten Incredibly Lifelike Humanoid Robots To Get On Your Radar », sur www.forbes.com, (consulté le )
  11. « Des scientifiques français réussissent à reconstituer la parole en temps réel », sur lexpress.fr, (consulté le )
  12. « Le GIPSA-lab: un laboratoire qui montre la voix à Grenoble », sur france3-regions.francetvinfo.fr, (consulté le )
  13. « Personnes muettes: des chercheurs élaborent un synthétiseur vocal en temps réel », sur bfmtv.com, (consulté le )
  14. « Brain invaders, le jeu vidéo qui se contrôle par la pensée », sur www.huffingtonpost.fr, (consulté le )
  15. « Brain Invaders, le jeu vidéo contrôlé par la pensée », sur www.futura-sciences.com, (consulté le )
  16. « Nous avons testé le jeu vidéo contrôlé par la pensée », sur www.leparisien.fr, (consulté le )
  17. « Drones : des solutions pour éviter les collisions », sur www.lejdd.fr, (consulté le )
  18. « Drone Interactive commercialise Arcadrone », sur www.ledauphine.com, (consulté le )
  19. « Quatre composés destructeurs de la couche d'ozone mesurés pour la première fois dans l'atmosphère », sur cnrs.fr, (consulté le )
  20. (en) « Evidence of a Vocalic Proto-System in the Baboon (Papio papio) Suggests Pre-Hominin Speech Precursors », sur www.journals.plos.org, (consulté le )
  21. « Origines du langage : le pavé dans la mare de chercheurs grenoblois », sur www.placegrenet.fr, (consulté le )
  22. (en) « Dyslexia: When spelling problems impair writing acquisition », sur www.sciencedaily.com, (consulté le )

Voir aussi

Bibliographie

  • (en) GĂ©rard Bailly (edt.), Pascal Perrier (edt.) et Eric Vatikiotis-Bateson (edt.), Audiovisual speech processing, Cambridge New York, Cambridge University Press, , 470 p. (ISBN 978-1-107-00682-9, OCLC 951421687, lire en ligne).

Article connexe

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.