Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Science

Prouesse

Super décodeur : une machine réussit désormais à traduire des ondes cérébrales en phrases

Des chercheurs de l’Université de Californie à San Francisco viennent de prédire les mots de patients à partir de l’analyse de leur activité cérébrale. Grâce à des électrodes, ils ont utilisé un dispositif de synthèse vocale afin de restituer la parole de plusieurs personnes. Cette méthode pourrait-elle être utilisée en tant que super détecteur de mensonge ?

André  Nieoullon

André Nieoullon

André Nieoullon est Professeur de Neurosciences à l'Université d'Aix-Marseille, membre de la Society for Neurosciences US et membre de la Société française des Neurosciences dont il a été le Président.

 

Voir la bio »

Atlantico.fr : Une équipe de chercheurs de l’Université de Californie à San Francisco vient de prédire les mots de patients à partir de l’analyse de leur activité cérébrale. Grâce à des électrodes placées dans le cerveau ils ont utilisé un dispositif de synthèse vocale pour restituer, avec un taux d’erreur de l’ordre de 3%, la parole de plusieurs sujets. 

Comment l’équipe de chercheurs est-elle arrivée à un tel résultat ? Sur quels types de patients a-t-elle opéré les tests ? 

André Nieoullon : Il s’agit d’une étude sur l’étude du langage, portant sur la mise au point d’interfaces homme-machine grâce aux progrès de l’intelligence artificielle. Il s’agit d’une nouvelle tentative de pilotage de machines à partir du cerveau. Celle-ci n’est pas la première, et de nombreux travaux sont très prometteurs à ce sujet. Les progrès en ce domaine sont très rapides et, à titre d’illustration, aujourd’hui une équipe de chercheurs Grenoblois du Laboratoire CLINATEC a développé un dispositif de commande d’un exosquelette permettant à un sujet paraplégique d’effectuer quelques pas, uniquement par la pensée. 

Plus précisément, l’équipe du Professeur A. L. Benabid a implanté des électrodes dans le cerveau d’un paraplégique, dans la partie du cortex cérébral commandant normalement les mouvements qui ne sont plus possibles à cause de l’accident ayant rendu le sujet paraplégique. De façon assez extraordinaire, le signal nerveux provoqué par la simple évocation du mouvement de la marche par le sujet va être récupéré par les électrodes et traité par une interface digitalisée, puis injecté dans des moteurs commandant l’exosquelette. Dans ces conditions, les résultats montrent qu’il existe bien une restitution de la marche par la simple évocation du mouvement imaginé par le patient. Dans l’étude des chercheurs de San Francisco, la problématique est similaire, d’obtenir un « décodage » des messages explicites contenus dans les activités de populations neuronales.

Dans le cas de l’étude de la restitution du langage, les électrodes sont placées précisément dans la région du cerveau qui normalement commande la parole. Cette « aire du langage » du cerveau est complexe. Elle permet à la fois d’articuler les mots (Aire dite « de Broca ») et de connaître leur sens (Aire dite « de Wernicke »), ce qui confère au discours sa cohérence. Dans cette expérience, les chercheurs ont utilisé des patients porteurs d’électrodes implantées préalablement à des fins neurochirurgicales, et ils leurs ont proposé de répondre à des questionnaires (questionnaire limité à quelques questions-réponses standardisées). Les sujets s’entraînent à verbaliser les réponses à ces questions simples en répétant plusieurs fois ces séquences. Au bout de ces séries de tests, l’enregistrement de ce que l’on nomme un « électrocorticogramme » reflétant l’activité coordonnées de millions de neurones sélectivement mis en jeu dans la production de la réponse verbale, va être réalisé. Le signal ainsi recueilli est alors injecté dans une machine et une interface va digitaliser les signaux. Ce qui est formidable est alors que le synthétiseur vocal couplé à ce dispositif est alors capable de « décoder » avec une grande précision le message nerveux correspondant aux mots que le sujet prononce normalement en réponse aux questions qui lui ont été soumises. Et ce qui est encore plus fort est que ces opérations complexes de recueil et traitement des signaux ne prennent ici que très peu de temps puisque la restitution du mot ou de la courte phrase par le synthétiseur vocal est quasiment instantanée ! 

Les gens muets pourraient s’en servir pour parler. Peut-on penser à une application de cette découverte pour aider les personnes ayant perdu la parole ? Aussi pour repérer la douleur et les sensations ?

Cette découverte est un espoir pour les personnes qui ont perdu l’usage de la parole. A titre d’illustration, un certain nombre de patients sont aphasiques, souvent après les accidents vasculaires cérébraux (AVC). Si leur aire du langage est encore fonctionnelle et non trop lésée, ces travaux montrent ainsi que ces personnes devraient être encore capables de communiquer en pensant un mot, la machine recueillant le signal et le « disant » grâce au synthétiseur vocal. 

Pour répondre à la seconde partie de votre question sur la perception douloureuse, dans le cas de cette expérimentation nous sommes simplement dans la reconnaissance de langage. L’étude ne s’intéresse pas particulièrement à la nature des signaux perçus par le cerveau mais plutôt à la réponse neuronale produite par ces informations.  Cela ne signifie par que c’est inintéressant mais les travaux de l’équipe de San Francisco sont objectivement axés sur le « décodage » du message nerveux plutôt que sur ce que l’on nomme « l’encodage ». 

En restant sur un faible répertoire de mots et sur des phrases très courtes, ce que montrent ces travaux c’est que l’on peut parfaitement reconnaître des phrases courtes à partir des signaux nerveux. 

Financée par Facebook, cette étude pose de nombreuses questions. Est-ce que l’on peut penser qu’elle sera utilisée en tant que super détecteur de mensonge ou pour encore plus lier la machine avec l’homme ? Faut-il en avoir en avoir peur ? 

Dès que l’on parle d’intelligence artificielle, vous avez raison, il y a de fait des questions d’éthique et de déontologie qui sont posées pour éviter les dérives. Pour ce qu’il en est dit, l’objectif de Facebook en finançant ce projet de recherche est un peu différent : il semble que l’entreprise soit intéressée par le développement d’un dispositif qui pourrait permettre à termes d’écrire des mots sur un écran, simplement à partir de l’évocation du mot par la pensée. Une économie de temps pour transcrire les textes ? et encore plus de rapidité de transcription. Tout un programme : nous n’aurions plus à articuler les mots mais en les « pensant » simplement, ils arriveraient sur le smartphone. 

Cependant, nous n’en sommes pas encore là et la difficulté principale est bien de savoir comment récupérer le signal nerveux. Il n’est évidemment pas question d’implanter des électrodes ou des puces dans le cerveau des gens ! Mais il est possible d’imaginer, avec le développement de l’intelligence artificielle et de capteurs d’électrocorticogrammes sophistiqués, que par le port d’un casque extérieur, par exemple, ces dispositifs puissent avoir à termes une sensibilité telle que l’on puisse récupérer des signaux exploitables pour aller dans cette direction, possiblement à horizon d’une dizaine d’années.  A voir !

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !