Le prochain défi de l’IA est d’apprendre à détecter les émotions humaines. Et ça pourrait (aussi) révolutionner le monde<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Science
Les progrès sont nombreux dans la recherche en intelligence artificielle vis-à-vis de l’apprentissage pour la détection des émotions humaines.
Les progrès sont nombreux dans la recherche en intelligence artificielle vis-à-vis de l’apprentissage pour la détection des émotions humaines.
©Ethan Miller / GETTY IMAGES NORTH AMERICA / Getty Images via AFP

Futur proche

Des voitures capables de détecter l’énervement ou des smartphones la tristesse… Une nouvelle vague d'intelligence artificielle peut-elle vraiment lire les émotions aussi bien ou mieux que les humains ?

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »

Atlantico : Où en est la recherche en intelligence artificielle vis-à-vis de l’apprentissage pour la détection des émotions humaines ?

Laurent Alexandre : Il y a plusieurs biais pour déterminer les émotions d’une personne grâce à l’intelligence artificielle. Cela va passer par l’analyse de son comportement sur son smartphone. Les émotions peuvent aussi être analysées sur le visage. Les émotions ressortent aussi des discussions que l’on peut avoir avec un Chatbot.

Ces trois façons différentes permettent à un système informatique d’apprécier nos émotions et nos comportements futurs. Cela va leur permettre de nous « manipuler », de nous pousser à modifier notre comportement. Cette analyse va les pousser à nous faire cliquer sur des liens, à nous faire acheter un objet, à nous inscrire à quelque chose. Pour cela, il est fondamental de connaître notre état d’esprit.

Cela peut passer par une manipulation honnête d’un provider ou d’une plateforme qui souhaite que l’on achète un produit, par exemple sur Amazon.

Cela peut aussi être une manipulation par des services de renseignement ou par des gens malhonnêtes qui souhaitent récupérer notre carte bancaire et qui vont trouver des leviers pour nous manipuler en comprenant notre structure d’émotions.

Ces technologies de manipulations électroniques vis-à-vis des émotions sont renforcées par les réseaux de neurones images arrivent à repérer de mieux en mieux les signes de nos émotions sur les vidéos en ligne. Nous avons de plus en plus d’interactions à travers des vidéos. Une intelligence artificielle, un réseau de neurones peut comprendre quel est notre état d’esprit à un moment donné. Cela peut orienter la façon dont on va s’adresser à nous d’un point de vue marketing. La capacité de lire nos émotions sur des photos et des vidéos s’améliore.

Des progrès en neuro intelligence artificielle ont été réalisés. Il s’agit de la fusion des sciences du cerveau et de l’intelligence artificielle. Cela a été développé chez DeepMind. Son fondateur, Demis Hassabis, est docteur en neuroscience et informaticien. Faire fusionner partiellement les sciences du cerveau et l’intelligence artificielle permet de mieux analyser le comportement humain et les émotions humaines de manière à orienter nos comportements.

L’arrivée des Chatbots de type ChatGPT accélère aussi ce phénomène. Ces Chatbots peuvent s’adresser à nous en personnalisant le ton et en étant empathique. Ils arrivent à comprendre nos attentes. Deux personnes différentes qui vont poser la même question à ChatGPT n’auront pas la même réponse sur un sujet donné. Il y a une possibilité de manipulation par l’empathie et par la personnalisation.

Les escroqueries par des LLM comme ChatGPT vont se multiplier. Ce type de réseau de neurones va être capable de déterminer quels sont nos ressorts psychologiques et comment s’en servir pour influencer nos comportements, pour que nous transmettions nos coordonnées bancaires, pour obtenir des informations confidentielles.

A moyen ou long terme, des voitures pourraient-elles être capables de détecter l’énervement du conducteur ou des smartphones sauront-ils déceler la tristesse chez leurs utilisateurs ?

Cela est effectivement très facile et à portée de main. Pour qu’une voiture soit capable de déterminer l’énervement de l’utilisateur, il s’agit de quelque chose de trivial. Ce n’est pas un sujet compliqué techniquement.

En revanche, la complexité va être sur la manipulation. De parvenir à faire faire, par exemple, via l’intelligence artificielle un virement frauduleux par la secrétaire d’une grande entreprise semble fort heureusement difficilement réalisable pour l'instant.   

Il y a déjà eu des escroqueries aux mails qui ont réussi à déjouer le système de sécurité et de contrôle financier des entreprises.

Mais demain, cela pourrait être fait de façon beaucoup plus subtile. Un LLM comme ChatGPT pourrait avoir l’historique des discussions, via la messagerie des e-mails, entre la secrétaire et le patron de l’entreprise. Une manipulation totalement crédible pourrait alors intervenir. Une communication vidéo via un deep fake pourrait être utilisée pour duper les utilisateurs et dérober des informations ou des données bancaires.

La vidéo en deep fake pourrait simuler parfaitement le comportement habituel du patron vis-à-vis de son assistante de manière à obtenir un virement, une autorisation, un mot de passe.

Les problèmes vont être majeurs dans le cadre de la manipulation des émotions.

ChatGPT n’est pas très loin de se comporter de façon aussi subtile que l’intelligence artificielle du film « Her ». Nous entrons dans un domaine où les intelligences artificielles vont simuler des émotions et comprendre nos émotions, tout en devenant de plus en plus empathique.

Quels pourraient être les problèmes que cela pose dans la vie quotidienne ?

Se faire passer pour quelqu’un d’autre va être un énorme problème. Lorsque l’on passera une communication vidéo avec quelqu’un, il va être compliqué de savoir si une intelligence artificielle a produit cette image. ChatGPT va très bientôt produire des vidéos, totalement simulées.

Est-ce bien un correspondant à qui vous parlez ou est-ce quelque chose qui a été simulé par une IA ? Cette instruction transmise a-t-elle été transmise par un LLM ?

Déterminer ce qui sera la vérité va être compliqué. 

Le statut de la vérité va être encore plus fragilisé. Il risque d’y avoir des phases paranoïaques dans la société. Des escroqueries de grande ampleur et très difficiles à dépister seront mises en place. La société et les individus vont se protéger contre toutes les escroqueries et manipulations que la connaissance des émotions par les systèmes d’intelligence artificielle vont produire dans les années qui viennent.

Les intelligences artificielles vont avoir la possibilité de lire nos émotions. Mais elles auront aussi la possibilité d’adapter leur discours à notre psychisme. Ce double système permet la manipulation.

Le processus va être de nous comprendre et de comprendre en profondeur notre cerveau par toutes les traces numériques que nous développons. Et en plus être empathique avec nous. ChatGPT est déjà capable de personnaliser, de manière assez fine, ses interventions auprès de nous.

Quel genre de garde-fou peut-on imaginer ?

Aujourd’hui, lors d’un transfert d’argent par mail, pour un montant important, les banques décident de passer un appel téléphonique pour vérifier et éviter les escroqueries. Mais avec le développement des deep fakes, il est possible de simuler une conversation téléphonique et de simuler la voix. Il est également possible de simuler une conversation vidéo.

La vérification téléphonique et par vidéo ne suffira plus dans le futur pour savoir qui est réellement à l’origine d’une demande de virement ou s’il s’agit d’une intelligence artificielle.

ChatGPT commence à pouvoir avoir une discussion. Imiter une voix produit par le texte de ChatGPT est assez facile également. Un LLM comme ChatGPT sera capable de produire une conversation téléphonique sensée et avec des réponses qui seront adaptées et qui correspondront au langage habituel de la personne concernée et qui aura été imitée par l’intelligence artificielle.

Des manipulations extrêmement sophistiquées vont apparaître dans les 12 à 24 mois qui viennent. Il va falloir inventer de nouvelles façons de se protéger, des dispositifs capables de repérer les IA, les imperfections des vidéos générées par intelligence artificielle.

Il y aura besoin d’une IA qui sera capable de repérer des escroqueries produites par des intelligences artificielles pour le compte d’escrocs et de pirates informatiques. 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !