Pourquoi le mieux est en train de devenir l’ennemi du bien chez les chatbots, ces assistants digitaux qui ressemblent de plus en plus à des humains<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Politique
Pourquoi le mieux est en train de devenir l’ennemi du bien chez les chatbots, ces assistants digitaux qui ressemblent de plus en plus à des humains
©

HAL 9000

Que faire face à une intelligence artificielle grandissante ? Derrière les scénarios de SF palpitants que suscitent cette question, une réalité s'impose à nous. Les intelligences artificielles présentes dans nos portables, celle de Siri par exemple, demandent à être examinées de plus près dès aujourd'hui.

Christophe Benavent

Christophe Benavent

Professeur à Paris Ouest, Christophe Benavent enseigne la stratégie et le marketing. Il dirige le Master Marketing opérationnel international.

Il est directeur du pôle digital de l'ObSoCo.

Il dirige l'Ecole doctorale Economie, Organisation et Société de Nanterre, ainsi que le Master Management des organisations et des politiques publiques.

 

Le dernier ouvrage de Christophe Benavent, Plateformes - Sites collaboratifs, marketplaces, réseaux sociaux : comment ils influencent nos Choix, est paru en mai  2016 (FYP editions). 

 
Voir la bio »

Selon une étude publiée en 2012 par la revue Social Cognitive and Affective Neuroscience, les utilisateurs de robots modifient leurs comportements en fonction de l'apparence de ces robots, selon un phénomène appelé "uncanny valley". Quels sont les ressorts et les conséquences de ce phénomène ?

Christophe Benavent : C'est une hypothèse formulée en 1970 par Mori Masahiro et qui rencontre un succès populaire car elle s'appuie sur une intuition simple :  le degré de familiarité d'un robot est d'autant plus élevé qu'il ressemble à un humain, sauf quand cette ressemblance devient très forte. Un robot qui semblerait presqu'humain susciterait un trouble chez les humains au cours des interactions sociales.  Quand à l'étude que vous citez, elle appartient à un courant de la psychologie qui est celui de la cognition sociale, ce champs qui s'intéresse à la manière dont les sujets humains font des inférences sur les groupes sociaux à partir de leur apparence, en leur attribuant des qualités variables.  C'est aussi plus largement la question en science sociale des "existants", quel mode d'existence attribue-t-on aux êtres artificiels qui manifestent un certains degré d'autonomie.  Est-ce une chose? Un être vivant? Les choses et les êtres sont-ils conçus pas le cerveau de manière identique? Comment " étiquette"-t-on, catégorise-t-on ces objets doués d'autonomie, peut-être d'intention, sans doute de forme d'intelligence? C'est effectivement une question aujourd'hui essentielle, dans une société où nous serons amené à vivre des des populations d'objets dotés d'un minimum d'intelligence et d'autonomie d'action.  

Ce qui est certain c'est que nous ajustons nos comportements, en fonction de ce que nous croyons qu'est autrui. Cette croyance s'appuie notamment sur des signaux visuels. Depuis longtemps déjà dans le champs des interactions avec les " êtres" artificiel, on sait que ces signaux sont interprétés au travers de stéréotypes, et que leur apparence est importante dans les jugements et les interaction. L'anthropomorphisme est ainsi un éléments clé et facilitateur , mais pas trop. C'est cette hypothèse de la vallée du trouble.

Quelles sont les implications de cette "erreur de prédiction" sur les nouveaux et futurs outils à disposition, comme les chatbots ?

Il n'y a pas d'erreur de prédiction, mais des questions de design qui dépendent largement de la manière dont les humains interagisse avec les objets artificiels. Schématiquement lorsqu'un humain interagit avec un objet il tente de s'adapter à la nature de cet objet. Dans le cas d'un moteur de recherche, si nous le prenons pour une chose, on sera tenté d'utiliser un langage simple et réduit à quelques mots clés, comme si on anticipe le fonctionnement de la machine. Si on le prend pour une forme d'être vivant, on lui suppose une une autonomie, une certain intelligence et l'on aura tendance à favoriser une interaction en langage naturel. C'est le même type de réaction qu'on observe dans des phénomènes comme le racisme. Le raciste persuadé de l'infériorité d'autrui, et pire d'une différence de nature aura ainsi tendance à parler "petit-nègre" ( les spécialistes, parlent d'ailleurs de sous-hominisation). 

Dans le cas des chatbots l'enjeu est celui du design. En les anthropomorphisant on cherche effectivement à inciter les humains à interagir avec eux comme avec d'autres humains.   En ne le faisant pas on les oriente vers un autre mode d'interaction, mais en réduisant leur attractivité. Au-delà des questions d'efficacité de l'interaction se pose une question politique : quel statut accorde-t-on aux êtres qui participent à la société. Faut-il bien distinguer le monde des robots de celui des humains? C'est un défi anthropologique évident celui de l'étiquetage ou de la labellisation, des êtres artificiels. L'enjeu c'est celui de la cognition sociale.

Faut-il voir dans ce phénomène une limite dans le développement de ces outils ? Quelles sont les autres limites connues qui pourraient freiner leur développement ? 

Leur limite c'est leur intelligence qui n'a pas de forme, qui est abstraite, qui ne se représente pas. Ce dont on discute c'est de la boite dans laquelle ces intelligences sont incarnées. Doivent-elles avoir formes humaines et jusqu'à quel point ? C'est une question qui est à la fois technique - favoriser et optimiser les relation homme-machines,  que politique - faut-il marquer les différences de nature entre les choses et les humains ? 

Il faut garder en tête que cette question ne se pose pas qu'avec les différentes formes de robots, mais concerne l'ensemble de notre relation avec les objets et les institutions. On connait depuis longtemps le rôle transitionnel des objets : le doudou du bébé. Grandir c'est d'une certaine manière apprendre à détacher l'affect des objets, le fétichisme d'un certain côté est une forme d'immaturité. Mais on sait aussi que pour un pilote, sa machine est un être vivant, et que sans doute cette croyance, le conduit à mieux percevoir le comportement de la machine, ses moindre vibration, et en pensant la machine comme un être autonome avec une personnalité affirmée, établir avec elle un lien infime, infra-cognitif, qui lui permet de la piloter encore mieux.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !