Atlantico, c'est qui? c'est quoi ?
Mercredi 25 Avril 2018 | Créer un compte | Connexion
Extra

Pourquoi le mieux est en train de devenir l’ennemi du bien chez les chatbots, ces assistants digitaux qui ressemblent de plus en plus à des humains

Que faire face à une intelligence artificielle grandissante ? Derrière les scénarios de SF palpitants que suscitent cette question, une réalité s'impose à nous. Les intelligences artificielles présentes dans nos portables, celle de Siri par exemple, demandent à être examinées de plus près dès aujourd'hui.

HAL 9000

Publié le
Pourquoi le mieux est en train de devenir l’ennemi du bien chez les chatbots, ces assistants digitaux qui ressemblent de plus en plus à des humains

Selon une étude publiée en 2012 par la revue Social Cognitive and Affective Neuroscience, les utilisateurs de robots modifient leurs comportements en fonction de l'apparence de ces robots, selon un phénomène appelé "uncanny valley". Quels sont les ressorts et les conséquences de ce phénomène ?

Christophe Benavent : C'est une hypothèse formulée en 1970 par Mori Masahiro et qui rencontre un succès populaire car elle s'appuie sur une intuition simple :  le degré de familiarité d'un robot est d'autant plus élevé qu'il ressemble à un humain, sauf quand cette ressemblance devient très forte. Un robot qui semblerait presqu'humain susciterait un trouble chez les humains au cours des interactions sociales.  Quand à l'étude que vous citez, elle appartient à un courant de la psychologie qui est celui de la cognition sociale, ce champs qui s'intéresse à la manière dont les sujets humains font des inférences sur les groupes sociaux à partir de leur apparence, en leur attribuant des qualités variables.

 C'est aussi plus largement la question en science sociale des "existants", quel mode d'existence attribue-t-on aux êtres artificiels qui manifestent un certains degré d'autonomie.  Est-ce une chose? Un être vivant? Les choses et les êtres sont-ils conçus pas le cerveau de manière identique? Comment " étiquette"-t-on, catégorise-t-on ces objets doués d'autonomie, peut-être d'intention, sans doute de forme d'intelligence? C'est effectivement une question aujourd'hui essentielle, dans une société où nous serons amené à vivre des des populations d'objets dotés d'un minimum d'intelligence et d'autonomie d'action.  

Ce qui est certain c'est que nous ajustons nos comportements, en fonction de ce que nous croyons qu'est autrui. Cette croyance s'appuie notamment sur des signaux visuels. Depuis longtemps déjà dans le champs des interactions avec les " êtres" artificiel, on sait que ces signaux sont interprétés au travers de stéréotypes, et que leur apparence est importante dans les jugements et les interaction. L'anthropomorphisme est ainsi un éléments clé et facilitateur , mais pas trop. C'est cette hypothèse de la vallée du trouble.

Quelles sont les implications de cette "erreur de prédiction" sur les nouveaux et futurs outils à disposition, comme les chatbots ?

Il n'y a pas d'erreur de prédiction, mais des questions de design qui dépendent largement de la manière dont les humains interagisse avec les objets artificiels. Schématiquement lorsqu'un humain interagit avec un objet il tente de s'adapter à la nature de cet objet. Dans le cas d'un moteur de recherche, si nous le prenons pour une chose, on sera tenté d'utiliser un langage simple et réduit à quelques mots clés, comme si on anticipe le fonctionnement de la machine. Si on le prend pour une forme d'être vivant, on lui suppose une une autonomie, une certain intelligence et l'on aura tendance à favoriser une interaction en langage naturel. C'est le même type de réaction qu'on observe dans des phénomènes comme le racisme. Le raciste persuadé de l'infériorité d'autrui, et pire d'une différence de nature aura ainsi tendance à parler "petit-nègre" ( les spécialistes, parlent d'ailleurs de sous-hominisation). 

 
Commentaires

Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.

  • Par J'accuse - 24/04/2017 - 10:24 - Signaler un abus C'est qui, le chef ?

    Si certains souhaitent être aidé par une IA, c'est sans doute parce qu'ils n'ont pas confiance dans leur IN (intelligence naturelle)... Ce faisant, ils deviennent les robots obéissants des vendeurs de machines. Avez-vous remarqué que la justification de nos besoins supposés de l'IA sert plus à nous vendre des produits (en premier lieu le robot sensé être intelligent) qu'à réellement nous simplifier la vie? Il n'y a qu'une seule circonstance où je traite un robot comme un humain: je l'insulte copieusement quand il ne fonctionne pas correctement! Je reconnais que ça n'arrange rien, mais ça soulage.

  • Par alex.cecconi - 26/04/2017 - 19:51 - Signaler un abus Malheureux en écriture/orthographe

    Si vous vous nommez professeur je plains vos élèves ! Que de fautes dans ce texte !

Pour commenter :

Depuis son lancement Atlantico avait fait le choix de laisser ouvert à tous la possibilité de commenter ses articles avec un système de modération a posteriori. Sous couvert d'anonymat, une minorité d'internautes a trop souvent détourné l’esprit constructif et respectueux de cet espace d’échanges. Suite aux nombreuses remarques de nos lecteurs, nous avons décidé de réserver les commentaires à notre communauté d’abonnés.

Christophe Benavent

Professeur à Paris Ouest, Christophe Benavent enseigne la stratégie et le marketing. Il dirige le Master Marketing opérationnel international.

Il est directeur du pôle digital de l'ObSoCo.

Il dirige l'Ecole doctorale Economie, Organisation et Société de Nanterre, ainsi que le Master Management des organisations et des politiques publiques.

 

Le dernier ouvrage de Christophe Benavent, Plateformes - Sites collaboratifs, marketplaces, réseaux sociaux : comment ils influencent nos Choix, est paru en mai  2016 (FYP editions). 

 

Voir la bio en entier

Je m'abonne
à partir de 4,90€