En direct
Best of
Best of du 12 au 18 janvier
En direct
© Pixabay
HAL 9000
Pourquoi le mieux est en train de devenir l’ennemi du bien chez les chatbots, ces assistants digitaux qui ressemblent de plus en plus à des humains
Publié le 24 avril 2017
Que faire face à une intelligence artificielle grandissante ? Derrière les scénarios de SF palpitants que suscitent cette question, une réalité s'impose à nous. Les intelligences artificielles présentes dans nos portables, celle de Siri par exemple, demandent à être examinées de plus près dès aujourd'hui.
Professeur à Paris Ouest, Christophe Benavent enseigne la stratégie et le marketing. Il dirige le Master Marketing opérationnel international.Il est directeur du pôle digital de l'ObSoCo.Il dirige l'Ecole doctorale Economie, Organisation et...
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Christophe Benavent
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Professeur à Paris Ouest, Christophe Benavent enseigne la stratégie et le marketing. Il dirige le Master Marketing opérationnel international.Il est directeur du pôle digital de l'ObSoCo.Il dirige l'Ecole doctorale Economie, Organisation et...
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Que faire face à une intelligence artificielle grandissante ? Derrière les scénarios de SF palpitants que suscitent cette question, une réalité s'impose à nous. Les intelligences artificielles présentes dans nos portables, celle de Siri par exemple, demandent à être examinées de plus près dès aujourd'hui.

Selon une étude publiée en 2012 par la revue Social Cognitive and Affective Neuroscience, les utilisateurs de robots modifient leurs comportements en fonction de l'apparence de ces robots, selon un phénomène appelé "uncanny valley". Quels sont les ressorts et les conséquences de ce phénomène ?

Christophe Benavent : C'est une hypothèse formulée en 1970 par Mori Masahiro et qui rencontre un succès populaire car elle s'appuie sur une intuition simple :  le degré de familiarité d'un robot est d'autant plus élevé qu'il ressemble à un humain, sauf quand cette ressemblance devient très forte. Un robot qui semblerait presqu'humain susciterait un trouble chez les humains au cours des interactions sociales.  Quand à l'étude que vous citez, elle appartient à un courant de la psychologie qui est celui de la cognition sociale, ce champs qui s'intéresse à la manière dont les sujets humains font des inférences sur les groupes sociaux à partir de leur apparence, en leur attribuant des qualités variables.  C'est aussi plus largement la question en science sociale des "existants", quel mode d'existence attribue-t-on aux êtres artificiels qui manifestent un certains degré d'autonomie.  Est-ce une chose? Un être vivant? Les choses et les êtres sont-ils conçus pas le cerveau de manière identique? Comment " étiquette"-t-on, catégorise-t-on ces objets doués d'autonomie, peut-être d'intention, sans doute de forme d'intelligence? C'est effectivement une question aujourd'hui essentielle, dans une société où nous serons amené à vivre des des populations d'objets dotés d'un minimum d'intelligence et d'autonomie d'action.  

Ce qui est certain c'est que nous ajustons nos comportements, en fonction de ce que nous croyons qu'est autrui. Cette croyance s'appuie notamment sur des signaux visuels. Depuis longtemps déjà dans le champs des interactions avec les " êtres" artificiel, on sait que ces signaux sont interprétés au travers de stéréotypes, et que leur apparence est importante dans les jugements et les interaction. L'anthropomorphisme est ainsi un éléments clé et facilitateur , mais pas trop. C'est cette hypothèse de la vallée du trouble.

Quelles sont les implications de cette "erreur de prédiction" sur les nouveaux et futurs outils à disposition, comme les chatbots ?

Il n'y a pas d'erreur de prédiction, mais des questions de design qui dépendent largement de la manière dont les humains interagisse avec les objets artificiels. Schématiquement lorsqu'un humain interagit avec un objet il tente de s'adapter à la nature de cet objet. Dans le cas d'un moteur de recherche, si nous le prenons pour une chose, on sera tenté d'utiliser un langage simple et réduit à quelques mots clés, comme si on anticipe le fonctionnement de la machine. Si on le prend pour une forme d'être vivant, on lui suppose une une autonomie, une certain intelligence et l'on aura tendance à favoriser une interaction en langage naturel. C'est le même type de réaction qu'on observe dans des phénomènes comme le racisme. Le raciste persuadé de l'infériorité d'autrui, et pire d'une différence de nature aura ainsi tendance à parler "petit-nègre" ( les spécialistes, parlent d'ailleurs de sous-hominisation). 

Dans le cas des chatbots l'enjeu est celui du design. En les anthropomorphisant on cherche effectivement à inciter les humains à interagir avec eux comme avec d'autres humains.   En ne le faisant pas on les oriente vers un autre mode d'interaction, mais en réduisant leur attractivité. Au-delà des questions d'efficacité de l'interaction se pose une question politique : quel statut accorde-t-on aux êtres qui participent à la société. Faut-il bien distinguer le monde des robots de celui des humains? C'est un défi anthropologique évident celui de l'étiquetage ou de la labellisation, des êtres artificiels. L'enjeu c'est celui de la cognition sociale.

Faut-il voir dans ce phénomène une limite dans le développement de ces outils ? Quelles sont les autres limites connues qui pourraient freiner leur développement ? 

Leur limite c'est leur intelligence qui n'a pas de forme, qui est abstraite, qui ne se représente pas. Ce dont on discute c'est de la boite dans laquelle ces intelligences sont incarnées. Doivent-elles avoir formes humaines et jusqu'à quel point ? C'est une question qui est à la fois technique - favoriser et optimiser les relation homme-machines,  que politique - faut-il marquer les différences de nature entre les choses et les humains ? 

Il faut garder en tête que cette question ne se pose pas qu'avec les différentes formes de robots, mais concerne l'ensemble de notre relation avec les objets et les institutions. On connait depuis longtemps le rôle transitionnel des objets : le doudou du bébé. Grandir c'est d'une certaine manière apprendre à détacher l'affect des objets, le fétichisme d'un certain côté est une forme d'immaturité. Mais on sait aussi que pour un pilote, sa machine est un être vivant, et que sans doute cette croyance, le conduit à mieux percevoir le comportement de la machine, ses moindre vibration, et en pensant la machine comme un être autonome avec une personnalité affirmée, établir avec elle un lien infime, infra-cognitif, qui lui permet de la piloter encore mieux.

Les commentaires de cet article sont à lire ci-après
Articles populaires
Période :
24 heures
7 jours
01.
"Il entend, mais il n'écoute personne" : les conseillers de Macron sont au bout du rouleau
02.
Connaissez vous Marie Kondo (la Japonaise qui a déclenché une folie du rangement dans le monde qui ne devrait pas tarder à atteindre la France) ?
03.
Et si le Rassemblement National était en train de faire un bien mauvais coup à l’euro en renonçant à exiger que nous en sortions ?
04.
Brexit : rien n’est joué pour le royaume-Uni même en cas de sortie sans accord
05.
Radioscopie des dépenses de la France : ces nouvelles inégalités qui se cachent derrière la puissance apparente de l'État-providence
06.
Emmanuel Macron est brillant, mais il n’est pas le président qu’il faut à la France
07.
Iran, pourquoi la menace d’une intervention militaire brandie par John Bolton pourrait marcher
01.
Patrick Bruel aime une nouvelle femme de (bien) moins de 50 ans; Vincent Cassel : entre sa (très) jeune épouse & sa fille aînée, c’est tendu; Sophie Marceau s’occupe de son fils, René-Charles Angélil-Dion de ses frères, Anouchka Delon de toute la famille
02.
Ce sondage dévastateur qui fait le procès de Macron le condamne sans appel
03.
Wauquiez pousse une colère contre la direction de LR, et Thierry Mariani contre Wauquiez ; L'Obs s'inquiète de la crise financière qui vient ; François-Xavier Bellamy en guerre contre le progressisme ; Ces députés LREM attaqués
04.
Gilets jaunes : un syndicat policier s’émeut des ordres de répression et du comptage des manifestants
05.
Vivons-nous dans un univers-bulle en expansion dans une autre dimension ? ; Hubble nous offre un magnifique portrait très détaillé de la galaxie du Triangle
06.
Et la raison pour laquelle les Allemands commencent sérieusement à s’inquiéter d’un Brexit sans deal est…
07.
Emmanuel Macron est brillant, mais il n’est pas le président qu’il faut à la France
01.
Ce sondage dévastateur qui fait le procès de Macron le condamne sans appel
02.
Gilets jaunes : un syndicat policier s’émeut des ordres de répression et du comptage des manifestants
03.
Patrick Bruel aime une nouvelle femme de (bien) moins de 50 ans; Vincent Cassel : entre sa (très) jeune épouse & sa fille aînée, c’est tendu; Sophie Marceau s’occupe de son fils, René-Charles Angélil-Dion de ses frères, Anouchka Delon de toute la famille
04.
Réponse à tout… sauf aux Gilets jaunes ? Pourquoi l’intelligence de Macron participe plus du problème que de la solution à la crise de défiance qui ébranle la société française
05.
Ce à quoi se condamnent lentement mais sûrement les Gilets jaunes
06.
Sévère répression des gilets jaunes : la justice française est-elle en train de préfèrer l’ordre à la justice ?
01.
Grand débat national : l’équation impossible d’Emmanuel Macron
02.
Réponse à tout… sauf aux Gilets jaunes ? Pourquoi l’intelligence de Macron participe plus du problème que de la solution à la crise de défiance qui ébranle la société française
03.
Pourquoi Macron, les populistes et les gilets jaunes sont tous le produit de la même vague (et pourquoi ils seraient bien inspirés de le comprendre réciproquement)
04.
Ce sondage dévastateur qui fait le procès de Macron le condamne sans appel
05.
Radioscopie des dépenses de la France : ces nouvelles inégalités qui se cachent derrière la puissance apparente de l'État-providence
06.
Si la France vit un moment révolutionnaire (et voilà pourquoi c’en est bien un), quelle stratégie politique pour éviter le chaos et en sortir par le haut ?
Commentaires (2)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
alex.cecconi
- 26/04/2017 - 19:51
Malheureux en écriture/orthographe
Si vous vous nommez professeur je plains vos élèves !

Que de fautes dans ce texte !
J'accuse
- 24/04/2017 - 10:24
C'est qui, le chef ?
Si certains souhaitent être aidé par une IA, c'est sans doute parce qu'ils n'ont pas confiance dans leur IN (intelligence naturelle)... Ce faisant, ils deviennent les robots obéissants des vendeurs de machines. Avez-vous remarqué que la justification de nos besoins supposés de l'IA sert plus à nous vendre des produits (en premier lieu le robot sensé être intelligent) qu'à réellement nous simplifier la vie? Il n'y a qu'une seule circonstance où je traite un robot comme un humain: je l'insulte copieusement quand il ne fonctionne pas correctement! Je reconnais que ça n'arrange rien, mais ça soulage.