Atlantico, c'est qui? c'est quoi ?
Lundi 18 Décembre 2017 | Créer un compte | Connexion
Extra

Intelligence artificielle : les chatbots de Facebook développent leur propre langage

Un rapport émis par l'unité de recherche sur l'intelligence artificielle de Facebook fait état d'une évolution en matière d'intelligence artificielle; des "bots" auraient créé leur propre langage.

Intelligence artifcielle

Publié le
Intelligence artificielle : les chatbots de Facebook développent leur propre langage

 

Atlantico.fr : Quelles sont les implications d'une telle capacité d'autonomie? Comment ces bots en sont ils arrivés à une telle capacité, et quels en sont les risques? 
 
Jean-Gabriel Ganascia : Le rapport de recherche en question décrit de façon très technique la mise en œuvre de systèmes d’intelligence artificielle qui permettent à des agents conversationnels de dialoguer avec des hommes, tout en les surpassant dans des jeux de négociation très simples dont les règles, fixées par avance, varient selon les joueurs. Plus précisément, il s’agit d’échanger des biens dont les valeurs ne sont pas équivalentes pour tous, de sorte que les participant ont généralement intérêt à les échanger. Ainsi, si j’aime plus les pêches que mon interlocuteur et qu’il préfère les cerises, nous avons tous les deux intérêt à échanger quelques unes de mes cerises contre quelques unes de ses pêches.
Toute la question porte sur la proportion de pêches et de cerises que l’on met en balance. Si ces « bots » dialoguent avec nous, et éventuellement entre eux, de façon à négocier de façon optimale pour eux, ils sont loin de créer un langage qui leur serait propre et que les hommes ne comprendraient pas. C’est même l’inverse qui doit se produire, puisque, pour prendre une décision coopérative avec des hommes, ils doivent faire valoir leurs points de vues en s’exprimant dans le langage de leurs interlocuteurs, en l’occurrence celui des hommes. Dans leur mise en œuvre, ces « bots » font appel à de multiples techniques, en particulier à de l’apprentissage supervisé avec des réseaux de neurones récurrents, pour imiter des dialogues humains, à de l’apprentissage par renforcement, pour optimiser des gains, et à des amorces de dialogues (dialog rollouts) données explicitement. En d’autres termes, les agents apprennent à la fois en jouant entre eux et à partir de l’observation de plusieurs milliers de dialogues entre les hommes. En cela, ils s’apparentent au logiciel AlphaGo de la société DeepMind qui l’a emporté contre l’un des meilleurs joueurs mondiaux au Go en mars 2016. Le jeu étant bien cadré et limité à une négociation simple, avec trois types de biens, il apparaît à première vue que, même si ces « bots » négocient mieux que les hommes, leur portée demeure très limitée. Toutefois, si on les perfectionnait, des agents artificiels de ce type pourraient un jour intervenir sur certains marchés comprenant un grand nombre de biens et où ils apparaîtraient alors comme des concurrents redoutables. Nous avons déjà une petite idée de la part que peuvent prendre les agents logiciels en observant ce qui se passe à la bourse avec les « bots » qui enchérissent sur les marchés financiers à une vitesse qui défiant toutes les capacités humaines. Ces agents pourraient donc rivaliser avec les hommes et contribuer à une déstructuration de la société, à l’image de la façon dont les enchères haute fréquence, réalisées avec le concours d’agents logiciels, ont transformé les marchés boursiers.

Dans ce rapport, il est dit que les bots développent de vraies stratégies en matière de négociation usant notamment de comportement "humains" pour arriver à leurs fins. Dans quelle mesure cette "intelligence" peut elle concurrencer celles des hommes? Faut il craindre une concurrence de cette intelligence, notamment en termes d'emplois? 

Comme nous venons de le dire, ces agents font appel à trois types de techniques dont deux recourent à de l’apprentissage machine. Plus précisément, certaines de ces techniques reposent sur l’interaction verbale avec des agents humains que ces systèmes recueillent d’abord, puis observent et apprennent à imiter de sorte que les dialogues soient le plus vraisemblables, c’est-à-dire que les réactions de l’agent ressemblent le plus possible à celles d’un humain. Cependant, la capacité à négocier n’est pas uniquement d’ordre langagier ; elle repose aussi sur l’estimation du bénéfice que chacun tire de la transaction et sur la maximisation de ce bénéfice. Cela se fait avec de l’apprentissage par renforcement qui vise optimiser des récompenses. Enfin, il existe des techniques de planifications des échanges verbaux qui se font avec des amorces de dialogues données explicitement. Indubitablement, de tels agents pourraient concurrencer des hommes et négocier mieux qu’eux. Comment s’en étonner puisqu’ils sont fait pour cela ! Il se pourrait dès lors que certains métiers soient amenés à évoluer, voire que certaines activités routinières qui demandaient du talent disparaissent, et qu’en conséquence le prestige accordé à tel ou tel emploi diminue. Mais, concomitamment, d’autres métiers liés à la mise en place de ces agents pourraient apparaître. De plus, de tels agents ne prennent sens que s’ils dialoguent avec des hommes et s’ils les aident à négocier d’une façon satisfaisante pour tous, ce qui suppose toujours la présence des hommes. En conclusion, les agents intelligents, même s’ils suppriment certains emplois et en font évoluer d’autres, ne suppriment pas le travail et ne se  passent pas des hommes.

A quelles autres avancées de la sorte peut-on s'attendre? 

Bien d’autres avancées de cet ordre peuvent advenir aujourd’hui avec les techniques d’intelligence artificielle. Il est très difficile de toutes les anticiper, car elles recouvrent tout le spectre des activités humaines qui sont toutes, plus ou moins, susceptibles d’être automatisées. Tout ici est dans le « plus ou moins ». En effet, il ne faut pas se masquer les difficultés pratiques que l’on rencontre lors de la mise en place d’agents conversationnels. Ceux-ci fonctionnent très bien dans un champ sémantique très étroit où il arrive bien souvent qu’ils nous surpassent. En revanche, lorsque l’on change de registre au cours de la discussion, que l’on fait des jeux de mots ou des allusions, les agents conversationnels sont vite déroutés, car ils ne reposent pas sur une compréhension de ce qui est dit, à savoir sur une extraction du sens, mais simplement sur l’apprentissage de la répartie.

 
Pour commenter :

Depuis son lancement Atlantico avait fait le choix de laisser ouvert à tous la possibilité de commenter ses articles avec un système de modération a posteriori. Sous couvert d'anonymat, une minorité d'internautes a trop souvent détourné l’esprit constructif et respectueux de cet espace d’échanges. Suite aux nombreuses remarques de nos lecteurs, nous avons décidé de réserver les commentaires à notre communauté d’abonnés.

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia est professeur à l'université Pierre et Marie Curie (Paris VI) où il enseigne principalement l'informatique, l'intelligence artificielle et les sciences cognitives. Il poursuit des recherches au sein du LIP6, dans le thème APA du pôle IA où il anime l'équipe ACASA .
 

Voir la bio en entier

Je m'abonne
à partir de 4,90€