Racistes, grossières, partiales… Pourquoi le monde risque d'être fort déçu des capacités des futures intelligences artificielles <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Racistes, grossières, partiales… Pourquoi le monde risque d'être fort déçu des capacités des futures intelligences artificielles
©Reuters

Du pareil au même

Une étude de l'université de Princeton montre que les intelligences artificielles qui sont développées actuellement risquent d'intégrer exactement les mêmes préjugés que nous. Ceci s'explique par le fait que ces intelligences apprennent des humains.

 Arpad  Rimmel

Arpad Rimmel

Arpad Rimmel est enseignant-chercheur en informatique à Supélec.
Voir la bio »

Atlantico : Une équipe de l'université de Princeton (voir ici) est arrivée à la conclusion que malgré tous les algorithmes censés limiter la présence de préjugés et l'influence de comportements semblables aux nôtres dans l'intelligence artificielle, ceux-ci ne seraient pas assez efficaces. Pourrait-il y avoir un biais dans notre manière de concevoir les différentes intelligences artificielles qui pourrait nous pousser à les faire à notre image ?

Arpad Rimmel : Avant de commencer, j'aimerais préciser quelques points. L'article de Princeton concerne un sous-ensemble de l'intelligence artificielle : les algorithmes d'apprentissage. Ce sont des algorithmes qui cherchent à apprendre des règles ou à déduire des informations à partir de données qui leur sont fournies. Je ne pense pas que l'on puisse généraliser aux autres domaines de l'intelligence artificielle. De plus, l'étude a été faite sur un seul algorithme particulier qui cherche à trouver des listes de mots ayant un sens proche à partir d'un ensemble de textes.Enfin, j'aimerais distinguer deux choses : le fonctionnement de l'algorithme et ce qui est appris par l'algorithme. Dans le cas de l'article, le fonctionnement est basé sur une étude statistique de l’occurrence des mots dans les textes et ce qui est appris est une similarité entre les mots. La constatation des chercheurs sur le biais de l'algorithme concerne ce qui a été appris par l'algorithme et il me semble que vos questions concernent plus le fonctionnement des algorithmes (cela dit les deux questions sont intéressantes).

Concernant ce qui est appris par l'algorithme, comme cet apprentissage est basé sur un ensemble de textes écrit par des humains, il est assez logique de retrouver un biais, d'autant plus s'il y en avait un initialement dans les textes.Il est probable que ce sera le cas pour tout algorithme d'apprentissage qui apprendra à partir de données créées par des humains. Arriver à s'affranchir de ce problème sera très compliqué. Je pense qu'il y a effectivement un biais qui pousse les gens à créer des algorithmes qui fonctionnent de manière humaine car il est plus facile de reproduire ce qu'on connait plutôt que d'inventer de nouveaux fonctionnements. On peut citer notamment les réseaux de neurones qui sont basés sur le fonctionnement du cerveau humain. Il y a d'ailleurs aussi beaucoup d'algorithmes qui sont basés sur le fonctionnement de la nature. Le fait de mieux comprendre l'algorithme peut, par contre, en effet permettre d'incorporer des données expertes plus facilement.

En quoi, au contraire, pourrions-nous avoir intérêt à concevoir des intelligences artificielles qui auraient leurs logiques propres ? Est-ce que celles-ci ne nous permettraient pas de résoudre des problèmes mieux que nous ?

L'intérêt d'une intelligence artificielle se limite-t-elle à une vitesse accrue comparée à l'intelligence humaine ? Il est en effet souvent souhaitable de ne pas se limiter à imiter le fonctionnement de la nature. Les ordinateurs ne fonctionnent pas comme un cerveau et il est utile de tirer avantage de ces différences. Sur ce sujet, une collègue cite souvent l'exemple de l'aviation où toutes les tentatives d'imiter le vol des oiseaux a été un échec, et où la solution retenue est très différente de celle de la nature. Je pense que la plupart des chercheurs en ont conscience et aujourd'hui, il existe de nombreux algorithmes efficaces dont le fonctionnement ne ressemble à rien de naturel. Même les algorithmes qui, à la base, étaient proches du fonctionnement humain s'en éloignent souvent au cours de leur développement. S'ils le font, c'est principalement pour des raisons d'efficacité. Une fois la première version de l'algorithme développée à partir d'une idée, celui-ci va être testé sur des données réelles et modifié pour améliorer ses performances. Ces modifications vont en général tirer partie des spécificités de l'ordinateur et souvent s'éloigner de la version humaine. Le meilleur programme jouant au Go possède une partie de son algorithme basée sur des réseaux de neurones (qui ressemblait à la base à un fonctionnement humain mais qui s'en est beaucoup éloigné) et une partie consistant à jouer à un très grand nombre de parties aléatoires pour estimer l'intérêt d'une position, cette deuxième partie étant très surprenante pour un joueur humain.

Comment les spécialistes pourraient-ils s'employer à les diversifier ?

Imaginer ces algorithmes originaux n'est pas évident. Certains se basent sur une étude mathématique du problème et les possibilités de l'ordinateur. Une méthode peut aussi consister à travailler sur des parties élémentaires de l'algorithme, et c'est l'ensemble mis bout à bout qui va créer quelque chose d'original. Enfin, il arrive aussi de trouver un algorithme efficace en travaillant et en modifiant un autre algorithme suffisamment pour obtenir quelque chose de nouveau. Il y a surement beaucoup d'autres méthodes, et je pense que c'est plus ou moins facile selon les personnes.

Propos recueillis par Thomas Gorriz

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !