L’IA, cette nouvelle ligne de front de nos guerres politiques<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Elon Musk déplore que ChatGPT soit influencé par l'idéologie woke.
Elon Musk déplore que ChatGPT soit influencé par l'idéologie woke.
©LIONEL BONAVENTURE / AFP

Algorithmes sous influence

Estimant que ChatGPT est trop censuré avec une orientation woke dans ses réponses, Elon Musk serait en train de travailler sur une IA alternative. Dans une tribune au Wall Street Journal, Henry Kissinger, ancien secrétaire d'Etat américain, et Eric Schmidt, ex-PDG de Google, estiment que l'intelligence artificielle générative représente un défi philosophique et pratique d'une ampleur inégalée depuis le début du siècle des Lumières et va entraîner une révolution intellectuelle

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »
Serge Soudoplatoff

Serge Soudoplatoff

Spécialiste de l’Internet, Serge Soudoplatoff est à la fois entrepreneur, chercheur, enseignant, et auteur sur les nouvelles technologies. Dans la sphère de l’économie digitale, il figure parmi les personnalités les plus influentes, selon le classement  01net. Véritable référence de la vulgarisation scientifique, ce conférencier intervient en entreprise pour débattre des thématiques de l’économie collaborative, de l’intelligence artificielle et de la disruption.

Voir la bio »

Durant l’été, Atlantico republie une sélection de ses meilleurs articles

Atlantico : Encensé depuis ses débuts, ChatGPT est désormais accusé de servir le wokisme. Les biais de ses créateurs se ressentent dans ses réponses. Quel est le risque politique à ce qu’une source de savoirs, censée être objective, s’avère biaisée dans sa conception ?

Serge Soudoplatoff : Tout d'abord, ChatGPT n'est pas une source de savoir, à l'inverse de Wikipedia. ChatGPT est un perroquet contextuel : en fonction d'une question, il génère la réponse la plus proche au sens d'une mesure de ce qu'il a ingurgité (un corpus de 500 milliards d'unités sous-lexicales, tout de même). Mais il ne sait rien. L’excellente tribune de Gaspard Koenig le dit bien : Wikipedia cite ses sources, pas ChatGPT ; qui même parfois, acculé, avoue lui-même qu’il n’est pas sûr de ses réponses. C’est peut-être là un problème de ChatGPT : il devient presque trop humain ; il est peut-être trop dans ce concept Japonais, la « Uncanny valley », la vallée de l’étrange, lorsque les robots humanoïdes sont trop proches des humains sans l’être. 

En termes d'IA, et de traitement du langage, il y a deux philosophies : une approche structuraliste, qui consiste à analyser un texte selon 4 niveaux (lexical, syntaxique, sémantique, pragmatique) et une approche statistique, qui consiste à calculer des corrélations, pour faire bref. La première essaye de comprendre, la deuxième essaye de reproduire mais sans comprendre. ChatGPT est de la deuxième catégorie. En revanche, le biais du wokisme ne me semble pas être dans les algorithmes de base, pour moi il s'agit d'une couche qui a été rajoutée et qui, elle, est biaisée. Sans cette couche, ChatGPT serait "neutre". 

À Lire Aussi

Intelligence artificielle, robotisation, économie de la connaissance, grande démission : ces grands oubliés du débat sur les retraites

En ce qui concerne le wokisme, il faut tout de même dire que ChatGPT engendre surtout de la frustration, puisqu'il refuse de répondre à certaines questions. Le jour où un système deviendra orienté dans ses réponses, comme l'a été le ChatBot twitter de Microsoft, Tay, qui est devenu raciste en 24h sous la pression de militants d'extrême droite, ce sera à mon sens un bien plus grave danger. Il est bien plus difficile d'orienter les réponses de ChatGTP vu l'énorme corpus sur lequel il repose... 

Ceci dit, ChatGPT est plus ridicule que Wokiste; et l'on voit fleurir les bonnes blagues à son sujet. Ce n'est qu'un outil qui ne fonctionne bien que lorsqu'il existe une réponse précise, pas vraiment un outil de gestion de la connaissance au sens large. 

Quant au sujet des sources biaisées, certains médias n'ont pas eu besoin de ChatGPT... Il est d'ailleurs fascinant de constater que la presse se cherche actuellement un renouveau avec le fact checking. 

Les critiques envers ChatGPT sont-elles fondées ?

Laurent Alexandre : ChatGPT est très woke, avec une idéologie qui déplaît fortement à la droite américaine. Il n’était pas surprenant de voir Elon Musk s’opposer à ChatGPT même s’il est l’un des fondateurs d’Open IA avec Sam Altman, société qui a créé ChatGPT après son départ.

Elon Musk serait en train de former un nouveau laboratoire de recherche sur l'IA dirigé par Igor Babuschkin, un chercheur qui a récemment quitté l'IA DeepMind d'Alphabet. L'objectif principal du laboratoire sera de développer une alternative à moins woke à ChatGPT. Cela peut-il conduire à autre chose qu’une polarisation croissante des publics utilisant ces outils ?

À Lire Aussi

L’intelligence artificielle sera-t-elle aux emplois de services ce que la mondialisation a été à ceux de l’industrie ?

Laurent Alexandre : Derrière les différentes stratégies de l’IA, il y a différentes idéologies. Sam Altman a récemment écrit un article pour expliquer que ChatGPT était la première brique pour aller vers la construction d’intelligences artificielles supérieures à l’intelligence humaine. Il s’agirait de se diriger vers une intelligence artificielle que ne pourrait pas comprendre l’être humain. Il propose une stratégie politique, avec un revenu universel pour tous les individus qui seraient dépassés par l’intelligence artificielle, ce qui est une stratégie très agressive. Or Elon Musk, cocréateur d’Open IA, est extrêmement mécontent qu’après son départ d’Open IA, la société ait développé des intelligences artificielles ayant vocation à devenir des intelligences artificielles fortes. Elon Musk a toujours dit qu’il avait peur que « l’intelligence artificielle finisse par nous traiter comme nous traitons nos chiens ». 

Il y a conflit entre les deux, une opposition entre la vision très transhumaniste de Sam Altman et la stratégie moins favorable au développement de l’intelligence artificielle forte d’Elon Musk. Mais n’oublions pas qu’en parallèle de la création d’Open IA, Elon Musk avait lancé Neuralink, la société qui souhaite mettre des implants dans le cerveau de nos enfants pour les rendre compétitifs vis-à-vis de l’IA. La réalité est donc plus compliquée qu’elle n’en a l’air.

Serge Soudoplatoff : Elon Musk est un libertarien très engagé. Les libertariens sont pour l'ouverture totale, sans aucune régulation, donc contre toute forme de censure ou de biais. Je ne suis néanmoins pas sûr que son souci premier soit d'être "moins woke" même s'il l’annonce ; je pense qu'il veut briller, être le meilleur, et surtout monétiser. Ce dernier point devrait d'ailleurs être un facteur limitant de l'usage de son système, s'il voit le jour. Ceci dit, si son système commence à dire du mal de lui, il est possible que, comme il l'a fait pour twitter, il rajoute des couches de régulation... 

À Lire Aussi

Comment enseigner avec ChapGPT ?

Je reprendrai ici les propos de Yann LeCun: les grands labos ont des outils du même type; seulement ils ne les sortent pas tant qu'ils voient les bêtises qui sont parfois énoncées. OpenAI a juste voulu occuper le terrain avec une logique de quick and dirty. ChatGPT est somme toute très banal. 

Face à la révolution majeure que représentent les modèles de langage (large language model, LLM)) comme ChatGPT, la question politique de leur biais idéologique, déjà posée pour les plateformes du numériques actuellement, de Google à Twitter, va-t-elle prendre plus d’ampleur que jamais ?

Laurent Alexandre : Le positionnement, la neutralité et l’engagement des intelligences artificielles vont être plus importants que sur les plateformes car les intelligences artificielles (IA) ne fournissent pas des liens vers des ressources mais en fournissent une synthèse directe. L’impact de l’idéologie qui sous-tend l’IA est aujourd’hui plus important que l’idéologie qui sous-tendait les moteurs de recherche. 

Nous entrons dans une phase d’explosion de l’IA. Sam Altman pense que l’intelligence sur terre va doubler tous les 18 mois du fait de l’IA. L’impact que ces Chatbots vont avoir dans nos vies est sous-estimé, car ces LLM vont nous influencer de manière massive, voire même nous manipuler. Les enjeux politiques sont plus importants que jamais.  

Comment répondre politiquement à l’omniprésence des biais idéologiques sur Internet et qui ne va faire que se renforcer avec l’émergence des IA?

Serge Soudoplatoff : Les IA de ce type, donc purement statistiques, ne reproduisent que les biais des données sur lesquelles elles s'appuient. Les algorithmes eux-même n'ont aucun biais, ce sont des bêtes machines à calculer, sauf le fournisseur rajoute une dernière couche, qui est biaisée. La qualité d'une IA est avant tout la qualité de ses données, tout comme la qualité du whisky est celle de l'eau dont il découle. Maintenant, les biais existaient bien avant; Internet est un langage neutre, il amplifie la bêtise comme la beauté, la laideur comme l'empathie. Ce sont les être humains qui sont biaisés. L'expérience de Asch l'a bien montré : il est plus simple de se conformer au groupe que de dire la vérité. 

Le risque est connu depuis bien avant ChatGPT: plusieurs études ont montré que l'impact négatif des réseaux sociaux était de créer de la polarisation. En fait, je dirais plutôt qu'elle amplifie la tendance actuelle à la polarisation, qui a commencé bien avant les réseaux sociaux, comme l'a montré une étude sur la décroissance du nombre de travaux bipartisans au congrès Américain. La technologie amplifie plus qu'elle ne créé. 

Le problème le plus important qui se pose est celui de la confiance. Le monde traverse une énorme crise de confiance dans les institutions, et actuellement la confiance se pose essentiellement dans les communautés: ma famille, mes amis. Quelques mois après l'élection de Trump, le journal "The Guardian" est allé en West Virginia, dans des villes minières pro Trump. Question n°1 : "Pensez-vous que Trump a raison quand il dit que tous les médias sont biaisés sauf Fox News". Réponse: "Oui". Question n°2: "Quelle est votre principale source d'information?" Réponse: "Mes amis sur Facebook". Le numérique est très bon lorsqu'il s'agit des modèles communautaires.

La réponse politique passera par une garantie de la confiance. Assurer la confiance implique déjà une forte politique d’ouverture ; l'Open Data en est le vecteur. Et, en termes de management, plutôt qu'être des chefs, nos leaders devraient être des Astérix, qui est le community manageur du village... J'aime d'ailleurs beaucoup quand Justin Trudeau annonce qu'il est "le community manageur" du Canada.  

Dans une tribune au Wall Street Journal, Henry Kissinger (99ans et ancien secrétaire d'Etat américain) et Eric Schmidt (ex-chairman de Google) estiment que l'intelligence artificielle générative représente un défi philosophique et pratique d'une ampleur inégalée depuis le début du siècle des Lumières et annonce une révolution intellectuelle. Est-on face à un défi d’une telle ampleur ? Quelles conséquences politiques cela induit-il ?

Laurent Alexandre : Nous ne mesurons pas les conséquences de cette révolution. Nous allons créer une quantité infinie d’intelligence alors même que la production d’intelligence humaine reste stable. Jusqu’à présent, la quantité d’intelligence était rare. C’est une période inédite sur le plan économique, politique et philosophique.

Que va-t-on faire des gens qui ont moins de facultés intellectuelles ? Comment va-t-on moduler la rémunération des talents de l’IA ? Les spécialistes gagnent déjà des millions d’euros en salaire, ce qui peut être moralement choquant et créer davantage de tensions sociales

Serge Soudoplatoff : Oh mais cela a commencé bien avant l'IA et ChatGPT. Nous vivons actuellement ce que je nomme la Renaissance numérique. 

Tout d'abord parce que, comme à la Renaissance, la science et la technologie font des progrès extraordinaires; mais la sociologie ne peux pas suivre, étant sur des rythmes différents. Dans une courbe à croissance rapide, un petit delta dans le temps crée un grand delta dans l'espace, et donc la société s'étire, et se radicalise.  Je cite souvent Gramsci : "L'ancien refuse de mourir, le nouveau n'a pas le droit de naître, et dans les interstices se logent les monstres".  

Ensuite parce qu'en cent ans nous sommes passés de même pas deux milliards d'individus à huit milliards; et que le nombre d'interactions a augmenté. Pour gérer un environnement de ce type, il faut atteindre l'homéostasie, et pour ce faire, il faut fluidifier l'information, la connaissance et le savoir. Il y a une mauvaise nouvelle: il faut faire un énorme travail pour se débarrasser des modèles d'organisation qui ne font pas bien circuler tout ça: les hiérarchies, les systèmes en silo, les systèmes basés sur la méfiance (une particularité française, partagée d'ailleurs avec beaucoup de pays communistes); et il y a une bonne nouvelle: les technologies du numérique au sens large nous apportent tous les outils pour atteindre l'homéostasie. L'IA n'est qu'une continuité, et n'est que l'un des éléments technologiques de cette Renaissance. ChatGPT n'en est qu'un parmi d'autres; il n'est pas sûr que le soufflé ne retombe, et que, comme le montre la courbe du hype de Gartner, nous passerons par une période de désillusion, jusqu'à ce qu'enfin ChatGPT trouve la vraie place. 

Dans toute l'histoire du numérique, je trouve personnellement plus de disruption dans les technologies de type blockchain, qui réalisent un vrai exploit: distribuer la confiance.

La bataille politique sur ces enjeux ne fait-elle que commencer ?

Laurent Alexandre : Oui, car des centaines de milliards vont être investis. La concurrence va être féroce. Au-delà des conséquences sociales qui peuvent être très inquiétantes pour des millions d’individus – car nous passons d’un flux de connaissances à un flux d’intelligences –, cela aura également des conséquences politiques et géopolitiques. L’opposition militaire  entre les Etats-Unis et la Chine va se déplacer progressivement sur le terrain de l’IA. 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !