Fake news indétectables : GPT2, le programme développé par l’équipe d’intelligence artificielle d’Elon Musk auquel ses concepteurs préfèrent renoncer tant il leur fait peur <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Fake news indétectables : GPT2, le programme développé par l’équipe d’intelligence artificielle d’Elon Musk auquel ses concepteurs préfèrent renoncer tant il leur fait peur
©MAURO PIMENTEL / AFP

Vertigineux

L’association californienne soutenue par Elon Musk et créatrice du programme d’intelligence artificielle « GPT-2 » le trouvent si monstrueux qu'ils en boycottent la diffusion, par crainte qu’il n’en soit fait un usage abusif…

Franck DeCloquement

Franck DeCloquement

Ancien de l’Ecole de Guerre Economique (EGE), Franck DeCloquement est expert-praticien en intelligence économique et stratégique (IES), et membre du conseil scientifique de l’Institut d’Études de Géopolitique Appliquée - EGA. Il intervient comme conseil en appui aux directions d'entreprises implantées en France et à l'international, dans des environnements concurrentiels et complexes. Membre du CEPS, de la CyberTaskforce et du Cercle K2, il est aussi spécialiste des problématiques ayant trait à l'impact des nouvelles technologies et du cyber, sur les écosystèmes économique et sociaux. Mais également, sur la prégnance des conflits géoéconomiques et des ingérences extérieures déstabilisantes sur les Etats européens. Professeur à l'IRIS (l’Institut de Relations Internationales et Stratégiques), il y enseigne l'intelligence économique, les stratégies d’influence, ainsi que l'impact des ingérences malveillantes et des actions d’espionnage dans la sphère économique. Il enseigne également à l'IHEMI (L'institut des Hautes Etudes du Ministère de l'Intérieur) et à l'IHEDN (Institut des Hautes Etudes de la Défense Nationale), les actions d'influence et de contre-ingérence, les stratégies d'attaques subversives adverses contre les entreprises, au sein des prestigieux cycles de formation en Intelligence Stratégique de ces deux instituts. Il a également enseigné la Géopolitique des Médias et de l'internet à l’IFP (Institut Française de Presse) de l’université Paris 2 Panthéon-Assas, pour le Master recherche « Médias et Mondialisation ». Franck DeCloquement est le coauteur du « Petit traité d’attaques subversives contre les entreprises - Théorie et pratique de la contre ingérence économique », paru chez CHIRON. Egalement l'auteur du chapitre cinq sur « la protection de l'information en ligne » du « Manuel d'intelligence économique » paru en 2020 aux Presses Universitaires de France (PUF).

Voir la bio »

Atlantico : L'organisation à but non lucratif « OpenAI », créée par l'homme d'affaires Elon Musk et Sam Altman, aurait renoncé à publier le code source du programme « GPT2 » jugé bien trop puissant, car pouvant générer des « infox » indétectables si le dispositif tombait entre de mauvaises mains.  Très concrètement,  quel est le réel danger de ces algorithmes boostés à l'intelligence artificielle (IA), en matière d'infox ?

Franck DeCloquement : Décidément, « les savants fous » californiens aiment à se faire peur tout seul ! A les entendre, et entre des mains naturellement malveillantes, leur dernier-né en date – l’algorithmeGPT2 (un virtuose des mots à les en croire), pourrait en effet aisément semer le trouble dans les esprits et les cœurs. Et ceci, compte tenu de son incroyable capacité à générer de manière autonome des« fake news » crédibles, et autres « avis artificiels convaincants ». Des créations sémantiques ex-nihilo aux conséquences potentiellement dévastatrices et dangereuses en ces temps géopolitiques troublés. Et le tout, sans éveiller le moindre soupçon de la part de leurs potentiels lecteurs, à en croire nos inquiets savants de l’OpenAI. L'objectif avoué de cette organisation, pour encourager la recherche et la réflexion autour d’une « IA bienveillante » (selon l’expression en vogue consacrée), est de « promouvoir et développer une IA à visage humain […] Une IA qui bénéficierait à toute l'humanité ». Vaste programme… A cet effet, Elon Musk s’associait en 2015 à Sam Altman, président de l’incubateur « Y Combinator, ou encore Reid Hoffmann, le fondateur de LinkedIn pour créer l’OpenAI. Des parrains prestigieux qui la dotèrent immédiatement d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres business angels  de la Silicon Valley. Mais aussi de puissants mécènes, à l’image de Reid Hoffmann, le fondateur de LinkedIn ou encore Peter Thiel, l’emblématique créateur de PayPal et Palantir Technologies. Nous y reviendrons plus loin.

Ainsi, les chercheurs d’OpenAI tomberaient des nues en réalisant soudainement le potentiel néfaste de leur algorithme ? A croire que ces mêmes chercheurs auraient oublié la mission première de leur ONG, à savoir : « sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun ». Alors vraie peur de sachants particulièrement candides ? Volonté d’interpeller le grand public et d'ouvrir un débat public ? Ou plutôt agenda sous-jacent bien orchestré ? L’encyclopédie en ligne Wikipédia fait d’ores et déjà ses gorges chaudes de cette affaire et en résume parfaitement les contours pour l’heure : « L'association a mis au point une intelligence artificielle nommée GPT2 capable d'écrire des articles de presse et des œuvres de fiction. Basée sur un générateur de texte qui assimile les mots reçus et détermine la suite la plus logique qu'elle retransmet dans le même style, elle s’avère particulièrement performante à tel point qu'il est impossible de faire la différence avec un texte écrit par un être humain. Les chercheurs lui ont par exemple donné à lire la première phrase du roman 1984 de George Orwell : « C'était une journée ensoleillée et froide du mois d'avril, et les horloges affichaient 13h ». GPT2 a alors compris qu'il s'agissait d'une œuvre évoquant le futur et écrite sous la forme d'une fiction et a ajouté « J'étais dans ma voiture à Seattle en route pour mon nouveau travail. J'ai fait le plein, mis la clé sur le contact, et me suis laissé porter. J'ai imaginé à quoi ressemblerait ce jour. Dans cent ans à partir de ce jour. En 2045, j'étais professeur dans une école située dans une région pauvre de la Chine rurale. J'ai commencé avec l'Histoire de la Chine et l'Histoire de la science ». Ils lui ont également présenté un article du Guardian sur le Brexit et l'IA a été capable d'inventer des citations crédibles du député Jeremy Corbyn, principal opposant à Theresa May, et d'évoquer des thématiques précises liées au sujet comme celle de la frontière irlandaise. »

En conséquence : « les chercheurs retardent la publication de leurs recherches car ils estiment que GPT2 a un potentiel « trop dangereux » étant donné que cette IA pourrait à terme servir à des actes mal intentionnées comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles ». Fermez le ban…

N’oublions pas au passage la propension marketing d’Elon Musk à se positionner et à se promouvoir tous azimuts en « bienfaiteur de l’humanité ». Ne lui doit-on pas déjà un soutien médiatique très actif et réitéré dans l’interdiction pure et simple des « drones tueurs autonomes » et autres « armes létales intelligentes » ? Et ceci, lors d’un appel à la rhétorique la aussi très alarmiste, signée par cent seize fondateurs d’entreprises dans la robotique et l’intelligence artificielles de vingt-six pays ? Le parallèle avec l’affaire qui nous occupe est à ce titre assez frappant. La présentation de ladite lettre avait eu lieu le 21 août 2017, lors de la cérémonie d’ouverture de « l’International Joint Conference on Artificial Intelligence » (IJCAI). Nous nous en étions fait l’écho ici même, dans les colonnes d’Atlantico. Parmi les noms les plus connus d’alors, tous réunis autour du fondateur de Tesla, Toby Walsh ou encore Mustafa Suleymane, fondateur de DeepMind, chez Google. Par « arme autonome mortelle », on désigne pour l’essentiel des robots militaires capables d’ouvrir le feu sans intervention humaine — et qui vont d’armes ouvrant automatiquement le feu sur des intrus à des robots et drones beaucoup plus complexes. Comme le notait à l’époque le Monde dans ses propres colonnes, c’était la deuxième fois qu’une lettre ouverte de Toby Walsh était publiée sur le site du « Future of Life Institute ». Une fondation américaine là encore soutenue par Elon Musk, mais aussi le scientifique très médiatique et défunt Stephen Hawking — et par l’acteur Morgan Freeman. « La première datait de juillet 2015 » rappelait le Monde. « Elle s’inquiétait déjà des armes autonomes qui « pourraient inclure, par exemple, des quadcoptères armés qui peuvent chercher et éliminer des personnes correspondant à des critères prédéfinis, mais elles n’incluent pas les missiles de croisière ou des drones pilotés à distance, situations dans lesquelles des humains prennent la décision de tirer ». Bien que les débats restent vifs sur le sujet, y compris au sein même des états-majors, les Nations unies avaient en son temps balayé ce florilège d’inquiétudes confites, déclarant sans ambages au Guardian que « la loi internationale humanitaire réglemente déjà suffisamment ce domaine ».

Notons également que l’ami de Musk, et par ailleurs aussi son grand concurrent sur le plan des recherches et des contrats militaires du Pentagone, Peter Thiel, semble aussi de la partie en coulisses – bien que beaucoup plus discrètement – puisque étonnement membre lui aussi de l’association « OpenAI » à en croire certains éléments disponibles de sources ouvertes. Grand soutien de Trump pour l'élection présidentielle américaine de 2016, puis bénéficiaire depuis son accession au pouvoir, Peter Thiel, serial entrepreneur devant l’éternel, et aussi un investisseur réputé pour ses idées politiques très controversées : l’homme est un libertarien et un transhumaniste convaincu. Cette association d’apparence improbable entre les deux hommes ne manque pas de sel en soi.Il faut bien le reconnaître.

Cette éthique dans le développement de l'intelligence artificielle est-elle une notion partagée par toutes les entreprises, et tous les pays ?

Soyons lucides : une éthique toute relative qui n’en oublie jamais pour autant le sens émérite des affaires... Ces passes d’armes « éthiques »  par médias interposés le laissent à penser très fortement, dès lors que l’on se penche un petit peu sérieusement, et en profondeur, sur le contexte d’apparition de ses débats « sociétaux ». Un timing toujours bien réglé, et souvent opportun en deuxième rideau, se fait souvent jour. Car nos industriels ont aussi des agendas chargés que promeuvent et « portent » bien souvent au-devant de la scène dans l’espace public, des associations d’apparence « philanthropiques », afin de relayer en réalité certaines visées commerciales du moment, se jouant elles en coulisses. Les contrats militaires de grande envergure se gagnent aussi à travers les « médias-caisses de résonances ». La guerre de l’information et les actions d’influence y fontsouvent rage entre nations. Mais aussi entre industriels eux-mêmes, avides de gains institutionnels : question de survie économique ! 

En guise d’illustration, rappelons-nous à ce propos des fuites très opportunes de documents confidentiels dans le quotidien « The Australian », en lien avec la vente des sous-marins du constructeur français de défense DCNS... « Guerre économique oblige » avait-on conclu à l’époque dans le milieu des spécialistes de l’intelligence économique. Il y a encore peu, c’était plutôt les intelligences artificielles « stupides » qui focalisaient les attentions inquiètes de nos gentils savants californiens philanthropes, comme le relayait Toby Walshsur la chaîne américaine ABC en 2017, à gorge déployée. Si les armes autonomes n’en sont pour la plupart qu’au stade de prototypes, il est certain qu’elles arriveront sur le marché de la guerre d’ici à très peu de temps, prédisait le chercheur. Idem pour les IA génératrices de textualités intelligentes automatiques qui nous occupent dans cette tribune… Pour preuve, la publication opportune de son livre sur la question la même année au titre tapageur : « It’s Alive !- Artificial Intelligence from the Logic Piano to Killer Robots ».

Et tout naturellement, elles attisent les convoitises stratégiques des militaires, et pécuniaires des industriels… Pour DCNS, la lecture la plus simple est que cette fuite constituait des représailles à son succès économique. « Mais dans ce genre d'affaires, il y a toujours un jeu de brouillage de cartes » avait indiqué dans les colonnes de l’Express Christian Harbulot, directeur de l'Ecole de guerre économique (EGE) à Paris. On se rappela également pour mémoire les paroles d’Alain Mermoud, expert Suisse en sécurité et membre de l'armée helvète, « ce n'est pas la volumétrie des documents qui ont fuité qui compte, mais le timing. Il y a eu des jalousies sur cette vente de sous-marins, et vu le niveau de sécurité dans l'armement, l'humain est souvent le maillon faible ».

Faut-il encore le rappeler sempiternellement : dans la guerre économique, l’important n’est jamais de jouer, mais de l’emporter. L’éthique et le beau geste entre compétiteurs ne sont que de peu de poids, seul compte la victoire pour les belligérants.

En se risquant à un peu de fiction, à quoi pourraient ressembler les fausses nouvelles dans les dix ans à venir ? Quels pourraient être les enjeux et les moyens de lutter contre elles ?

Il est toujours difficile de prévoir ou de prédire l’avenir. Mais le potentiel dévastateurs que suggère un usage réprouvé des générateurs autonomes de texte est sans aucun doute déjà testé et développé ailleurs. Soyons-en certain. La place que ces nouveaux outils pourraient prendre à l’avenir en tant que technologies militaires, ou dans le cadre d’actions de guérillas technologiques subversives, politiques ou sociétales dépendra évidemment de ce que seront les besoins des Etats en confrontation, au regard de leurs buts de guerre qui, à leur tour, seront déterminés par leur situation, ou les conditions de leur sécurité nationale du moment. Dans un monde idéal, comme en toute chose, il serait naturellement préférable d’élaborer très en amont, un cadre juridique et éthique stable, avant d’en arriver à des situations d’usages réprouvés ou d’utilisations funestes. Cela tombe sous le sens. Mais nous ne sommes hélas pas dans un monde idéal… Encore une fois, prédire l’avenir en la matière est hasardeux.

A « The Verge », peut-on lire dans la presse en ligne, David Yuan, vice-président à la tête de l’ingénierie d’OpenAI, a en substance récemment déclaré qu’une dissertation composée par « GPT2 »aurait pu tout aussi bien être écrite pour les examens utilisés pour l’admission aux universités américaines – SAT – et même y obtenir une bonne note. Et c’est « au regard de cette véritable maestria à réussir dans ses tâches d’ordre intellectuel, qui pousse aujourd’hui les chercheurs d’OpenAI à freiner la diffusion de leur création, de peur que leur technologie ne tombe entre de mauvaises mains », peut-on lire sur Usbek & Rica. En conséquence, il semble acté qu’une version « bridée » de GPT2 sera bien mise à disposition, mais que ni sa base de données, ni même le code d'apprentissage ou le modèle spécifique sur lequel GPT2 repose ne le sera, explique l'équipe de recherche via un billet de blog.

L’ONG américaine semble vouloir davantage éprouver son modèle : « si vous n’êtes pas en mesure d’anticiper les capacités d’un modèle informatique, vous devez le tester pour voir ce qu’il a dans le ventre », a-t-elle également avancé dans The Guardian. A l’image des expériences de manipulations de ses utilisateurs menées par Facebook sur la toile, vont-ils aussi tester« GPT2 »en grandeur nature sur certains espaces de la toile mondiale, et ainsi pousser leur algorithme à générer des textes « intelligents » et congruents que certains trolls chevronnés ne renieraient pas ? La question peut en effet dignement se poser, dans un monde numérique ouvert, aux accents de plus en plus Orwellien.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !