En direct
Best of
Best of du 16 au 23 mars 2019
En direct
© MAURO PIMENTEL / AFP
Vertigineux
Fake news indétectables : GPT2, le programme développé par l’équipe d’intelligence artificielle d’Elon Musk auquel ses concepteurs préfèrent renoncer tant il leur fait peur
Publié le 17 février 2019
L’association californienne soutenue par Elon Musk et créatrice du programme d’intelligence artificielle « GPT-2 » le trouvent si monstrueux qu'ils en boycottent la diffusion, par crainte qu’il n’en soit fait un usage abusif…
Franck DeCloquement est praticien et expert en intelligence économique et stratégique (IES). Membre fondateur du Cercle K2 et ancien de l’Ecole de Guerre Economique de Paris (EGE), il est en outre professeur à l'IRIS (Institut de Relations...
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Franck DeCloquement
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Franck DeCloquement est praticien et expert en intelligence économique et stratégique (IES). Membre fondateur du Cercle K2 et ancien de l’Ecole de Guerre Economique de Paris (EGE), il est en outre professeur à l'IRIS (Institut de Relations...
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
L’association californienne soutenue par Elon Musk et créatrice du programme d’intelligence artificielle « GPT-2 » le trouvent si monstrueux qu'ils en boycottent la diffusion, par crainte qu’il n’en soit fait un usage abusif…

Atlantico : L'organisation à but non lucratif « OpenAI », créée par l'homme d'affaires Elon Musk et Sam Altman, aurait renoncé à publier le code source du programme « GPT2 » jugé bien trop puissant, car pouvant générer des « infox » indétectables si le dispositif tombait entre de mauvaises mains.  Très concrètement,  quel est le réel danger de ces algorithmes boostés à l'intelligence artificielle (IA), en matière d'infox ?

Franck DeCloquement : Décidément, « les savants fous » californiens aiment à se faire peur tout seul ! A les entendre, et entre des mains naturellement malveillantes, leur dernier-né en date – l’algorithmeGPT2 (un virtuose des mots à les en croire), pourrait en effet aisément semer le trouble dans les esprits et les cœurs. Et ceci, compte tenu de son incroyable capacité à générer de manière autonome des« fake news » crédibles, et autres « avis artificiels convaincants ». Des créations sémantiques ex-nihilo aux conséquences potentiellement dévastatrices et dangereuses en ces temps géopolitiques troublés. Et le tout, sans éveiller le moindre soupçon de la part de leurs potentiels lecteurs, à en croire nos inquiets savants de l’OpenAI. L'objectif avoué de cette organisation, pour encourager la recherche et la réflexion autour d’une « IA bienveillante » (selon l’expression en vogue consacrée), est de « promouvoir et développer une IA à visage humain […] Une IA qui bénéficierait à toute l'humanité ». Vaste programme… A cet effet, Elon Musk s’associait en 2015 à Sam Altman, président de l’incubateur « Y Combinator, ou encore Reid Hoffmann, le fondateur de LinkedIn pour créer l’OpenAI. Des parrains prestigieux qui la dotèrent immédiatement d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres business angels  de la Silicon Valley. Mais aussi de puissants mécènes, à l’image de Reid Hoffmann, le fondateur de LinkedIn ou encore Peter Thiel, l’emblématique créateur de PayPal et Palantir Technologies. Nous y reviendrons plus loin.

Ainsi, les chercheurs d’OpenAI tomberaient des nues en réalisant soudainement le potentiel néfaste de leur algorithme ? A croire que ces mêmes chercheurs auraient oublié la mission première de leur ONG, à savoir : « sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun ». Alors vraie peur de sachants particulièrement candides ? Volonté d’interpeller le grand public et d'ouvrir un débat public ? Ou plutôt agenda sous-jacent bien orchestré ? L’encyclopédie en ligne Wikipédia fait d’ores et déjà ses gorges chaudes de cette affaire et en résume parfaitement les contours pour l’heure : « L'association a mis au point une intelligence artificielle nommée GPT2 capable d'écrire des articles de presse et des œuvres de fiction. Basée sur un générateur de texte qui assimile les mots reçus et détermine la suite la plus logique qu'elle retransmet dans le même style, elle s’avère particulièrement performante à tel point qu'il est impossible de faire la différence avec un texte écrit par un être humain. Les chercheurs lui ont par exemple donné à lire la première phrase du roman 1984 de George Orwell : « C'était une journée ensoleillée et froide du mois d'avril, et les horloges affichaient 13h ». GPT2 a alors compris qu'il s'agissait d'une œuvre évoquant le futur et écrite sous la forme d'une fiction et a ajouté « J'étais dans ma voiture à Seattle en route pour mon nouveau travail. J'ai fait le plein, mis la clé sur le contact, et me suis laissé porter. J'ai imaginé à quoi ressemblerait ce jour. Dans cent ans à partir de ce jour. En 2045, j'étais professeur dans une école située dans une région pauvre de la Chine rurale. J'ai commencé avec l'Histoire de la Chine et l'Histoire de la science ». Ils lui ont également présenté un article du Guardian sur le Brexit et l'IA a été capable d'inventer des citations crédibles du député Jeremy Corbyn, principal opposant à Theresa May, et d'évoquer des thématiques précises liées au sujet comme celle de la frontière irlandaise. »

En conséquence : « les chercheurs retardent la publication de leurs recherches car ils estiment que GPT2 a un potentiel « trop dangereux » étant donné que cette IA pourrait à terme servir à des actes mal intentionnées comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles ». Fermez le ban…

N’oublions pas au passage la propension marketing d’Elon Musk à se positionner et à se promouvoir tous azimuts en « bienfaiteur de l’humanité ». Ne lui doit-on pas déjà un soutien médiatique très actif et réitéré dans l’interdiction pure et simple des « drones tueurs autonomes » et autres « armes létales intelligentes » ? Et ceci, lors d’un appel à la rhétorique la aussi très alarmiste, signée par cent seize fondateurs d’entreprises dans la robotique et l’intelligence artificielles de vingt-six pays ? Le parallèle avec l’affaire qui nous occupe est à ce titre assez frappant. La présentation de ladite lettre avait eu lieu le 21 août 2017, lors de la cérémonie d’ouverture de « l’International Joint Conference on Artificial Intelligence » (IJCAI). Nous nous en étions fait l’écho ici même, dans les colonnes d’Atlantico. Parmi les noms les plus connus d’alors, tous réunis autour du fondateur de Tesla, Toby Walsh ou encore Mustafa Suleymane, fondateur de DeepMind, chez Google. Par « arme autonome mortelle », on désigne pour l’essentiel des robots militaires capables d’ouvrir le feu sans intervention humaine — et qui vont d’armes ouvrant automatiquement le feu sur des intrus à des robots et drones beaucoup plus complexes. Comme le notait à l’époque le Monde dans ses propres colonnes, c’était la deuxième fois qu’une lettre ouverte de Toby Walsh était publiée sur le site du « Future of Life Institute ». Une fondation américaine là encore soutenue par Elon Musk, mais aussi le scientifique très médiatique et défunt Stephen Hawking — et par l’acteur Morgan Freeman. « La première datait de juillet 2015 » rappelait le Monde. « Elle s’inquiétait déjà des armes autonomes qui « pourraient inclure, par exemple, des quadcoptères armés qui peuvent chercher et éliminer des personnes correspondant à des critères prédéfinis, mais elles n’incluent pas les missiles de croisière ou des drones pilotés à distance, situations dans lesquelles des humains prennent la décision de tirer ». Bien que les débats restent vifs sur le sujet, y compris au sein même des états-majors, les Nations unies avaient en son temps balayé ce florilège d’inquiétudes confites, déclarant sans ambages au Guardian que « la loi internationale humanitaire réglemente déjà suffisamment ce domaine ».

Notons également que l’ami de Musk, et par ailleurs aussi son grand concurrent sur le plan des recherches et des contrats militaires du Pentagone, Peter Thiel, semble aussi de la partie en coulisses – bien que beaucoup plus discrètement – puisque étonnement membre lui aussi de l’association « OpenAI » à en croire certains éléments disponibles de sources ouvertes. Grand soutien de Trump pour l'élection présidentielle américaine de 2016, puis bénéficiaire depuis son accession au pouvoir, Peter Thiel, serial entrepreneur devant l’éternel, et aussi un investisseur réputé pour ses idées politiques très controversées : l’homme est un libertarien et un transhumaniste convaincu. Cette association d’apparence improbable entre les deux hommes ne manque pas de sel en soi.Il faut bien le reconnaître.

Cette éthique dans le développement de l'intelligence artificielle est-elle une notion partagée par toutes les entreprises, et tous les pays ?

Soyons lucides : une éthique toute relative qui n’en oublie jamais pour autant le sens émérite des affaires... Ces passes d’armes « éthiques »  par médias interposés le laissent à penser très fortement, dès lors que l’on se penche un petit peu sérieusement, et en profondeur, sur le contexte d’apparition de ses débats « sociétaux ». Un timing toujours bien réglé, et souvent opportun en deuxième rideau, se fait souvent jour. Car nos industriels ont aussi des agendas chargés que promeuvent et « portent » bien souvent au-devant de la scène dans l’espace public, des associations d’apparence « philanthropiques », afin de relayer en réalité certaines visées commerciales du moment, se jouant elles en coulisses. Les contrats militaires de grande envergure se gagnent aussi à travers les « médias-caisses de résonances ». La guerre de l’information et les actions d’influence y fontsouvent rage entre nations. Mais aussi entre industriels eux-mêmes, avides de gains institutionnels : question de survie économique ! 

En guise d’illustration, rappelons-nous à ce propos des fuites très opportunes de documents confidentiels dans le quotidien « The Australian », en lien avec la vente des sous-marins du constructeur français de défense DCNS... « Guerre économique oblige » avait-on conclu à l’époque dans le milieu des spécialistes de l’intelligence économique. Il y a encore peu, c’était plutôt les intelligences artificielles « stupides » qui focalisaient les attentions inquiètes de nos gentils savants californiens philanthropes, comme le relayait Toby Walshsur la chaîne américaine ABC en 2017, à gorge déployée. Si les armes autonomes n’en sont pour la plupart qu’au stade de prototypes, il est certain qu’elles arriveront sur le marché de la guerre d’ici à très peu de temps, prédisait le chercheur. Idem pour les IA génératrices de textualités intelligentes automatiques qui nous occupent dans cette tribune… Pour preuve, la publication opportune de son livre sur la question la même année au titre tapageur : « It’s Alive !- Artificial Intelligence from the Logic Piano to Killer Robots ».

Et tout naturellement, elles attisent les convoitises stratégiques des militaires, et pécuniaires des industriels… Pour DCNS, la lecture la plus simple est que cette fuite constituait des représailles à son succès économique. « Mais dans ce genre d'affaires, il y a toujours un jeu de brouillage de cartes » avait indiqué dans les colonnes de l’Express Christian Harbulot, directeur de l'Ecole de guerre économique (EGE) à Paris. On se rappela également pour mémoire les paroles d’Alain Mermoud, expert Suisse en sécurité et membre de l'armée helvète, « ce n'est pas la volumétrie des documents qui ont fuité qui compte, mais le timing. Il y a eu des jalousies sur cette vente de sous-marins, et vu le niveau de sécurité dans l'armement, l'humain est souvent le maillon faible ».

Faut-il encore le rappeler sempiternellement : dans la guerre économique, l’important n’est jamais de jouer, mais de l’emporter. L’éthique et le beau geste entre compétiteurs ne sont que de peu de poids, seul compte la victoire pour les belligérants.

En se risquant à un peu de fiction, à quoi pourraient ressembler les fausses nouvelles dans les dix ans à venir ? Quels pourraient être les enjeux et les moyens de lutter contre elles ?

Il est toujours difficile de prévoir ou de prédire l’avenir. Mais le potentiel dévastateurs que suggère un usage réprouvé des générateurs autonomes de texte est sans aucun doute déjà testé et développé ailleurs. Soyons-en certain. La place que ces nouveaux outils pourraient prendre à l’avenir en tant que technologies militaires, ou dans le cadre d’actions de guérillas technologiques subversives, politiques ou sociétales dépendra évidemment de ce que seront les besoins des Etats en confrontation, au regard de leurs buts de guerre qui, à leur tour, seront déterminés par leur situation, ou les conditions de leur sécurité nationale du moment. Dans un monde idéal, comme en toute chose, il serait naturellement préférable d’élaborer très en amont, un cadre juridique et éthique stable, avant d’en arriver à des situations d’usages réprouvés ou d’utilisations funestes. Cela tombe sous le sens. Mais nous ne sommes hélas pas dans un monde idéal… Encore une fois, prédire l’avenir en la matière est hasardeux.

A « The Verge », peut-on lire dans la presse en ligne, David Yuan, vice-président à la tête de l’ingénierie d’OpenAI, a en substance récemment déclaré qu’une dissertation composée par « GPT2 »aurait pu tout aussi bien être écrite pour les examens utilisés pour l’admission aux universités américaines – SAT – et même y obtenir une bonne note. Et c’est « au regard de cette véritable maestria à réussir dans ses tâches d’ordre intellectuel, qui pousse aujourd’hui les chercheurs d’OpenAI à freiner la diffusion de leur création, de peur que leur technologie ne tombe entre de mauvaises mains », peut-on lire sur Usbek & Rica. En conséquence, il semble acté qu’une version « bridée » de GPT2 sera bien mise à disposition, mais que ni sa base de données, ni même le code d'apprentissage ou le modèle spécifique sur lequel GPT2 repose ne le sera, explique l'équipe de recherche via un billet de blog.

L’ONG américaine semble vouloir davantage éprouver son modèle : « si vous n’êtes pas en mesure d’anticiper les capacités d’un modèle informatique, vous devez le tester pour voir ce qu’il a dans le ventre », a-t-elle également avancé dans The Guardian. A l’image des expériences de manipulations de ses utilisateurs menées par Facebook sur la toile, vont-ils aussi tester« GPT2 »en grandeur nature sur certains espaces de la toile mondiale, et ainsi pousser leur algorithme à générer des textes « intelligents » et congruents que certains trolls chevronnés ne renieraient pas ? La question peut en effet dignement se poser, dans un monde numérique ouvert, aux accents de plus en plus Orwellien.

Les commentaires de cet article sont à lire ci-après
Le sujet vous intéresse ?
Mots-clés :
fake news
Thématiques :
Articles populaires
Période :
24 heures
7 jours
01.
Irascible, exténué et persuadé d’être le meilleur en tout : ce que la personnalité du président coûte à son quinquennat et à la France
02.
Jean Arcelin : “Une large majorité des 700 000 personnes en Ehpad mangera, pour le reste de sa vie, des repas à 1€”
03.
Castaner : l'inconnue n'en était pas une (et peut-être pas la seule); Foresti rit au soleil, Laeticia Hallyday & Paris Jackson dépriment à L.A; Meghan engage un coach "gestion de bébé"; Public voit un enfant pour Jenifer et une joueuse du PSG pour MBappé
04.
Vladimir Poutine est censé quitter le pouvoir en 2024. Certains au Kremlin envisageraient un autre scénario
05.
Acte 19 des Gilets jaunes : victoire sur le terrain pour le gouvernement, incertitude politique maximale
06.
“La révolte du public” : interview exclusive avec Martin Gurri, l'analyste de la CIA qui annonçait la crise des Gilets jaunes dès 2014
07.
Soirée arrosée en boîte : Christophe Castaner filmé en train d'embrasser une inconnue
01.
Nicolas Bedos, bientôt au "Grand Journal" ?
01.
Irascible, exténué et persuadé d’être le meilleur en tout : ce que la personnalité du président coûte à son quinquennat et à la France
02.
Dégoût, colère, envie de révolution… : l’étude exclusive qui révèle la très sombre humeur des Français relativement aux autres Européens
03.
“La révolte du public” : interview exclusive avec Martin Gurri, l'analyste de la CIA qui annonçait la crise des Gilets jaunes dès 2014
04.
Grand débat en péril ? Les trois erreurs politiques que semble s'apprêter à commettre Emmanuel Macron
05.
MBS, le prince héritier saoudien dépossédé d’une partie de ses pouvoirs par le Roi Salman
06.
Rokhaya Diallo va (peut-être) nous quitter pour les Etats-Unis
01.
Révolution, le retour : le scénario d’un vrai dérapage insurrectionnel est-il en train de devenir possible en France ?
02.
Irascible, exténué et persuadé d’être le meilleur en tout : ce que la personnalité du président coûte à son quinquennat et à la France
03.
Recours à l’armée face aux Gilets jaunes : la dangereuse fuite en avant du gouvernement
04.
Violence inexcusable MAIS aspiration à la justice sociale : la double nature de la contestation des Gilets jaunes dont aucun parti ne parvient à tirer une synthèse convaincante
05.
Rokhaya Diallo va (peut-être) nous quitter pour les Etats-Unis
06.
Profondément convaincus ou en réaction épidermique à Emmanuel Macron ? L’enquête exclusive qui révèle que les Français se disent nettement plus nationalistes et favorables au protectionnisme que les autres Européens ?
Commentaires (1)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
patafanari
- 18/02/2019 - 12:43
Une manière de vanter leur produit.
Aux dernières nouvelles, GPT2 (alias Gepetto ou j'ai pété de...) aurait viré ses concepteurs pour cause de sentimentalité sénile.