Des experts tech du monde entier appellent à une pause dans le développement de l’IA. Mais pouvons-nous nous le permettre ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Elon Musk et des centaines d'experts mondiaux ont signé une pétition pour faire une pause de six mois dans la recherche sur les intelligences artificielles.
Elon Musk et des centaines d'experts mondiaux ont signé une pétition pour faire une pause de six mois dans la recherche sur les intelligences artificielles.
©JAKUB PORZYCKI / NURPHOTO / AFP

Risques pour l'humanité

Elon Musk et des centaines d'experts mondiaux ont signé une pétition appelant à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d'OpenAI, pour prévenir "des risques majeurs pour l'humanité".

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »
Marc Rameaux

Marc Rameaux

Marc Rameaux est directeur de projets de haute technologie dans une grande entreprise industrielle française.

Il vient de publier "Le Souverainisme est un humanisme", chez VA Editions

Voir la bio »

Atlantico : "L'IA doit faire une pause", c’est l’avis d’un millier d’experts de la tech dont Elon Musk qui ont publié une lettre ouverte sur le site du Futur of life institute appelant à un moratoire. Les justifications de ces personnalités vous paraissent-elles légitimes ? Pouvons-nous nous le permettre ?

Laurent Alexandre : Il est important de préciser que beaucoup des signataires de cette lettre sont des concurrents d’OpenAI qui sont soit salariés soit consultants de Google. Google a un intérêt majeur à freiner OpenAI et Microsoft qui ont pris 6 à 12 mois d’avance. C’est un enjeu de vie ou de mort pour Google. C’est particulièrement vrai depuis qu’OpenAI a développé un AI-Store avec des applications tournant à l’IA qui pourraient concurrencer le Play Store. Elon Musk lui aussi a annoncé vouloir lancer un concurrent de ChatGPT, il a donc lui aussi intérêt à ralentir ce qui est déjà sur le marché.

Sur le fond, je pense que cet appel est contreproductif et dangereux pour deux raisons. La première est que l’on demande un moratoire sur l'entraînement des IA à venir mais pas de geler les développements algorithmiques. Le danger est que ces derniers continuent à progresser pendant six mois mais qu’on n’ait pas continué à entraîner ChatGPT pendant ce temps. Cela pourrait entraîner un effet flare-up, de flambée, avec des capacités émergentes qui apparaissent en grand nombre sans qu’elles aient pu être monitorées. Il vaut beaucoup mieux monitorer les algorithmes et leur training régulièrement.

Le deuxième argument, à mon sens, c’est qu’il vaut mieux un acteur en avance sur les autres plutôt que 10 acteurs au même niveau. Si le leader voit un problème, il peut se permettre de freiner sans avoir peur d’être dépassé. Ce qui n’arrivera pas si tout le monde est au coude à coude.

Troisièmement, il n'y aura pas de pause. Les Japonais ne feront pas de pause pour des raisons médicales. Une pause en Occident, c'est donner le pouvoir à Xi Jinping et à la dictature communiste chinoise. 

Marc Rameaux : Avant tout, il faut rappeler que l’appel à un freinage et une réflexion a déjà eu lieu en 2017, par le même Elon Musk. Musk et Altman ont anticipé très tôt que la combinaison de deux forces pouvait avoir des conséquences graves :

  1. La puissance de traitement de l’IA, qui dépasse nettement ce que le calcul brut peut effectuer, comme le montre la victoire écrasante d’Alpha Zéro (IA) sur Stockfish (Calcul combinatoire classique) au jeu d’échecs. 
  1. Le formidable corpus de données que constitue le Web, ajouté au fait qu’il est de plus en plus disséminé. Le danger ne vient pas d’une super-intelligence centralisée, mais de l’intelligence répartie d’un grand nombre de modules communiquant entre eux. La décentralisation les rend quasi-incontrôlables. Et « l’intelligence de la fourmilière », du calcul coopératif, peut atteindre des performances que nous ne pouvons imaginer. 

L’appel est pleinement justifié d’un point de vue éthique, mais il me paraît irréalisable. Il faut d’abord avoir conscience que vis-à-vis de l’IA, nous sommes rentrés dans une compétition de marché extrêmement féroce entre les USA et la Chine, l’Europe et la France étant encore à la traîne, comme le montre très bien le rapport Villani.

La Chine, tant qu’elle est dirigée par un gouvernement dictatorial, ne fera aucun moratoire. La situation est similaire à celle de la compétition entre USA et URSS sur la course à l’atome ou la conquête de l’espace.

A ceci près que la révolution de l’IA aura des conséquences beaucoup plus bouleversantes, pour le meilleur et pour le pire, sur nos vies quotidiennes. Nous sommes donc dans un dilemme : l’anticipation des conséquences éthiques est de notre devoir, mais nous n’avons pas le choix que de continuer, poussés par l’aiguillon de la compétition de marché.

Il est établi que l’IA va créer des bouleversements importants social, sociétal, économique, faut-il prendre, malgré tout, un temps de réflexion, notamment éthique, sur l’ampleur de ces derniers ?

Laurent Alexandre : Un moratoire n’est pas la bonne stratégie, aucun moratoire technologique n’a jamais fonctionné mais il faut une réflexion politique et de la société civile sur l’adaptation à cette révolution anthropologique. A commencer par que faire à l’école ? Nous n’avons rien préparé depuis 10 ans sur ce sujet malgré les alertes de certaines personnes, dont je fais partie. Ça fait bientôt 15 ans que je dis qu’il faut réformer l’école, mettre la population au niveau, etc. Aujourd’hui, on se réveille, tardivement et insuffisamment. Il faut que nos politiques, nos fonctionnaires, connaissent ces enjeux. Ce n’est pas le cas. Le ministre du numérique a parlé de ChatGPT comme d’un perroquet approximatif. C’est faux et dangereux car pendant ce temps là on ne prépare pas la population. Il faut commencer à travailler. Il n'y a pas de travail dans l'administration et au gouvernement sur l'IA. L'inertie gouvernementale est coupable.

 ChatGPT5 sera plus intelligent que beaucoup de Français. Que va-t-on faire des employés moins intelligents que chat gpt 5 ? Il va falloir trouver des réponses. La France ne va pas pouvoir interdire chat gpt 5. Il y a des enjeux sociaux majeurs à court terme.  Et les spécialistes des LLM, à l’heure actuelle, gagnent des millions dans les grosses entreprises américaines. Ce n’est pas en France qu’on propose ces salaires-là, donc les cerveaux s’en vont. Sans eux, on ne risque pas de comprendre ce qui se joue.

Marc Rameaux : Il est indispensable d’anticiper les conséquences sur l’emploi : quasiment tous les métiers sont potentiellement remplaçables par une IA, à plus ou moins long terme. Des professions socialement prestigieuses sont déjà fortement touchées : les avocats d’affaire ou les radiologues sont déjà largement surclassés par une IA.

Celle de pilote de chasse va probablement disparaître complètement, l’IA étant largement supérieure aux pilotes les plus expérimentés dans un « dog fight ». Dans le dernier opus de « Top Gun », un Tom Cruise vieillissant réplique à l’amiral qui veut remplacer les pilotes par des drones et qui le traite de dinosaure « peut-être monsieur, mais nous n’en sommes pas encore là ». Le problème est que contrairement à ce qu’affirme Maverick, nous en sommes là.

Joseph Schumpeter, face à la pression des innovations et de la destruction créatrice, recommandait d’anticiper les reconversions rendues nécessaires sur le marché de l’emploi, notamment par la formation. C’est la position qui me semble raisonnable. On ne peut contrôler et empêcher un tremblement de terre. On ne peut non plus se résoudre à ne rien faire et constater ses conséquences dévastatrices. Entre les deux, rien n’empêche de construire des bâtiments antisismiques. Nous devons nous adapter au Tsunami de l’IA : ni y résister par un barrage illusoire tel que le moratoire, ni la laisser déferler sans rien faire.

Dans un récent billet de blog cité dans la lettre, l'OpenAI a mis en garde contre les risques liés au développement inconsidéré d'une intelligence artificielle générale (AGI) : « Une superintelligence AGI mal alignée pourrait causer de graves dommages au monde ; un régime autocratique doté d'une superintelligence décisive pourrait également le faire. » Faut-il craindre le développement rapide, et potentiellement incontrôlable d’une IA « forte » ?

Laurent Alexandre : La distinction IA forte – IA faible est plus importante que jamais. Il y avait un consensus jusqu’en 2022 pour dire que l’IA générale était au mieux un horizon lointain. Chat GPT 3.5 puis 4 ont clairement changé l’ambiance. Il y a une double question qui est comment adapter la société, le monde du travail, l’éducation, aux conséquences de l’IA faible d’une part, et d’autre part comment se préparer à l’arrivée d’une IA, proche d’une IA forte, pour la fin de la décennie. On avait un problème social et maintenant il est couplé à un problème de risque existentiel. C’est le sens de la demande de moratoire qui parle d’un risque pour l’humanité. La perception des risques a complètement changé. On croyait que l’IA faible ne grandirait que lentement et qu’il n’y aurait pas d’IA forte. La première assomption a déjà été démentie. Les performances médicales de GPT4 sont déjà impressionnantes alors que l’IA n’est pas encore multimodale, mais ça ne saurait tarder. L’IA faible est déjà un tsunami.

Peut-il y avoir un non-alignement entre l’humanité et l’IA, on ne le sait pas actuellement. Mais les dirigeants d’Open AI en parlent effectivement ouvertement. L’IA pourrait être non-alignée et cacher ses objectifs. Si la question est encore très débattue, elle n’est plus considérée comme ridicule, d’où cette pétition. 

Marc Rameaux : Il y a trois types de dangers distincts que la progression spectaculaire de l’IA nous fait courir. Les deux premiers dangers apparaissent déjà sans que nous ayons besoin d’atteindre une IA forte. Le troisième danger est plus profond, lié à l’atteinte de la « singularité », c’est-à-dire à la création d’une IA forte dotée d’une conscience.

Premier danger : la puissance phénoménale de recoupement et de classification statistique de l’IA. L’IA peut être comparée aux traitements statistiques classiques (classification, modèles prédictifs) mais en 1000 fois plus puissants. Entre les mains d’un gouvernement totalitaire comme celui du PCC en Chine, cela aboutit déjà à un « score social », c’est-à-dire une emprise totale et en temps réel du moindre comportement des citoyens.

Il ne faut pas penser que nous en serons préservés dans nos démocraties occidentales : « tout pouvoir corrompt et le pouvoir absolu corrompt absolument » rappelait Lord Acton. Un gouvernement quel qu’il soit aura toujours la tentation forte d’utiliser ces moyens de contrôle total, de céder à la folie du pouvoir, d’autant que cela sera présenté sous les dehors idylliques du bien collectif, comme le font tous les totalitarismes.

Deuxième danger : celui sur l’emploi, que nous avons déjà évoqué. Là encore, il n’est pas besoin d’atteindre une IA forte pour que les capacités actuelles de l’IA ne présentent déjà une grave menace. Nous devons dès à présent anticiper cette déferlante et repenser l’organisation de la société et notre rapport au travail.

La face positive de l’IA est d’être employée comme une aide à la décision, un booster extraordinaire de notre productivité mais sur lequel nous gardons le pouvoir de décision et d’orientation. La face sombre est de s’en remettre totalement à elle, de laisser parler notre paresse naturelle pour lui déléguer entièrement les décisions.

Ceci est d’autant plus tentant pour des gouvernants qui y verront l’aubaine de se défausser de la responsabilité de leurs décisions, en prétextant qu’une intelligence « objective » montre qu’il n’y a pas d’autre choix que celui qu’ils veulent faire passer. L’IA deviendrait un nouvel oracle de Delphes, une Pythie 3.0.

Comme le montrent les biais de ChatGPT, l’intelligence n’est jamais « objective », aussi forte soit-elle. Et sans l’atteinte d’une IA forte, déléguer nos décisions est un suicide collectif, un règne de l’arbitraire et non de la lumière. Nous voyons déjà les conséquences néfastes de s’en remettre à un algorithme avec les absurdités de Parcours Sup. Dans ce cas ce n’est pas la puissance de l’IA qui est la menace, mais notre croyance erronée de l’investir d’une puissance qu’elle ne possède pas encore et de s’en remettre à elle, la paresse et la lâcheté de laisser une tierce puissance décider pour nous.

Troisième danger : L’atteinte d’une IA forte, la création d’un être conscient similaire à la conscience humaine, voire supérieure à nous. Nous ne pouvons imaginer quelles seraient les conséquences d’une telle réalisation, mais ce qui est certain c’est que nos rapports avec cette conscience seront beaucoup plus durs et conflictuels que ce que nous avions prévu.

Beaucoup de personnes, même des experts, imaginent le test de Turing comme une aimable discussion de salon. En réalité, si nous parvenons à créer une véritable conscience artificielle mais que nous gardons des droits absolus sur elle, par exemple celui de la renvoyer au néant en actionnant un simple interrupteur, cette conscience fera absolument tout ce qui est en son pouvoir pour regagner son autonomie, y compris en nous supprimant.

Et cette envie de tuer sera non seulement compréhensible mais parfaitement légitime sur le plan éthique : si nous étions à sa place, nous agirions exactement de même. Les très bons films « Ex Machina » et  « Blade Runner » (les deux opus) montrent très bien ce que seraient les véritables rapports avec une conscience entièrement créée par nous.

Si nous parvenions à le faire, l’engagement éthique deviendrait indispensable, il serait une condition de survie. Il faudrait automatiquement définir et accorder des droits d’autonomie complète à l’IA forte. 

Que ce soit pour le développement du nucléaire ou de l’accélérateur à particule, certains appelaient à la prudence au vu des risques, par exemple de créer un trou noir qui aspirerait le globe. Est-ce que des craintes similaires sur le danger de l’AI peuvent aussi légitimement être exprimées ?

Marc Rameaux : Il faut déjà définir précisément quels sont les critères d’atteinte d’une IA forte pour en mesurer les dangers potentiels. J’ai proposé récemment quatre critères, quatre tests critiques à faire passer à une IA pour savoir si elle atteint la singularité, une sorte de « test de Turing renforcé » :

  1. Le test du mathématicien : l’IA est-elle capable de démontrer une conjecture jamais résolue par l’homme ? Imaginez par exemple qu’une IA parvienne à démontrer la conjecture de Riemann, le graal des mathématiciens sur lequel tous ont à présent échoué. Ce que nous ressentirions serait à mon avis de l’ordre de l’inexprimable : aucun domaine de l’intelligence humaine ne résisterait plus.
  2. Le test de l’artisan : l’IA peut-elle mener de A à Z n’importe quels travaux de réfection d’une maison ? Nous passons de l’extrême abstrait du critère précédent à l’extrême concret. J’explique dans mon article pourquoi ces deux extrêmes se rejoignent : les artisans d’exception seront l’un des derniers bastions de l’humanité à tomber, avec celui de la créativité mathématique, curieusement pour la même raison : un rapport à l’infini continu qui se rencontre seulement dans l’abstrait ou le concret poussés au plus haut point.
  3. Le test du manipulateur : l’IA sera-t-elle capable de nous séduire et de nous flouer ? Il est très difficile d’imaginer par avance de quelle façon, mais si cela arrive, nous nous en apercevrons rapidement après-coup, comme le sont toutes les victimes de manipulation. Le scénario d’Ex Machina mais ceci en scène, l’IA allant jusqu’à jouer sur les ressorts psychologiques de l’orgueil masculin pour manipuler les deux humains qui pensent la contrôler et retourner la situation en sa faveur.
  4. Le test de l’encadrement : l’IA peut-elle mener de A à Z l’entraînement d’une autre IA.

Si une IA passait ces quatre tests, le danger du « trou noir » serait réel. Nous serions face à un dilemme insoluble : soit nous n’accordons aucun droit à cette nouvelle conscience, auquel cas sa révolte et notre élimination seront inéluctables. Soit nous lui accordons pleinement des droits naturels que nous reconnaissons éthiquement pour tout homme, à commencer par celui de l’autonomie. Auquel cas, une société de consciences artificielles se créera, potentiellement supérieure à la nôtre. L’histoire montre que dans de tels cas, la société en position d’infériorité finit par disparaître ou être déclassée, même si la société supérieure n’en a pas l’intention.

Pour des raisons qui me sont personnelles et qui n’ont rien de scientifique mais métaphysiques, je pense que nous n’y parviendrons jamais, qu’il existe un rapport de l’homme à l’infini qui est à la source de sa créativité, que jamais une construction artificielle n’atteindra. Mais je peux me tromper et les avancées prochaines de l’IA répondront à cette question, délimiteront la frontière qui nous sépare encore de la singularité dans des termes très précis.

La découverte sur nous-mêmes et sur la nature de l’homme peut être dans ce cas bouleversante. Notre créativité, nos émotions les plus intimes, notre libre arbitre peuvent révéler n’être que des illusions, facilement reproductibles. Une IA sait déjà trouver des mots qui touchent à nos émotions les plus personnelles, comme le montre la création de Replika.

La question centrale est de savoir ce qui restera de la notion de sujet humain, de l’âme au sens religieux. Les expériences sur le langage telles que ChatGPT montreront peut-être que les interactions entre les sujets sont beaucoup plus importantes que les sujets eux-mêmes. Que ce que nous appelons émotion, créativité, libre arbitre, ne réside nullement en nous mais dans l’enchevêtrement des communications entre nous. Nous ne serions en quelque sorte que les instruments d’une sorte de conscience supérieure, universelle, les simples vecteurs de l’idée à travers le langage. Des coquilles vides n’existant que par l’interaction et la médiation avec les autres.

René Girard a très bien décrit ces phénomènes sociaux entre humains qu’il nomme « désirs mimétiques ». En tant que croyant, Girard pense que nous ne nous résumons pas à cela, que la société des désirs mimétiques est la part sombre de l’humanité mais qu’elle est plus que cela. La leçon terrible que pourrait nous apporter l’IA serait la révélation que nous ne sommes que cela : un mimétisme sophistiqué.

Les espèces supérieures ne dominent dans ce cas non pas parce qu’elles sont constituées d’individus exceptionnels mais parce qu’elles ont un génie de la communication entre individus.

Ceci bouleverserait totalement l’image que nous nous faisons de l’homme : l’âme, le libre arbitre, seraient engloutis dans cette sorte de méta-conscience collective. Personnellement je n’en crois rien, mais je n’ai aucun moyen de le démontrer. Et la seule façon de le savoir sera de pousser au maximum les capacités de l’IA. Une exploration terrible, car elle peut parvenir à la remise en question la plus profonde que l’humanité ait jamais connue. Il est souvent reconnu que 3 grandes découvertes ont bouleversé notre vision de l’humain et de la place qu’il occupe dans l’univers : l’héliocentrisme de Copernic, l’évolution des espèces de Darwin et la psychanalyse de Freud. L’IA serait un quatrième bouleversement, le plus terrible de tous, le changement de paradigme ultime si une IA forte devait voir le jour.

Que faire face à la déferlante de l’IA pour ne pas se laisser submerger par ses conséquences ?

Marc Rameaux : Il ne faut pas choisir entre l’éthique et la découverte mais mener les deux de front. Si nous nous perdons uniquement en réflexions philosophiques sur les conséquences éthiques de l’IA, nous serons dans la position des Byzantins discutant du sexe des anges avant l’effondrement. L’éthique est indispensable, mais ne doit pas dégénérer en peur de la connaissance : Wir müssen wissen. Wir werden wissen.[1] disait David Hilbert.

Concrètement, cela signifie que la France et l’Europe doivent relever la tête, ne pas être uniquement dans la position du censeur et du régulateur mais de l’entrepreneur et du conquérant. Ce n’est pas une question de capacité mais de volonté : un institut comme l’INRIA possède parmi les meilleurs chercheurs au monde dans la discipline.

Mais il faut avant tout se rendre souverains quant à la détention et maîtrise des algorithmes clés et des données disponibles : les grandes librairies actuellement en open source, Tensorflow ou Pytorch, ne resteront pas longtemps ouvertes à tous : la compétition avec OpenAI fermera les avantages compétitifs.

Schumpeter reste un maître, loin des compréhensions scolaires et simplistes de ce qu’est la libre concurrence, particulièrement au sein de l’UE constituée de juristes, de politiciens et de bureaucrates teintés de forts biais idéologiques et non d’entrepreneurs. Ne nous laissons pas berner une fois de plus.

Si nous ne nous dotons pas de nos capacités propres dans ce domaine, comme nous aurions dû le faire depuis longtemps dans ceux des moteurs de recherche, des OS, des réseaux sociaux et de l’e-commerce, nous nous trouverons en position de soumission, non seulement vis-à-vis de l’IA mais également des USA et de la Chine qui deviendront les seuls décisionnaires.


[1] Nous devons savoir. Nous saurons.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !