Limiter les dangers des Bots sans entraver leur potentiel : l’Europe s’attaque au défi de la régulation de l’IA<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Le parlement européen va se prononcer sur son projet de régulation de l'intelligence artificielle ce jeudi.
Le parlement européen va se prononcer sur son projet de régulation de l'intelligence artificielle ce jeudi.
©LIONEL BONAVENTURE / AFP

Terra incognita

Les eurodéputés doivent donner ce mercredi un premier feu vert au projet européen de régulation de l'intelligence artificielle (IA). L'Union européenne veut être la première au monde à se doter d'un cadre juridique complet pour limiter les dérives de l'IA, tout en sécurisant l'innovation. Cette volonté de réguler relève du casse-tête.

Rémi Bourgeot

Rémi Bourgeot

Rémi Bourgeot est économiste et chercheur associé à l’IRIS. Il se consacre aux défis du développement technologique, de la stratégie commerciale et de l’équilibre monétaire de l’Europe en particulier.

Il a poursuivi une carrière d’économiste de marché dans le secteur financier et d’expert économique sur l’Europe et les marchés émergents pour divers think tanks. Il a travaillé sur un éventail de secteurs industriels, notamment l’électronique, l’énergie, l’aérospatiale et la santé ainsi que sur la stratégie technologique des grandes puissances dans ces domaines.

Il est ingénieur de l’Institut supérieur de l’aéronautique et de l’espace (ISAE-Supaéro), diplômé d’un master de l’Ecole d’économie de Toulouse, et docteur de l’Ecole des Hautes études en sciences sociales (EHESS).

Voir la bio »

Charaf Louhmadi

Charaf Louhmadi est ingénieur. Il a notamment travaillé au sein d'un cabinet de conseil en stratégie et d'audit et pour de grandes banques françaises comme Société Générale, Natixis, Crédit Agricole et BPCE SA à travers des missions en analyse quantitative, ALM, risques de marchés/contrepartie. Il est l’auteur du livre « Fragments d'histoire des crises financières ».

Voir la bio »

Atlantico : Le parlement européen adopte sa position sur l’IA en session plénière ce mercredi. A quel point est-ce difficile de se mettre d’accord sur ce que regroupe l’IA et donc sur la nature même de ce que l’on veut réguler ?

Rémi Bourgeot : La première difficulté pour la sphère politique consiste à appréhender et définir l’intelligence artificielle. Les innovations radicales liées aux modèles de langage suivent désormais un rythme quasi-mensuel.

L’AI Act européen a, en premier lieu, été pensé sur la base de développements antérieurs, suivant des spécialités distinctes au sein de l’IA, et de niveaux de risques qui y sont liés. Cela va, par exemple, d’un inoffensif filtre de spams jusqu’aux usages politiques inacceptables de la reconnaissance faciale. L’unification de l’IA, entamée discrètement en 2017, change fondamentalement la donne, suivant en particulier l’apparition des modèles d’IA générative, qui manipulent et génèrent des contenus de nature extrêmement variée. L’UE tente d’adapter son projet à cette évolution, en prévoyant des clauses spécifiques aux modèles de fondation (dont relève l’IA générative). Il s’agit surtout d’exigences particulières de certification et de relative transparence des données, notamment en matière de copyright.

Une difficulté supplémentaire réside dans l’émergence de nouveaux acteurs. OpenAI est devenu un géant de l’IA presque du jour au lendemain, avec le soutien de Microsoft. S’y ajoute l’explosion de l’AI open source. Le chamboulement du paysage technologique est ainsi encore plus prononcé que l’apparition de nouveaux géants ne pourrait le faire penser. Une note interne de Google sonnait récemment l’alarme face aux avancées majeures que proposent les acteurs de l’open source, qui dépassent souvent celles des géants en termes d’efficacité et de flexibilité des modèles. Les autorités européennes s’attellent ainsi à réguler une technologie dont il est délicat de dessiner les contours actuels, et encore plus redoutable d’envisager ce qu’elle sera quand le texte est supposé entrer en vigueur, en 2025...

À Lire Aussi

Des experts tech du monde entier appellent à une pause dans le développement de l’IA. Mais pouvons-nous nous le permettre ?

La réglementation aspire, tant bien que mal, à rendre l’IA plus fiable, moins opaque et à limiter les risques de manipulation tous azimuts. Les réseaux de neurones opèrent comme des sortes de boîtes noires, sans qu’on en saisisse les ramifications. Cette opacité devient particulièrement problématique quand l’IA aspire, pour sa part, à une compétence générale et à s’immiscer dans tous les aspects de la vie. La réglementation remet nécessairement en cause l’évolution de cette technologie en profondeur.

Charaf Louhmadi : La régulation de l’IA est un sujet qui devient de plus en plus urgent, car celle-ci a un impact croissant sur notre quotidien et présente de nombreuses menaces. Il existe des dérives relatives à cette technologie et la mise en place d’une réglementation européenne et mondiale pour une IA éthique devient un sujet de priorité. En avril 2022, la Commission Européenne a décidé de mettre en place le premier cadre juridique (une première mondiale) en vue d’encadrer l’usage de l’IA. Ce projet de règlement a été proposé pour la première fois en avril 2021.

Les usages de l’IA sont tellement variés qu’il faut que ces textes puissent englober l’étendu de cette technologie ; de ce fait, la consultation de scientifiques et d’experts est obligatoire.

Les textes réglementaires européens présentent de bons points ; ils devraient inclure des dispositions interdisant aux IA génératives de divulguer des contenus protégés par les droits d’auteurs. De surcroit, ce texte de loi est censé interdire des IA de générer du code nocif à la société ; par exemple pouvant être utilisé dans des cyberattaques ou de manière plus générale à des fins illégales.

À Lire Aussi

Europe, Etats-Unis, Chine : chacun réfléchit à son modèle de régulation de l’IA. Mais qui le fait le plus intelligemment ?

Que ce soit en Europe, aux Etats-Unis ou en Chine, chacun veut réguler, à sa manière l’IA. Quels sont les risques si l’on n’arrive pas à une forme d’harmonisation globale sur le sujet ? L’Europe risque-t-elle de se tirer une balle dans le pied ?

Rémi Bourgeot : La tendance générale est à la mise en place de systèmes de licences. Pour autant les critères différeront évidemment fortement d’un système politique à l’autre. La segmentation est déjà intégrée en Chine, dont l’internet est, dans une large mesure, séparé de celui des Etats-Unis, avec le bannissement des produits de Google, notamment, au profit d’alternatives locales. En étendant cette logique à l’IA générative, ChatGPT y a été interdit sans délai, tandis que les géants chinois offrent peu à peu leurs chatbots alternatifs.

La segmentation de la régulation pose effectivement la question de la fragmentation d’internet, particulièrement problématique entre l’Europe et les Etats-Unis, et celle de l’extraterritorialité. On a l’habitude de dire que l’UE fixe les grandes contraintes réglementaires tandis que les Etats-Unis développent l’offre digitale. Cela a été le cas avec la RGPD dans une large mesure, qui a fait office de référence mondiale en matière de données, mais les choses sont plus compliquées avec l’IA. Sam Altman a menacé de déserter l’Europe à cause de l’AI Act. Il a vite dû revenir sur ses propos et confirmer des projets d’implantation sur le continent, mais on ne peut ignorer le bras de fer en cours. Dans le même temps, Google s’est gardé de rendre son chatbot Bard disponible en Europe, envoyant un message clair aux régulateurs.

La question essentielle pour l’Europe est celle de l’autonomie et, dans tous les cas, du développement d’une offre européenne de modèles d’IA, en capitalisant notamment sur la dynamique open source et du partage d’éléments de modèles. L’AI Act tente un équilibre très fragile sur ce sujet. Les exigences de certification européennes vont très loin, en particulier quand il s’agit de modèles de fondation. Pour autant des exemptions sont prévues pour la R&D et l’open source. Il est essentiel de contenir le risque d’usages criminels voire apocalyptiques sans pour autant écraser le monde du développement sous le poids de contraintes bureaucratiques et d’amendes redoutables. A cette fin, il est indispensable de développer un contrôle ciblé sur le plan de l’utilisation en particulier, et de relâcher la pression sur les développeurs open source en-deçà d’un seuil de puissance de leurs modèles.

Charaf Louhmadi :Si l’uniformisation des textes de lois n’est pas actée à l’échelle mondiale, cela créera de manière évidente des failles, et des usages interdits en Europe à titre d’exemple, pourront être réalisés à l’étranger ; si une entreprise dispose d’une filiale à l’étranger, le problème ne se pose pas, l’utilisation de VPN pourra également être utilisé. Comme le précise un certain nombre d’experts, une régulation mondiale est à la fois urgente et nécessaire ; l’IA présente des menaces qui inquiètent le milliardaire Elon Musk et des centaines de spécialistes qui alertent dans une pétition les risques considérables de l’IA sur l’humanité. Ils veulent instaurer un moratoire sur la sophistication des IA et même arrêter les travaux de recherche y associés durant 6 mois, le temps de mettre en place des systèmes de sécurité.

Dans une pétition parue le 29 mars 2023 sur le site Futureoflife.org., ces experts veulent des techniques pour aider à distinguer le réel de l'artificiel et des instances capables de contenir les "perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera".

Comment s’assurer la confiance du public sur ces enjeux nouveaux et potentiellement profondément disruptifs ?

Rémi Bourgeot : On constate un engouement spectaculaire des utilisateurs, qui, souvent émerveillés malgré les failles, ne questionnent encore que peu l’opacité des modèles et l’utilisation de leurs données par ces services. La montée en puissance de l’open source apportera une plus grande clarté, dans le sens où il sera plus aisé d’entamer un débat sur le fonctionnement de l’IA et d’évaluer les modèles, au moins entre initiés. Pour autant, des tendances contraires se sont manifestées ces derniers temps. OpenAI, qui n’a plus d’ouvert que le nom, a rendu GPT de plus en plus opaque, en divulguant peu d’information sur les données utilisées et en cachant même désormais le nombre de paramètres utilisés.

Au-delà de la focalisation sur les modèles, appelés à évoluer sans cesse de façon radicale, la réglementation, menacée constamment d’obsolescence, est probablement appelée à se concentrer davantage sur leur usage, de façon plus robuste. L’enjeu majeur, vis-à-vis du public, consiste à préserver le sens de la réalité face aux infinies manipulations que permet l’IA générative.

Charaf Louhmadi :Il est important pout tout un chacun de comprendre l’utilité de l’intelligence artificielle mais également d’en mesurer à la fois les limites et les menaces.

Prenons l’exemple de ChatGPT, le Chatbot développé par OpenAI. Il permet la création de contenus (textes, programmes informatiques…) plus ou moins de qualité en un temps record. Assez souvent, il est précis et rapide. De manière plus large, l’intelligence artificielle permet désormais des services connus pour être techniquement chronophages à réaliser, citons à titre d’exemple la création et le design de site-web. De plus en plus de développeurs utilisent des outils IA pour produire des algorithmes et gagner en productivité. On retrouve également des robots dotés d’IA dans le secteur bancaire où des conseillers sont dotés d’assistants virtuels pour gérer l’épargne des clients.

Plus généralement, les entreprises utilisent déjà et continueront à s’aider de ces technologies d’intelligence artificielle pour être plus performantes et ce sur différents volets : Service client, automatisation des processus, réduction des coûts…  Des géants de la tech à l’image de Snap, Instacart, Quizlet, Shopify et Speak ont d’ores-et-déjà adopté ChatGPT via des API ou des chatbot utilisant l’outil d’OpenAI.

Les menaces des IA sont quant à elles bien réelles et il faut en être conscient ; celles-ci s peuvent être cibles de cyberattaques et par conséquent sont vulnérables et potentiellement assujetties à la manipulation. Par exemple la sophistication des courriels de phishing dans les arnaques. Encore plus grave : imaginez un véhicule autonome, roulant avec une intelligence artificielle et cible d’une cyberattaque, on comprend rapidement que les dégâts sont extrêmement conséquents. On peut également citer les robots utilisant des intelligences artificielles dans les hôpitaux et susceptibles d’être corrompus. Dans le domaine militaire, si des robots intelligents déployés en mission ou dans une guerre, sont victimes de cyberattaques, la vie des soldats et des civils seraient en clairement en danger.

Comment associer les grandes compagnies mais aussi les plus petits concepteurs d’IA à la décision pour éviter d’étouffer dans l’œuf toute petite initiative ?

Rémi Bourgeot : Les géants du secteur s’invitent volontiers à la table de la régulation. Sam Altman s’est présenté en héros de la certification des modèles lors de son audition récente au Congrès américain. Cela ne l’a pas empêché de menacer l’UE, à cause de son projet plus strict que les éléments qui circulent aux Etats-Unis. Les géants ont naturellement un intérêt à embrasser une réglementation qui haussent la barre pour les entrants. Les régulateurs doivent prendre en compte le risque de capture réglementaire par les géants.

Cependant, la frontière entre géants et indépendants est troublée par la logique fascinante de l’open source. Le modèle de Meta, LLaMa, est ainsi open source ; ce qui signifie que le monde du développement peut se le réapproprier. Même OpenAI évoque la possibilité de mettre à disposition des modèles open source à l’avenir, en parallèle de son modèle principal. La fiabilisation de la technologie nécessite une implication bien plus large que celles des géants.

Charaf Louhmadi :Il faut voir, dans les sciences et les technologies, leur dimension utile à l’échelle mondiale dans tellement de domaines (santé, transports, éducation…) . Elles permettent d’exprimer la créativité humaine dans « toute sa splendeur ». Il faut à mon avis continuer d’innover, dans les grands groupes et dans les starts-ups (particulièrement active sur ce domaine avec des levées de fonds records lors de ces dernières années). Toutefois, il faut mesurer le potentiel des menaces de ces nouvelles technologies, légiférer correctement et en profondeur, et enfin promouvoir l’IA éthique, en vue de protéger l’humanité. 

L’Europe a montré qu’elle voulait être la première à légiférer tant le sujet prenait l’ampleur. Ne risque-t-elle pas d’aller trop vite ? Peut-elle vraiment mettre à jour une régulation permettant une IA sécurisée et de confiance ?

Rémi Bourgeot : Le sujet est urgent, au regard des risques que pointent les concepteurs mêmes des modèles, qu’il s’agisse de Sam Altman, le patron d’OpenAI, ou de Geoffrey Hinton, « le parrain de l’IA », qui a démissionné de Google pour exprimer ses inquiétudes pour l’humanité. L’UE a commencé son travail de réglementation de l’IA sur la base d’un paysage technologique extrêmement différent de celui que porte les modèles de langage depuis 2017. Au-delà de l’urgence à réguler l’IA, il faut surtout s’y atteler de façon robuste, sur la base de principes résistant à l’épreuve du temps, en particulier sur l’opacité des modèles en termes d’utilisation des données et d’élaboration des résultats.

Charaf Louhmadi :L’Europe a effectivement ouvert le bal réglementaire, au moment même ou les leaders sur le sujet se trouvent essentiellement à l’étranger, aux Etats-Unis par exemple où l’on retrouve les géants comme Google, Méta ou encore le concepteur de ChatGPT OpenAI.

L’Europe doit comprendre en profondeur les sujets relatifs à l’IA, d’autant plus que les géants de la tech réduisent de plus en plus leurs publications scientifiques publiques.  Par exemple, le groupe Alphabet (Google) a limité le nombre de publication d’articles relatifs à l’IA. Pour cause, l’évolution de l’intelligence générative, permettant via l’apprentissage, la création de nouveaux contenus à l’aide d’informations existantes, peut aider le concurrent.

C’est un bon signal que l’Europe veuille donner l’exemple et réguler en premier, cependant elle doit être en mesure de réguler correctement en englobant l’ensemble du spectre des applications de l’IA, cibler les effets néfastes et ne pas en limiter le potentiel utile.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !