Comment les géants de l’IA tentent de peser sur l’élaboration de la réglementation européenne<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Comment les géants de l’IA tentent de peser sur l’élaboration de la réglementation européenne
©Clement MAHOUDEAU / AFP

Régulation

Sam Altman, patron d'OpenAI mais aussi Google, espèrent une législation favorable de la part de l'Union européenne.

Rémi Bourgeot

Rémi Bourgeot

Rémi Bourgeot est économiste et chercheur associé à l’IRIS. Il se consacre aux défis du développement technologique, de la stratégie commerciale et de l’équilibre monétaire de l’Europe en particulier.

Il a poursuivi une carrière d’économiste de marché dans le secteur financier et d’expert économique sur l’Europe et les marchés émergents pour divers think tanks. Il a travaillé sur un éventail de secteurs industriels, notamment l’électronique, l’énergie, l’aérospatiale et la santé ainsi que sur la stratégie technologique des grandes puissances dans ces domaines.

Il est ingénieur de l’Institut supérieur de l’aéronautique et de l’espace (ISAE-Supaéro), diplômé d’un master de l’Ecole d’économie de Toulouse, et docteur de l’Ecole des Hautes études en sciences sociales (EHESS).

Voir la bio »

Atlantico : Sam Altman, le patron d'OpenAI, a menacé de quitter l'Europe si la législation communautaire était trop restrictive, avant de revenir sur ses propos. Que reproche-t-il à l’Europe et que souhaite-t-il ?

Rémi Bourgeot : En premier lieu, Sam Altman s’est montré favorable à la régulation, face aux risques existentiels de l’IA, lors d’une importante audition au Congrès américain. Il soutient en particulier la mise en place d’un système de licences pour les modèles d’IA qui dépasseraient un certain seuil de capacité. De cette façon, il s’attire les grâces du système législatif en affirmant son sens de l’intérêt commun et, simultanément, il encourage des réglementations qui haussent la barre pour les nouveaux entrants. 

Le projet de réglementation européen met aussi l’accent sur la certification. Celui-ci est cependant plus avancé et plus contraignant que les premiers éléments qui circulent aux Etats-Unis. En cela il inquiète OpenAI et tous les géants numériques.

L’AI Act européen a d’abord été pensé avant la prise de conscience du potentiel d’unification porté par les modèles de langage, qui ont permis l’explosion actuelle de l’IA générative, en traitant tous types de contenu comme du langage. L’UE a fondé son approche sur divers niveaux de risque en fonction des applications de l’IA, d’un inoffensif filtre de spams à l’inacceptable reconnaissance faciale. Puis a été prise en compte la question des modèles de fondation (auxquels se rattachent l’IA générative), qui feront l’objet de contraintes particulièrement strictes, en raison de la multitude d’usages et du niveau de manipulation qu’ils permettent. 

Sur le plan de la certification, l’UE contraint notamment le partage et la réutilisation de modèles, pour des raisons sécuritaires, mais d’une façon qui sera vue comme problématique aux Etats-Unis, du point de vue de l’innovation et du développement de la concurrence. A cela s’ajoute une bonne dose d’extra-territorialité, qui soulèvera des questions de cohérence entre les diverses réglementations dans le monde.

En plus de l’imposition de licences, l’AI Act de l’UE cible l’opacité des modèles du point de vue de l’utilisation des données, par exemple sur le respect du copyright et l’affichage des sources principales utilisées par les modèles. Cette approche réglementaire questionne la nature même des systèmes d’IA, dont la structure est optimisée sans qu’on en saisisse les diverses ramifications. 

Cela remet d’autant plus en cause le fonctionnement des géants du secteur, dont OpenAI fait partie avec le soutien de Microsoft. OpenAI ne divulgue pas la nature de la base de données utilisée par GPT ni même désormais le nombre de paramètres qui entrent en jeu.

Dans quelle mesure l’Europe a-t-elle intérêt ou non à se conformer à ses attentes ? Quelles seraient les conséquences pour l’UE si OpenAI quittait vraiment le territoire européen ?

Il est difficile pour un géant de l’IA de simplement fuir l’Europe dans la durée. La réglementation européenne ciblera les modèles qui sont mis à disposition des usagers européens, d’où qu’ils opèrent et imposera un lourd processus de certification, dans tous les cas. 

Google a fait le choix, par exemple, de ne pas mettre son propre chatbot, Bard, à disposition du marché européen, pour l’instant, en dehors curieusement de quelques territoires quasi-déserts en Norvège (hors-UE). Il s’agit à la fois d’une précaution face aux réglementations existantes, comme celle sur les données (RGPD), et d’un signal envoyé aux autorités européennes quant à l’orientation de l’AI Act, en gestation.

La question de la réglementation de l’IA générative est cruciale et la sphère politique commence à peine à l’appréhender, alors que le secteur connaît des bouleversements à un risque quasi-hebdomadaire. Tous les géants numériques s’impliquent dans cette sorte de négociation ou de bras de fer avec les autorités européennes. Comme avec la RGPD, l’UE a tendance à fixer des normes qui font référence et influence le reste du monde, notamment du fait des répercussions directes de ces régulations sur ce marché global. Finalement, Sam Altman a confirmé son projet d’une implantation en Europe, qui est concrètement plus avantageuse pour ces groupes que de subir la réglementation européenne à distance du marché local.

Quels sont les risques à mettre en place des lois trop restrictives en matière d’intelligence artificielle ? 

Le milieu de l’open source bouleverse l’IA générative aux Etats-Unis, en développant des modèles plus flexibles et légers en données et ressources de calcul. Récemment, une note interne de Google sonnait l’alarme face au potentiel de ces acteurs tiers de l’IA, dont l’inventivité et la réactivité dépassent celles des géants. L’Europe, avec son déficit chronique de financements pour les startups, aurait le potentiel de devenir un acteur important de l’IA, sur la base de la dynamique open source. Contrairement à ce que font penser les annonces de milliards déversés par les géants de la tech et du capital-risque, le développement de modèles d’IA générative devient de plus en plus accessible, grâce à la disponibilité d’outils à distance. 

Les régulateurs européens sont bien inspirés de vouloir cadrer le développement de l’IA générative, sur la question des données et des usages criminels. Pour autant, ils doivent se garder d'étouffer en même temps l’émergence d’acteurs nouveaux, européens en particulier, et les plateformes qu’ils utilisent. On risque de neutraliser ce dynamisme par la menace d’amendes démesurées, qui font fuir les financements, ou en rendant les auteurs des modèles responsables de toutes les utilisations qui en sont faites de façon trop systématique. Cette fragilisation de l’open source que pourrait entraîner la réglementation européenne, à la fois aux Etats-Unis et en Europe, risque d’accroître la concentration du secteur et de freiner la fiabilisation des modèles que permet une approche plus ouverte que celle des géants. 

La question de la réglementation idéale, entre le risque de dérives criminelles voire apocalyptiques et le besoin d’ouverture et de transparence, est particulièrement difficile. Au vu de l’effervescence de l’IA open source, cet enjeu de contrôle remet en cause le statut même d’internet et son niveau d’ouverture. Créer des exemptions pour la R&D, comme le prévoit l’AI Act, n’est probablement pas suffisant, au regard de la réalité morcelée et informelle du milieu du développement. Un compromis pourrait consister à exercer effectivement un contrôle des modèles de portée générale au moyen de licences, mais en fournissant un soutien inégalé aux petits acteurs du milieu pour relever le défi.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !