Une étude de la Rand corporation suggère que l’intelligence artificielle pourrait provoquer la fin de l’humanité... aussi tôt qu’en 2040<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Science
Une étude de la Rand corporation suggère que l’intelligence artificielle pourrait provoquer la fin de l’humanité... aussi tôt qu’en 2040
©Pixabay - Hucky

Apocalypse selon IA

Un rapport alerte sur les risques présentés par l'intelligence artificielle et sur le risque d'un conflit nucléaire dans les prochaines décennies.

Corentin  Brustlein

Corentin Brustlein

Corentin Brustlein est responsable du Centre des études de sécurité à l'Ifri et travaille sur la politique de défense des Etats-Unis, les processus d'adaptation et de transformation des armées, les opérations militaires contemporaines, les postures nucléaires et les défenses antimissiles.

Voir la bio »

Atlantico : La Rand corporation alerte sur les risques présentés par l'intelligence artificielle pouvant conduire vers un conflit nucléaire dans les prochaines décennies. Que pensez-vous de ce rapport ? Quels sont les véritables risques de l'IA dans le domaine du nucléaire ?

Corentin Brustlein : Le rapport est intéressant car il met le doigt sur plusieurs risques pouvant être causés par le rôle grandissant de l'intelligence artificielle dans les forces armées et les postures militaires, et notamment sur l'impact de ce rôle sur les forces nucléaires. Deux risques spécifiques sont saillants : d'abord, on pense que l'IA va renforcer les capacités de renseignement et de discrimination des armées, ce qui pourrait décupler leur efficacité pour certaines missions jusqu'à présent très complexes telles que les frappes contre les lanceurs mobiles de missiles balistiques. En rendant plus vulnérables des systèmes jusqu'alors considérés comme relativement protégés, qu'ils soient terrestres ou sous-marins, les moyens de renseignement appuyés par l'intelligence artificielle affaibliraient la dissuasion nucléaire en exacerbant les craintes des puissances nucléaires quant à la protection de leur arsenal, et pourraient pousser ces puissances à recourir de manière plus rapide à l'arme nucléaire.

L'autre risque exposé par le rapport concerne l'aide à la décision, qui représente un autre domaine dans lequel l'IA devrait jouer un rôle important à l'avenir. Ici, le risque est moins le scénario fantasmé de systèmes autonomes tout puissants déclenchant le feu nucléaire hors de tout contrôle humain, mais plutôt celui de voir des décisions humaines de plus en plus dépendantes d'intelligences artificielles restant par essence faillibles, et pouvant de surcroît être la cible d'actions hostiles: hacking, manipulation, déception, etc. Cela ne signifie nullement que la guerre nucléaire s'ensuivrait nécessairement, mais cela peut perturber les mécanismes de gestion d'une crise et rendre le processus d'escalade entre deux puissances nucléaires plus imprévisible et encore moins "contrôlable" - bien qu'on puisse douter que ce processus soit aussi "contrôlable" que certains le pensent, par exemple aux Etats-Unis ou en Russie.

On notera enfin que ces risques ne sont que des illustrations de ce que pourrait être l'interaction entre IA et forces nucléaires. On peut en imaginer bien d'autres, mais en définitive leur caractère plus ou moins préoccupant dépendra dans une large mesure des avancées futures dans le domaine de l'IA et des choix doctrinaux et programmatiques qui seront faits par les Etats.

Comment les États peuvent-ils s'adapter et en quoi cela peut modifier leur doctrine de dissuasion nucléaire ?

Il est encore tôt pour le dire, mais il faut garder à l'esprit que l'on parle ici d'évolutions supposées survenir à un horizon de 20 ans et plus. L'IA a beau avoir connu des avancées spectaculaires ces dernières années, il n'est pas garanti qu'elles se poursuivent à un tel rythme à l'avenir. Le rapport est d'ailleurs prudent sur les risques qu'il identifie, et rappelle qu'aucun consensus ne s'est dégagé entre les participants aux séminaires ayant préparé ce rapport.

Ensuite, il existe des moyens de limiter certains des risques évoqués par le rapport, par exemple dans le domaine de l'aide à la décision. Il est certes probable que des IA seront de plus en plus sollicitées dans une fonction d'aide à la décision dans le domaine militaire conventionnel, à l'échelle du champ de bataille. Mais quel serait l'intérêt d'un tel recours à des IA pour des décisions à très haut niveau ? C'est une chose de s'en remettre à l'IA lorsque les paramètres techniques et tactiques sont relativement connus et peu nombreux et que les risques pris sont circonscrits à une zone précise. Je doute que quiconque envisage de s'appuyer sur une IA pour des choix de nature politico-stratégiques, reposant sur des données plus variées et plus complexes. On voit mal ce qui pousserait des décideurs politiques à affaiblir de facto leur autonomie de décision et d'appréciation pour les choix déterminants tels que la gestion d'une crise et l'entrée en guerre, a fortiori dans le domaine du nucléaire, c'est-à-dire dans des circonstances où les intérêts vitaux seraient menacés. Partant de là, le risque posé par une manipulation de l'IA paraît nettement moins grand.

Enfin, les puissances nucléaires ne seraient pas non plus démunies face au type d'évolutions pouvant mettre en doute l'invulnérabilité de leurs forces de représailles. L'IA peut s'avérer utile en appui de missions offensives, mais elle peut aussi bien être mise au service de la protection des forces nucléaires. Une IA peut être employée à scruter plus en finesse un théâtre d'opération pour y trouver des unités adverses, mais elle peut aussi être utilisée par le défenseur pour contrer les capacités d'observation ou de frappe adverses - on se souviendra que la recherche de moyens de neutralisation des dispositifs de renseignement américains est depuis longtemps un axe d'effort majeur de la Russie et de la Chine.

Comment les risques de prolifération nucléaire toujours plus importants (Iran, Corée du Nord...) et l'intelligence artificielle, peuvent modifier le paysage nucléaire mondial ?

L'une des conclusions du rapport est que l'introduction de l'IA est porteuse de risque pour la stabilité stratégique. Derrière cette formule, on retrouve l'idée que si les puissances nucléaires craignent pour la capacité de leur arsenal nucléaire à résister à une attaque adverse, elles seront incitées à recourir à l'arme nucléaire plus tôt dans une crise, potentiellement de manière précipitée. Le risque réside ainsi dans le fait que le temps traditionnellement requis pour une résolution pacifique de la crise et pour une "désescalade" diplomatique des tensions pourrait être compressé par des impératifs opérationnels.

Il n'existe à ma connaissance pas d'étude approfondie examinant ce que l'IA pourrait changer dans le domaine de la prolifération nucléaire, c'est-à-dire pour faciliter la tâche d'Etats ou d'acteurs non-étatiques désireux de développer un programme d'armement nucléaire. A priori l'IA ne paraît pas en mesure de révolutionner ce domaine, et de permettre à des candidats à la prolifération de lever les lourdes barrières se dressant sur leur chemin, ayant trait à l'accès aux matières fissiles, à la maîtrise de la physique nucléaire et de l'ingénierie de systèmes complexes, le tout sous le regard d'organisations internationales et d'agences de renseignement.

De manière générale, le paysage nucléaire mondial a été extrêmement résilient face aux ruptures technologiques apparues au cours des 70 dernières années - notamment la numérisation des sociétés. L'impact sur les équilibres stratégiques ou les forces nucléaires n'a pas été nul, mais les changements survenus se sont étalés sur de longues durées, et rien ne permet de penser qu'il en ira différemment dans le domaine de l'IA.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !