"Dilemme Terminator" : le Pentagone prépare des robots autonomes qui peuvent tuer<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
"Dilemme Terminator" : le Pentagone prépare des robots autonomes qui peuvent tuer
©

IIIème guerre

Le Pentagone a mis l'intelligence artificielle au cœur de sa stratégie de défense à long terme. Les problèmes sont non seulement techniques mais éthiques.

Le Pentagone a mis l'intelligence artificielle au coeur de sa stratégie pour maintenir sa dominance technologique et militaire sur les autres forces armées du monde, un choix qui est passé relativement inaperçu au-delà des cercles de défense. 

Dans une enquête du New York Times, la Darpa, l'organisme de recherche et développement du Département de la Défense américain, fait une démonstration d'un drone d'un nouveau type. L'appareil lui-même est très simple, du genre que M. Toulemonde peut acheter dans le commerce. Mais son logiciel est différent. Il vole entre les maisons d'un village arabe en carton-pâte, et son logiciel de reconnaissance des objets identifie chaque soldat. Le logiciel arrive à différencier les civils des militaires. Il arrive même à identifier un journaliste qui brandit un appareil photo, et pas une arme, alors que plusieurs soldats humains ont déjà fait la même erreur. Le drone n'est pas armé, mais il n'y a aucune raison technique qu'il ne puisse pas l'être. 

Le Pentagone, qui consacre 3 milliards de dollars à la "collaboration humain-machine au combat", conçoit et teste également des avions robotiques qui accompagnent les avions à pilote, des missiles qui décident d'eux-mêmes quelles cibles attaquer, et des vaisseaux autonomes qui traquent des sous-marins sur des milliers de kilomètres, sans aucune aide humaine. 

La nouvelle stratégie porte le nom de "Combat Centaure", pour évoquer une alliance symbiotique entre l'homme et la machine, où les éléments technologiques décupleraient la puissance des hommes sans les supplanter, comme l'alliance entre l'homme et l'animal des personnages de la mythologie grecque.

C'est une réponse à ce que les experts du Pentagone appellent en interne le "Dilemme Terminator" : doit-on, peut-on, construire des systèmes d'armes autonomes qui peuvent prendre seuls la décision de tuer ? 

Selon toute probabilité, un pays ou une organisation déploiera "quelque chose comme un Terminator", explique le général Paul J. Selva, chef d'état-major adjoint des forces armées américaines. Il a déclaré récemment que les États-Unis auraient la technologie pour construire un robot complètement indépendant qui peut décider lui-même de qui tuer et quand dans environ une décennie, mais que le Pentagone n'a pas l'intention d'en construire. 

Dans une lettre ouverte publiée l'année dernière, des centaines de scientifiques et d'experts ont publié une lettre ouverte appelant à une limitation des armes autonomes. "Les armes autonomes deviendront les Kalashnikov de demain", avertissent les auteurs. 

Officiellement, la politique du Pentagone est de fabriquer des armes à capacités autonomes, mais toujours placées sous contrôle humain. Pour les décisions de vie et de mort, "il y aura toujours un homme dans la boucle", explique Robert O. Work, secrétaire adjoint à la Défense. La métaphore est moins Terminator qu'Iron Man.

Cependant, en ce qui concerne ces technologies, les États-Unis sont loin d'avoir le monopole. Des technologies équivalentes sont en développement un peu partout, dans le secteur privé comme le secteur public, y compris, par exemple, en Chine et en Israël. Dans le contexte d'une course à l'armement face à un rival hostile, voire d'une guerre, les États-Unis ne pourraient pas forcément se permettre le luxe de tels dilemmes éthiques. 

En attendant, qu'on se le tienne pour dit : l'intelligence artificielle est désormais au coeur des enjeux de la guerre du 21ème siècle. 

Lu sur le New York Times

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !