La science-fiction, c'est maintenant et l'ONU ferait bien de s'attaquer au problème des robots tueurs avant qu'il ne soit trop tard<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
La science-fiction, c'est maintenant et l'ONU ferait bien de s'attaquer au problème des robots tueurs avant qu'il ne soit trop tard
©

Terminator

Immoraux, non-éthiques et surtout hautement imprévisibles (et donc dangereux), les robots tueurs pourraient bien envahir nos champs de bataille. L'ONU dispose de quelques outils pour limiter leur propagation, mais ne pourra pas l'empêcher complètement.

Michel Volle

Michel Volle

Michel Volle est économiste français.

Diplômé de l'École Polytechnique et de l'École Nationale de la Statistique et de l'Administration Économique, il est l'auteur d'un blog dédié à l'actualité économique.

Voir la bio »

Atlantico : Dans le cadre d'une conférence donnée au milieu du mois de décembre à l'ONU, la question du désarmement et des "armes létales autonomes" a été abordée. Plusieurs observateurs soulignent le risque de dystopie liée à ces armes robotisées. De quoi s'agit-il précisément ? Doit-on s'attendre, à l'avenir, à des situations tout droit tirées de films de science-fiction comme Terminator ?

Michel Volle : Il s'agit de confier à des robots, et au logiciel qui les équipe, le soin de distinguer les "amis" des "ennemis", puis d'exterminer ces derniers ou du moins de les réduire à l'impuissance. 

Il n'y a rien là de fondamentalement nouveau : la formation des SS transformait des êtres humains en robots tueurs, il en est de même aujourd'hui avec la formation des soldats de Daesh. Par ailleurs, le bombardement des grandes villes pendant la Deuxième Guerre mondiale a tué des civils de façon indifférenciée. 

La nouveauté réside dans l'automatisation de l'acte de tuer, le choix de la cible étant confié à l' "intelligence artificielle" d'un logiciel. Une telle nouveauté révolte le sens moral mais elle n'est pas plus révoltante que le bombardement des grandes villes évoqué ci-dessus, ou la dissémination de mines qui, des années plus tard, tuent encore des civils. 

Comment fonctionneraient de telles machines ? A qui échoit, par exemple, le rôle de décision ? Comment pourraient-elles être en mesure de discerner un ennemi d'un allié ? Peut-on vraiment se fier à une forme d'intelligence artificielle seule, tout aussi pertinente ou efficace qu'elle soit, pour mener à bien des missions guerrières ?

Une arme pilotée à distance, comme le sont les drones tueurs, n'est pas un robot puisqu'elle n'est pas programmée pour prendre elle-même la décision de tuer. Le robot tueur est autonome. 

L'ennemi se distingue de l'ami par son apparence physique, les armes qu'il tient en main et, parfois, sa position dans l'espace géographique. Des erreurs sont possibles mais elles le sont déjà lorsque le tueur est humain (on parle alors de "tirs amis").

Les robots pourront exécuter des missions guerrières qui ne réclament pas les qualités que seule l'intelligence humaine possède : la capacité à interpréter un événement imprévisible, à évaluer des cas particuliers, à faire oeuvre de jugement. C'est le cas, par exemple, des missions de bombardement : les bombardiers de la Seconde Guerre mondiale auraient sûrement été robotisés si la technique avait été disponible.

D'un point de vue éthique, quels sont les problèmes que cela soulève ? Comment limiter au maximum l'utilisation de robots guerriers ? Qu'est-ce que l'ONU pourrait être en mesure de faire dans une telle situation ?

Toutes les armes posent un problème éthique, et ce problème se manifeste chaque fois qu'une arme nouvelle apparaît : l'arbalète, dont les traits peuvent percer les armures, a été jugée immorale en son temps; puis ce fut le cas des armes à feu, et, plus récemment, de l'arme nucléaire. 

Il est possible de contenir l'usage des armes nouvelles mais non de l'empêcher entièrement : les gaz de combat sont interdits mais Saddam Hussein et Bachar al Assad les ont quand même utilisés. Une des raisons de leur interdiction, c'est qu'ils pouvaient se retourner contre celui qui les avait utilisés et il en est de même de l'arme bactériologique. 

Les robots peuvent-ils eux aussi se retourner contre leurs maîtres humains ? C'est le thème de nombre de dystopies. Comme tout logiciel, celui d'un robot comportera des bogues, et dans certaines circonstances, son comportement sera imprévisible. Mais n'en est-il pas de même avec n'importe quelle arme ?

L'ONU doit bien sûr interdire la conception et l'utilisation des robots tueurs. Ils seront quand même conçus et utilisés, mais à moindre échelle : ainsi leurs effets seront limités, c'est tout ce que l'on peut espérer. 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !