Atlantico, c'est qui? c'est quoi ?
Mercredi 22 Novembre 2017 | Créer un compte | Connexion
Extra

Qui sacrifier en cas d'accident ? Si les voitures autonomes sont trop morales, les conducteurs ne monteront pas dedans

Les voitures autonomes seraient l'avenir de la mobilité. Certains cas sont pourtant difficiles à programmer. Il pourrait arriver qu'une voiture autonome doive choisir entre se sacrifier ou renverser des piétons. C'est sujets très sérieux font l'objet de diverses études.

Pas très engageant

Publié le - Mis à jour le 18 Novembre 2016
Qui sacrifier en cas d'accident ? Si les voitures autonomes sont trop morales, les conducteurs ne monteront pas dedans

Atlantico : Vous avez publié une étude qui révèle que les voitures autonomes pourraient vouloir se crasher et blesser leur passager plutôt que de risquer de blesser ou tuer un plus grand nombre de victimes. Pourquoi la question concernant le sacrifice ou non des occupants d'une voiture autonome se pose chez les concepteurs de voitures autonomes ?

Jean-François Bonnefon : Il s'agit d'une sous question de ce sujet des voitures autonomes. La question plus large que les concepteurs se posent, c'est celle du choix que va devoir faire le véhicule autonome dans une situation complétement improbable. Ils doivent penser à une situation très rare ou un accident va être inévitable, mais auquel il existe plusieurs trajectoires possibles que le véhicule autonome pourra emprunter. Pour chacune des trajectoires, il va y avoir des dégâts occasionnés ou des gens seront blessés.

Le problème que les concepteurs cherchent à résoudre, c'est de comprendre comment le véhicule va décider de la trajectoire qu'il va suivre, des victimes qu'il va faire.

Doit-on en déduire que l'intelligence artificielle sera placée en situation de choix moral très difficile à  prendre ?

La question ne se pose pas avec des humains. Quand on est en voiture, on n'a pas conscience qu'on est dans une situation comme celle-là. Si on est conscient de la situation, on doit réagir très vite, en une fraction de seconde. On ne peut pas faire de choix moral, réfléchi. Avec des humains, la question ne se pose pas. Une machine programmée, il faut la programmer, lui dire quoi faire à l'avance afin d'anticiper ce problème.

Avant toute chose, elle va s'arrêter, c'est ce qu'elle doit faire en général. Toutefois, nous  ne pouvons pas imaginer que le problème ne se posera jamais ; à savoir, choisir un tuer des piétons ou alors ses occupants. C'est une situation de dilemme. Quoi qu'il soit décidé, il y aura des victimes. On ne peut pas demander à un humain de se projeter sur ce choix. L'humain n'est pas programmé pour vivre cette situation, à l'inverse des machines que l'on programme pour répondre à des fonctions d'utilité.

Dans quelle mesure pouvons-nous parler de morale utilitariste ?

On parle de morale utilitariste quand on considère que c'est le nombre de personnes sauvées qui doit dicter le comportement de la voiture. Donc du point de vue utilitariste, la voiture sacrifierait les passagers si les piétons sont plus nombreux, et sacrifierait les piétons si les passagers sont plus nombreux

De façon plus générale, pourquoi un individu est prêt à se sacrifier en cas d'accident de la route plutôt que tuer d'autres personnes ?

C'est une des questions posée pour cette étude. Les gens seraient-ils prêts à se sacrifier ? Quand on leur pose cette question morale, il y a un consensus qui se dégage. Les gens seraient prêts à ce que leur voiture les sacrifie si ça peut permettre de sauver la vie du plus grand nombre de personnes.

Dans le cas des voitures autonomes, quelles seraient les conséquences de ce dilemme sur les ventes de ces véhicules ?

C'est le cœur du problème. D'un point de vue moral il serait mieux d'être sacrifié. Mais si c'est pour qu'une fois dans ce cas de figure, la voiture soit programmée pour se sacrifier, alors il vaut mieux ne pas l'acheter. Il y a une situation où l'on ne peut pas gagner.  Si on propose des voitures qui sacrifient leurs conducteurs pour éviter un plus grand nombre de victime, on décourage les acheteurs.

A l'inverse, si on propose des voitures programmées pour sauver leurs passagers, même si ça veut dire risquer de faire un plus grand nombre de morts sur les routes, alors on heurte l'opinion morale du public. Il est très difficile pour les constructeurs d'aborder ce sujet.

Cela constitue-t-il un frein au développement de ces technologies ?

C'est un frein ; mais il faut insister sur le fait qu'il ne faut pas se laisser effrayer par ce sujet. Ce sont des situations qui sont d'une telle rareté qu'avoir peur de passer à une voiture autonome à cause du risque d'être tué pour sauver des piétons, ça veut dire renoncer à une voiture qui est beaucoup plus sûre que toute les voitures que l'on pourrait conduire soi-même.

Quelles seraient les pistes pour rassurer les clients potentiels ?

La piste, c'est de lancer cette conversation. Il ne faut pas laisser aux constructeurs proposer une solution unique, mais il ne faut pas non plus attendre que les gouvernements adoptent des régulations qui soient contre-productives, du point de vue des exigences technologiques que l'on pourrait imposer aux constructeurs. Demander à des constructeurs d'avoir un algorithme parfait de décision morale, ce serait reculer de nombreuses années l'apparition de technologies plus sûres.

Pour rassurer les gens, il faut parler. C'est pour cela que nous avons lancé le site Moral Machine (voir ici : http://moralmachine.mit.edu/). Il permet aux utilisateurs de se familiariser de façon simple avec ces débats et de se faire une idée sur ces questions. Il serait irrationnel de vouloir stopper le développement des voitures autonomes parce qu'on ne sait pas encore répondre à cette question du dilemme moral.

C'est comme une étape inévitable à franchir, au final ?

Est-ce qu'il faut exiger de trancher ce débat tout de suite ? C'est un autre sujet. Si on retarde l'autorisation de voitures autonomes à cause de cette question-là, on risque d'être responsable de plus de victimes et de dégâts parce qu'on aura découragé de nombreuses personnes de travailler sur ces technologies.

Propos recueillis par Nicolas Martinet

 
Commentaires

Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.

  • Par Anouman - 13/11/2016 - 13:11 - Signaler un abus choix

    Il est probable que les cas où la voiture devrait choisir entre passagers et piétons sont rares. Si la voiture n'a pas merdé cela ne doit pas se produire. Sauf si les piétons sont en tort, auquel cas c'est à eux de payer le prix de leur erreur.

  • Par abracadarixelle - 13/11/2016 - 17:17 - Signaler un abus Soyons fous....

    Imaginons que le système calculera l'âge global du contenu du véhicule et celui des piétons.....et sacrifiera le total le plus bas !

  • Par vitruvedd - 14/11/2016 - 20:21 - Signaler un abus sacrifier, c'est rendre sacré

    c'est beau que la notion de sacrifice revienne par le canal de l'industrie automobile et de la modernité!

Pour commenter :

Depuis son lancement Atlantico avait fait le choix de laisser ouvert à tous la possibilité de commenter ses articles avec un système de modération a posteriori. Sous couvert d'anonymat, une minorité d'internautes a trop souvent détourné l’esprit constructif et respectueux de cet espace d’échanges. Suite aux nombreuses remarques de nos lecteurs, nous avons décidé de réserver les commentaires à notre communauté d’abonnés.

Jean-François Bonnefon

Jean-François Bonnefon est docteur en psychologie cognitive et directeur de recherche à TSE (CRM-CNRS-IAST). Il a reçu la médaille de bronze du CNRS, est éditeur associé senior de la revue Cognition, et membre du comité éditorial de plusieurs revues internationales. Ses recherches sont parues dans 100+ publications, dont des articles dans Science, Psychological Science, Psychological Review, et Trends in Cognitive Sciences.

Voir la bio en entier

Je m'abonne
à partir de 4,90€