Atlantico, c'est qui? c'est quoi ?
Mercredi 19 Septembre 2018 | Créer un compte | Connexion
Extra

Pourra-t-on inculquer un sens moral aux robots ?

C'est un vieux rêve, déjà caressé par le romancier Isaac Asimov, le théoricien des "3 lois de la robotique". La réalité est plus complexe : à défaut de pouvoir être une copie conforme de l'homme sur le plan moral, le robot pourra au moins faire semblant.

Cyber-émotions

Publié le - Mis à jour le 24 Avril 2015
Pourra-t-on inculquer un sens moral aux robots ?

Un robot humanoide. Crédit Reuters

Atlantico : Peut-on imaginer attribuer un jour une morale à un robot ? A quel problèmes concrets sera-t-on confronté ?

Edouard Kleinpeter : Tout d'abord, l'idée que les robots pourraient développer une morale présuppose une certaine conception de l'intelligence et de la conscience, à savoir qu'elles seraient, non pas des caractéristiques propres au biologique, mais des propriétés émergentes de l'interaction de plusieurs entités informationnelles. Ce premier point est, déjà, en soi contestable.

La moralité des robots est un vieux rêve qu'Isaac Asimov, entre autres, avait déjà essayé de formaliser avec ses fameuses "3 lois de la robotique", censées contraindre les robots à agir de façon morale. Or, toute l'oeuvre et le génie du romancier ont consisté, précisément, à montrer qu'elles étaient insuffisantes.

Je ne pense pas que les robots pourraient un jour être dotés d'une morale au sens où on l'entend. La morale n'est pas un processus que l'on peut retranscrire sous forme d'algorithme. Elle est, de surcroît, historiquement et sociologiquement située (notons qu'une morale qu'on inculquerait à des robots serait, à cet égard, celle de l'homme blanc, occidental et contemporain). Bien que les robots puissent ressentir leur environnement à travers des capteurs, il leur manque l'aspect sensible de ces informations, les pulsions, le rapport au corps, à l'amour, etc. Et puis, comment voulez-vous que des êtres sans sexualité puissent être dotés d'une morale ?
Le développement de robots dont l'apprentissage est autonome ne répond pas à ces impératifs qui permettraient le développement d'une morale intériorisée. Donner l'impression qu'il agit sous une contrainte morale est en revanche possible : il faudrait pour cela que l'homme lui inculque au préalable la manière d'envisager chacune des situations, avec la ou les réactions "morales" à avoir, ou encore la possibilité de faire des analogies entre elles.
 
Laurent Alexandre : Ce n’est pas le robot qui sera porteur d’une morale mais l’Intelligence Artificielle (IA) qu’il hébergera. Le robot ne sera que l‘effecteur mécanique de l’IA.
 
L’Intelligence Artificielle (IA) est longtemps restée un sujet de science-fiction. Elle est désormais une simple question de calendrier : l’explosion des capacités informatiques (la puissance des serveurs informatiques a été multipliée par 1 milliard en 31 ans) rend probable l’émergence d’une IA supérieure à l’intelligence humaine dans les prochaines décennies. Nous avons fêté hier, dimanche 19 avril 2015, le 50eme anniversaire de la loi de Moore. GAFA (Google, Apple, Facebook, Amazon) ainsi qu’IBM y investissent massivement mais Google est le plus avancé. Selon Ray Kurzweil, l’ingénieur en chef de Google, une IA dotée d’une conscience et 1 milliard de fois plus puissante que la réunion de tous les cerveaux humains devrait écraser l’intelligence humaine dès 2045. « Nous ferons des machines qui raisonnent, pensent et font les choses mieux que nous le pouvons » a expliqué il y a quelques semaines Sergei Brin, le co-fondateur de Google. La question de la morale des robots intelligents deviendra brulante dans les années qui viennent.
 

A quoi la morale d'un robot pourrait-elle ressembler ?

Laurent Alexandre : Les avis sont très tranchés sur cette question. Certains philosophes estiment que l’IA n’aura jamais de conscience d’elle même et donc n’aura pas besoin de morale.
 
A l’opposé, les transhumanistes pensent que les technologies NBIC (Nanotechnologies, Biotechnologies, Informatiques et Cognitique) vont faire émerger avant 2050 une IA forte dotée de conscience… et qu’il est donc urgent d’y réfléchir !
 
Dans un premier temps les robots auront la morale qu’on leur aura inculquée en écrivant le code de leur IA. Big Dog le robot militaire développé par Google pour le compte de l’armée américaine tuera des civils si on le code à cette fin. Il ne décidera pas. En tous cas pas la version actuelle.
 
A l’horizon 2050, il est possible que les robots puissent faire évoluer leur code informatique et donc découvrir, par tâtonnement, des valeurs morales peut-être très différentes des nôtres.
 

Dans quel cas un sens moral pourrait-il être utile aux robots ? Quelles situations ?

Laurent Alexandre : Quand une Google Car devra choisir entre écraser une vieille dame a gauche ou deux enfants de 8 ans sur la droite en cas de panne de frein… Il faudra bien des principes moraux. Vaut-il mieux deux morts ou un ? Une vie de vieillard vaut-elle une vie d’enfant ? La robotique va nous obliger à clarifier nos propres valeurs morales !

 
Commentaires

Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.

  • Par cloette - 20/04/2015 - 08:57 - Signaler un abus L'algorithme

    Il ne peut y avoir d'algorithmes pour la morale ( il y a plusieurs morales d'ailleurs liées au temps et à l'espace ) , ni au génie humain, il n'y aura jamais de robot créateur , ni peintre ni musicien ni écrivain génial, et le robot ayant pris la place de l'homme , qu'en conclure ?

Pour commenter :

Depuis son lancement Atlantico avait fait le choix de laisser ouvert à tous la possibilité de commenter ses articles avec un système de modération a posteriori. Sous couvert d'anonymat, une minorité d'internautes a trop souvent détourné l’esprit constructif et respectueux de cet espace d’échanges. Suite aux nombreuses remarques de nos lecteurs, nous avons décidé de réserver les commentaires à notre communauté d’abonnés.

Edouard Kleinpeter

Edouard Kleinpeter est ingénieur et responsable de la médiation scientifique à l'Institut des sciences de la communication (CNRS, Paris Sorbonne, UPMC). Son dernier ouvrage : L’humain augmenté, CNRS Éditions, coll. "Les Essentiels d’Hermès" paru en 2013.

Voir la bio en entier

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 

Voir la bio en entier

Je m'abonne
à partir de 4,90€