Cyber-émotions
Pourra-t-on inculquer un sens moral aux robots ?
C'est un vieux rêve, déjà caressé par le romancier Isaac Asimov, le théoricien des "3 lois de la robotique". La réalité est plus complexe : à défaut de pouvoir être une copie conforme de l'homme sur le plan moral, le robot pourra au moins faire semblant.
Edouard Kleinpeter
Edouard Kleinpeter est ingénieur et responsable de la médiation scientifique à l'Institut des sciences de la communication (CNRS, Paris Sorbonne, UPMC). Son dernier ouvrage : L’humain augmenté, CNRS Éditions, coll. "Les Essentiels d’Hermès" paru en 2013.
Laurent Alexandre
Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie.
Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre
Atlantico : Peut-on imaginer attribuer un jour une morale à un robot ? A quel problèmes concrets sera-t-on confronté ?
La moralité des robots est un vieux rêve qu'Isaac Asimov, entre autres, avait déjà essayé de formaliser avec ses fameuses "3 lois de la robotique", censées contraindre les robots à agir de façon morale. Or, toute l'oeuvre et le génie du romancier ont consisté, précisément, à montrer qu'elles étaient insuffisantes.
Je ne pense pas que les robots pourraient un jour être dotés d'une morale au sens où on l'entend. La morale n'est pas un processus que l'on peut retranscrire sous forme d'algorithme. Elle est, de surcroît, historiquement et sociologiquement située (notons qu'une morale qu'on inculquerait à des robots serait, à cet égard, celle de l'homme blanc, occidental et contemporain). Bien que les robots puissent ressentir leur environnement à travers des capteurs, il leur manque l'aspect sensible de ces informations, les pulsions, le rapport au corps, à l'amour, etc. Et puis, comment voulez-vous que des êtres sans sexualité puissent être dotés d'une morale ?
Le développement de robots dont l'apprentissage est autonome ne répond pas à ces impératifs qui permettraient le développement d'une morale intériorisée. Donner l'impression qu'il agit sous une contrainte morale est en revanche possible : il faudrait pour cela que l'homme lui inculque au préalable la manière d'envisager chacune des situations, avec la ou les réactions "morales" à avoir, ou encore la possibilité de faire des analogies entre elles.
A quoi la morale d'un robot pourrait-elle ressembler ?
Dans quel cas un sens moral pourrait-il être utile aux robots ? Quelles situations ?
Laurent Alexandre : Quand une Google Car devra choisir entre écraser une vieille dame a gauche ou deux enfants de 8 ans sur la droite en cas de panne de frein… Il faudra bien des principes moraux. Vaut-il mieux deux morts ou un ? Une vie de vieillard vaut-elle une vie d’enfant ? La robotique va nous obliger à clarifier nos propres valeurs morales !
Implanter une morale autonome est un peu effrayant... Doit-on craindre une plus grande autonomie des robots ?
Laurent Alexandre : Les dangers sont multiples. On peut imaginer plusieurs scénarios noirs :
- Les militaires développent en secret une IA hostile pour acquérir la suprématie militaire. Les robots dotés d’IA acquièrent une autonomie non prévue par les militaires et deviennent hostiles y compris à l’armée qui les a fait naître. De ce point de vue, on doit être inquiet de la collaboration entre le moteur de recherche Baidu et les militaires chinois pour mettre au point une IA forte.
- De grandes sociétés, par exemple les GAFA, développent des robots intelligents pour développer des tâches très compliquées – robots médecins, robots pilotes… Et ces machines finissent par coopérer et s‘autonomiser. Ultérieurement, elles nous deviennent hostiles.
En fait nous risquons de développer des automates intelligents sans bien évaluer le risque qu’ils pourraient nous faire courir. Si nous voulons faire reculer la mort, il va falloir développer une IA extrêmement puissante car la biologie du vieillissement est ultra-complexe. Cette IA pourrait s’autonomiser… Faudra-t-il choisir entre rester mortel et développer une IA potentiellement hostile ?
Où en est la recherche en la matière, quelles sont les avancées les plus prometteuses ?
Laurent Alexandre : Nous ne sommes qu’au début des réflexions sur ce sujet. Elon Musk, le fondateur de Tesla et Space X, a donné 10 millions de dollars pour accélérer les travaux sur les moyens de contrôler l’IA dans le futur.
Les chercheurs envisagent plusieurs possibilités :
- Interdire sur toute la planète l’IA. Cela ne paraît pas réaliste. Jamais les États-Unis ou la Chine n’accepteront de brider leur puissance technologique au nom de ce type de moratoire.
- Construire des circuits intégrés spéciaux dans lesquels les lois d’Asimov, interdisant aux robots d’attaquer les humains, seraient codées en dur.
- La troisième solution est la plus effrayante pour l’Homme de 2015 : le neuro-enhancement ! Pour être à la hauteur des automates, Google propose de nous hybrider avec l’IA : devenir cyborg pour ne pas être dépassé par l’IA et les robots ! Ray Kurzweil, de Google, a déclaré que nous utiliserons des nanorobots intracérébraux branchés sur nos neurones pour nous augmenter dès 2035. Il s’agira d’éviter d’être inférieur aux machines, au risque de devenir leurs esclaves dans un scenario à la Matrix. Les technologies d’augmentation seront le seul moyen d’espérer conserver une certaine d’autonomie.
Comme vous le voyez, il n’y a pas de solutions simples !
En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.
Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !