Et si vous deviez prouver que vous n'étiez pas un robot, comment vous y prendriez-vous ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Science
 Et si vous deviez prouver que vous n'étiez pas un robot, comment vous y prendriez-vous ?
©Reuters

Bit

Chaque année des robots ultra perfectionnés en intelligence artificielle et vrais gens participent à une compétition dont l'objet est de prouver qui a l'air le plus humain

Jean-Paul Truc

Jean-Paul Truc

Jean-Paul Truc est actuellement rédacteur en chef de la revue de Mathématiques Quadrature

Voir la bio »

Atlantico : Une machine peut-elle penser?" Telle était la question qui taraudait Alan Turing, célèbre mathématicien anglais connu pour être l'un des pères de l'ordinateur moderne. Afin de trouver une réponse, il élabora un test au principe simple : un jury pose des questions, par le biais d'un ordinateur, à deux correspondants cachés. Celui-ci doit deviner lequel est humain, et lequel est un logiciel. Il estimait qu'ici les années 2000, les ordinateurs seraient capable de duper 30% des humains. Qu'en est-il, aujourd'hui, de cette affirmation? Existe-il déjà des intelligences artificielles capable de duper un être humain?  

Jean-Paul Truc : Pour le grand public, la chose semble acquise ; il suffit par exemple de visionner le film HER de Spike Jones (sorti en 2012) où le héros Théodore Twombly tombe   amoureux du système d'exploitation de son ordinateur, baptisé par lui Samantha, et où cet amour est payé de retour par le logiciel, doté ici de la capacité d'intelligence et de sentiment, caractéristique ultime de l'être humain. 

La réalité est bien différente. Le système le plus avancé à l'heure actuelle qui est WATSON d'IBM, ainsi nommé d'après le nom du fondateur, ne passerait pas aujourd'hui le test de Turing (ou Imitation Game ) . Toutefois WATSON  a gagné en 2011 au jeu télévisé JEOPARDY où les questions étaient posées en langage naturel, ce qui montre des progrès significatifs. Mais the Imitation Game n'est qu'accessoire pour les chercheurs d'IBM qui ont des buts plus élévés : Aujourd'hui il se publie en oncologie plus d'article chaque semaine que ce qu'un médecin peut humainement lire... Seul un système d''intelligence artificielle peut répondre aux questions des médecins    en langage courant, effectuer les recherches dans cette énorme base de données et conseiller le praticien : Watson le fait aujourd'hui. Il existe un  prix Loebner créé en 1990 pour récompenser le meilleur logiciel de conversation générale, mais on est loin du test de Turing même pour les meilleurs. De plus ce prix ou ce concours est pour certains chercheurs aux vues plus élevées pernicieux : pour faire illusion dans une conversation vous allez programmer  des astuces 

du genre se tromper volontairement en retenant une liste de cent noms, pour faire croire à une présence humaine plutôt qu'une machine, ou bien prendre du temps pour répondre à un problème de calcul... Cela semble un challenge bien dérisoire par rapport à la lutte contre le cancer que nous venons d'évoquer . Pour les (bons) informaticiens Le test de Turing n'est plus un but en soi. Il sera sans doute atteint un jour par la bande (encore faudra-t-il programmer le sentiment et pas seulement la réflexion pour cela)  mais l'IA vise aujourd'hui à aider l'homme pour des tâches plus urgentes et mieux ciblées.    Il faut aussi signaler qu'alors que de petites astuces doivent se programmer, une machine intelligente peut s'auto perfectionner au fil du temps  et de ses expériences : c'est le deep learning, qui est sans doute l'innovation la plus en vogue à l'heure actuelle. 

Enfin il y a un aspect social du test de Turing : le test de Turing est-il encore un test d'intelligence valable  dans une société  éclatée où l'acart entre les individus peut être considérable ? 10% des ados ne possèdent qu'un langage limité de 500 mots de français. Avec cette base de données dérisoire ils ne passeront certainement pas le test. Alors, le Juge sera-t-il autorisé à les déclarer sans intelligence, bien que cela soit interdit aux professeurs  et effectivement peu souhaitable ? 

Quels peuvent être les dangers à développer des intelligences artificielles suffisamment perfectionnées pour se comporter en humain? Sommes-nous capable de poser une limite?

Les dangers sont multiples : 

L'intelligence artificielle reste un logiciel, et un logiciel s'infecte par des virus, comme un humain malade. Une maladie analogue à une affection psychique peut donc en théorie infecter un système et s'y développer, surtout si elle bénéficie elle même de technique d'auto apprentissage. Nous risquerions d'avoir une intelligence vulnérable à des atteintes extérieures. Cela peut être risqué si on a confié à un système expert la gestion d'une centrale par exemple. 

Il y a un risque de déresponsabilisation de l'homme (par exemple du praticien) qui peut perturber son intuition par exemple pour un médecin. Cela est d'ailleurs visible dans notre société où les gens sont de plus en plus assistés par des « appli » par exemple, une enquête aurait montré une baisse du QI de plus de 3%. Et si c'était l'influence de ces aides pour la décision, trouver le billet le moins cher à votre place, le meilleur produit, etc. ? Certaines personnes ne réfléchissent plus assez surtout si elles n'ont pas un métier dit intellectuel.  Le cerveau doit s'entraîner (il peut monter en principe jusqu'à 40 herz en travail intellectuel intensif).

Quelles sont réellement les caractéristiques et comportements qui nous différencieront à jamais des machines?  Finalement, comment nous prouver que nous sommes bien humains, et quelle éthique adopter face à des machines capable d'agir, penser, voire avoir des émotions, comme des humains? 

Un philosophe s'est penché sur ces questions dès les années 80.  Il s'agit de John Searle. En simplifiant pour lui les ordinateurs ne penseront jamais. Le processus de pensée est propre à l'humain. Même réussir le test de Turing ne prouverait pas pour Searle qu'il y a  véritablement intelligence. On peut adhérer à cette position : les films de science fiction :  2001 odyssée de l'espace, blade runner,  HER,  nous montrent  t-ils des logiciels seulement intelligents ? Le problème clé est toujours l'apparition de la conscience et du sentiment dans la machine, ce qui pour Searle reste une utopie. Mais en matière d'éthique les lois progresseront : ne voulait-on pas faire payer des taxes sur le robot producteur en usine par exemple ? Nous aurons probablement dans le futur des robots assistants ménagers infirmiers, ce qui causera de graves problèmes d'emploi. L'ère des robots soldats est à l'étude dans les états majors. Le problème n'est pas tant dans le risque que ces systèmes développent une conscience autonome que dans le fait que la psychologie des humains va leur en attribuer une.    Une sorte d'action – réaction entre l'IA et la psychologie humaine qui n'est pas sans risques pour l'homme. 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !