Bienvenu à Gattaca : mais que ferons-nous de tous ceux que l’Intelligence artificielle identifierait comme non désirable pour une entreprise ou pour la société ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Science
Bienvenu à Gattaca : mais que ferons-nous de tous ceux que l’Intelligence artificielle identifierait comme non désirable pour une entreprise ou pour la société ?
©unrealitytv.co.uk

Affreux sales et méchants

La police britannique serait sur le point de lancer un dispositif capable de prédire les crimes les plus violents en se servant de l'intelligence artificielle. Une fois identifiés, les individus étant à même de passer à l'acte seraient pris en charge par les autorités afin d'empêcher le crime.

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »

Atlantico : Ce système, baptisé National Data Analytics Solution (Solution nationale d'analyse de données ou NDAS), est basé sur une IA. Comment fonctionne-t-il ? Comment marchent tous ces systèmes censés prévoir le crime ? A-t-on des exemples déjà en fonctionnement ?

Laurent Alexandre : Si on intègre l'historique des principaux crimes dans une base de données, on peut établir des coorélations entre certaines caractéristiques et puis la probabilité de faire un crime. Caractéristiques psychologiques, sociales, type d'études, capacités intellectuelles, etc. On peut déterminer une probabilité de faire des crimes en fonction de son portrait robot psychologique, comme on peut déterminer votre probabilité de faire un cancer, en fonction de vos caractéristiques génétiques, de votre tabagisme, de votre poids, de ce que vous mangez et de vos antécédents familiaux. C'est de même nature. C'est du profiling préventif. En alimentant une base de données on peut établir des coorélations et rechercher ensuite dans la population les gens qui vont avoir un score élevé de possibilité de réaliser un crime en fonction des données historiques qu'on a. On connaît les caractéristiques qui augmentent le risque d'être délinquant. Le fait d'être un homme est le premier facteur. Il y a énormément moins de crimes commis par des femmes. Le sexe, pour l'IA, est un critère primordial. Le niveau d'instruction fait varier le taux de crime, comme le type de métier que vous faites, si vous consommez de la drogue, etc. Même sans IA on est tout à fait capable de déterminer votre probabilité de commettre un crime. Ne serait-ce que par la structure familiale. Quand vous avez des enfants en bas âge vous commettez moins de crimes que quand vous êtes un nomade, sans famille. Là où l'intelligence artificielle peut apporter quelque chose, c'est qu'elle peut apporter des critères qu'on a pas repéré historiquement, manuellement. Récemment l'intelligence artificielle aretrouvé des liens entre une photo et l'homosexualité d'une personne...Cela a fait la couverture de The Economist.Elle peut même évaluer le quotient intellectuel de quelqu'un à partir d'une photo. Il y a plein de caractéristiques que l'IA peut relier au crime qui nous nous échappe mais qui augmente sa probabilité ou la diminue. 

Imaginons qu'on arrive à cibler un individu potentiellement criminel. Il serait, dit-on, "pris en charge" par les autorités. Mais que faire de quelqu'un qui n'a commis un crime ?

Cela pose un problème de droit évident. C'est le problème de Minority Report, c'est le problème du délit d'intention. Est-ce que vous avez l'intention de faire du mal? Est-ce qu'on peut préventivement vous empêcher de faire du mal ? On ne le fait pas. Certains pays isolent les gens qui ont des prédispositions au crime, même s'ils n'en ont pas commis. Des gens qu'on repère sur Internet et qu'on suit après. Il y a des pays qui repèrent préventivement les pédophiles, les délinquants sexuels, et qui les prennent en charge. En droit français, les cas où on peut intervenir préventivement sont très limités.Sauf dans les cas de terrorisme, mais c'est très limité. Il y a des cas où l'on surveille des gens qui peuvent passer à l'acte avant même qu'ils passent à l'acte. L'évaluation du risque et l'encadrement du risque ont été particulièrement étudiés par les Israéliens. Les Israéliens repèrent préventivement les gens qui risquent de passer à l'acte.C'est d'ailleurs pour ça qu'il y a extrêmement peu d'actes terroristes en Israël. Le pays a des compétences en IA et en informatique qui sont de très haut niveau. La Chine va au-delà. Elle ne fait pas que rechercher les criminels. SI on a un comportement anti-social, si on traverse la rue, si on crache par terre, on perd des points que les caméras dotées d'intelligence artificielle repèrent. Il  va bientôt y avoir un million de caméras en Chine de surveillance, toutes dotées d'intelligence artificielle et capablent de retirer des points sur les passeports électroniques.             

Au-delà de la dérive sur la confidentialité des données, cette IA ne risque-t-elle pas de se tromper, tout simplement ? de commettre une erreur sur un innocent ou de laisser passer des coupables ?

L'IA n'a jamais une sensibilité, une spécificté égale à 100%. Evidemment que l'IA va se tromper. Quand l'IA dit que vous avez un cancer, elle se trompe moins que l'homme, elle dépasse les radiologues, mais elle n'a pas une sensibilité à 100%. IL arrive qu'elle se trompe. ON ne pourra jamais demander à une IA d'avoir raison à 100%, mais d'avoir toujours plus raison que l'homme. Quand la justice se trompe, on dit la justice est aveugle. Mais si une IA se trompe, on ne l'acceptera pas aussi bien. Pour l'instant on accepte qu'un cerveau se trompe, plus qu'on accepte qu'une IA se trompe. C'est normal. Il faut du temps.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !