L’intelligence artificielle serait désormais plus efficace que les officiers de police pour détecter les fausses déclarations<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
L’intelligence artificielle serait désormais plus efficace que les officiers de police pour détecter les fausses déclarations
©AFP

Avis aux aspirants escrocs

Et des programmes informatiques sont aujourd’hui aussi capables d’anticiper la survenue d’actes criminels

Jean-Paul Pinte

Jean-Paul Pinte

Jean-Paul Pinte est docteur en information scientifique et technique. Maître de conférences à l'Université Catholique de Lille et expert  en cybercriminalité, il intervient en tant qu'expert au Collège Européen de la Police (CEPOL) et dans de nombreux colloques en France et à l'International.

Titulaire d'un DEA en Veille et Intelligence Compétitive, il enseigne la veille stratégique dans plusieurs Masters depuis 2003 et est spécialiste de l'Intelligence économique.

Certifié par l'Edhec et l'Inhesj  en management des risques criminels et terroristes des entreprises en 2010, il a écrit de nombreux articles et ouvrages dans ces domaines.

Il est enfin l'auteur du blog Cybercriminalite.blog créé en 2005, Lieutenant colonel de la réserve citoyenne de la Gendarmerie Nationale et réserviste citoyen de l'Education Nationale.

Voir la bio »

Atlantico : L'Intelligence Artificielle est-elle un outil déjà utilisée par les services de police ? Est-elle fonctionnelle?

Jean-Paul Pinte : On entend parler d’énormes innovations ces derniers mois autour de l’Intelligence Artificielle et de la Machine Learning et plus aucun secteur d’activité de la société ne semble y échapper aujourd’hui tant dans la presse que dans les recherches qui se développent à grands pas dans ce domaine.

On en parlait et la voyait déjà dans les films d’espionnage avec de nombreuses scènes nombre de scènes à suspens tournant autour de détecteurs de mensonges. Le héros ou l’héroïne dans ce cas est attachée à une machine qui mesure sa pression sanguine, son rythme cardiaque et d’autres indicateurs de stress, afin de déterminer si elle ment ou pas. Seul problème, cette machine, le polygraphe, ne fonctionne pas. Ou du moins pas assez bien puisque certaines personnes ont réussi à la tromper. Il est utilisé aux États-Unis par certaines agences gouvernementales, notamment le FBI, mais pas en France, où la police estime que ses résultats n’ont pas valeur de preuve. En général, les polygraphes ne sont pas considérés comme assez fiables et vus comme une violation du droit à garder le silence. Mais ce n’est pas pour autant que les détecteurs de mensonge n’existent pas.

Aujourd’hui, de nombreuses réalisations en IA autour de ce thème en sont pour beaucoup’à leur début mais suscitent déjà de nombreux débats et convoitises qui s’annoncent prometteurs pour des secteurs comme la criminologie, la justice, la police, la sécurité, l’analyse prédictive, etc.

Dans le monde de la Police par exemple, les exemples ne manquent pas autour des détecteurs de mensonge. En 2017, c’était le cas du Canada qui a testé une IA pour détecter les mensonges à partir des comportements physiologiques dans ses aéroports. Avatar (pour Automated Virtual Agent for Truth Assessments in Real Time) pourrait aider à l’avenir les douaniers à contrôler les voyageurs en cas de doute sur leur motivation à venir. Il s’agit d’un guichet comme on pourrait le trouver dans un supermarché.  « Cependant, ce guichet possède un écran facial qui pose des questions aux voyageurs et peut détecter des changements physiologiques ou comportementaux pendant l'interrogatoire. Le système peut détecter des changements dans les yeux, la voix, les gestes et la posture pour déterminer des risques potentiels." sur le territoire, précise le professeur de management des systèmes d'information à l'université de San Diego Aaron Elkins.

Avatar dispose d’un logiciel de détection du regard et de mouvements qui doit contrôler les voyageurs dans leurs réponses et permet de détecter grâce à des capteurs des signes de gêne. Le guichet doit également poser des questions anodines pour savoir si les passagers ne sont pas juste stressés à l'idée de prendre l'avion. Une fois que le robot a détecté des signes, des agents des douanes peuvent procéder à des questions plus approfondies.

Bien qu’il n’existe aucun moyen infaillible de savoir si quelqu'un ment mentalement des scientifiques espagnols ont mis au point un système, qui s'appuie sur l'intelligence artificielle et le machine learning, pour détecter les faux dépôts de plainte. L'outil a été expérimenté l'an dernier dans deux villes espagnoles pour débusquer les fausses déclarations écrites de vol et va prendre place progressivement dans les postes de police de l’Espagne. Veripol conçu pour les rapports de vols qualifiés a été mis au point par l’Université de Cardiff et l’Université Charles III de Madrid. Dans leur article, publié dans la revue Knowledge-Based Systems plus tôt cette année, ils décrivent comment ils ont formé un modèle d’apprentissage automatique à partir de plus de 1 000 rapports de vol de police émanant de la police nationale espagnole, notamment de faux. Une étude pilote menée à Murcie et à Malaga en juin 2017 a révélé que, une fois que VeriPol avait identifié un rapport comme présentant une probabilité élevée d'être faux, 83% de ces cas avaient été clôturés à la suite d'un nouvel interrogatoire des demandeurs. Au total, 64 faux rapports ont été détectés en une semaine.

La police de Durham, une ville de 50 000 habitants du nord-est de l’Angleterre, va aussi bientôt s’équiper d’un programme d’intelligence artificielle, rapportait le mercredi 10 mai 2018 la BBC. Celui-ci, nommé Hart (harm assessment risk tool), doit aider les officiers de police à décider s’ils doivent placer en détention ou non un suspect, en évaluant les risques qu’il représente.

Des programmes informatiques sont aujourd’hui aussi capables d’anticiper la survenue d’actes criminels nous signale ce site sur l’IA et le transhumanisme. Dans certaines villes comme Chicago, Londres ou Munich, ces programmes sont en effet devenus réalité. Accompagnant l’évolution des sociétés modernes vers le tout-sécuritaire, la police expérimente de plus en plus ces nouveaux outils technologiques. Grâce à un algorithme capable d’analyser l’énorme masse de données personnelles que nous produisons et laissons-en permanence sur le numérique, ces logiciels spécialisés peuvent en effet établir des listes d’individus susceptibles d’être mêlés à des actes répréhensibles.

Toujours suivant cette source, Hitachi a conçu un système informatique appelé Visualization Predictive Crime Analytics (PCA). Ce système, une intelligence artificielle, est capable d’analyser des masses de données, d’apprendre des comportements qui ne peuvent être détectés par l’œil humain, lui permettant de prédire la criminalité, donc peut anticiper les crimes avant qu’ils se produisent. Le logiciel est issu des recherches effectuées par Darrin Lipscomb et Mark Jules, co-fondateurs de la société de technologie de surveillance du crime Avrio et Pantascene que Hitachi a acquis l’année dernière.

Depuis Octobre 2015, environ une demi-douzaine de villes américaines aident Hitachi à tester le concept, dont l’un pourrait être à Washington, DC.

Valcri est un programme informatique financé par l'Union européenne, actuellement testé par les polices d'Anvers et des Midlands. Il se charge de réaliser le laborieux travail d'un analyste criminel en quelques secondes, sans omettre une seule piste. Visual Analytics for Sense-making in CRiminal Intelligence analysis, est un système semi-autonome sémantique d’analyse de renseignements criminels. Autrement dit, une intelligence artificielle dont le but est d’aider la police criminelle à résoudre ses enquêtes, en explorant, entre autres, des pistes sur lesquelles des agents de chair et d’os ne se seraient pas forcément aventurés, faute de temps, de moyens, d’impartialité… et sans doute d’extravagance, dans certains cas.

En Belgique on s’interroge aussi depuis longtemps sur l’intelligence artificielle qui pourrait « fliquer » le citoyen à la place de la police, en dehors de tout cadre déontologique ou contrôle ? Annoncé en 2014, le projet « iPolice » (110 millions d’euros) devrait en effet centraliser l’actuelle BMG-Circulation et une vingtaine d’autres banques de données, mais aussi récolter les informations disponibles sur le web et les réseaux sociaux à propos des personnes recherchées. iPolice ne sera pas pleinement actif avant 2021. 

Sans tous les citer ici, on voit aussi se développer dans un autre type d’outils des vigiles cybernétiques telK5 surveillant de supermarché qui visionne en temps réel les 4 caméras à l’aide d’un réseau wifi, et peut ainsi faire intervenir rapidement la police en cas de situation confuse. D’autres logiciels seraient aussi de nos jours utilisés pour “repérer dans la foule des individus au comportement bizarre ».  

Quel est son mode de fonctionnement ? Son taux de réussite est-il supérieur à une analyse humaine ?

Rien n’équivaut réellement à l’analyse humaine en termes d’analyse avec l’IA et seules des extractions de données menées de manière intelligente avec des algorithmes permettent à ce jour de prévoir certaines maladies ou cancers comme il est dit dans cet exemple sur le cancer du sein.

Aujourd’hui il s’agit surtout pour la plupart des prédictions déjà menées de données compilées, basées sur des probabilités induites par le passé mais qui ne projettent sur des lignes ne tenant pas compte des variables notamment humaines. C’est ce qu'aime à nous rappeler  Xavier Bauer dans un interview Atlantico.

VeriPol utilise par exemple des algorithmes pour identifier les différentes caractéristiques d'une déclaration, y compris les adjectifs, les verbes et les signes de ponctuation, puis détecte les tendances dans les faux rapports. Selon une déclaration de l’Université de Cardiff, les rapports de faux vols sont plus susceptibles d’être plus courts, plus centrés sur les biens volés que sur le vol lui-même, peu de détails sur l’agresseur ou le vol et le manque de témoins.

Pris ensemble, ceux-ci ressemblent à des caractéristiques de bon sens que les humains pourraient reconnaître. Mais l'intelligence artificielle s'est révélée plus efficace pour analyser les rapports et identifier les schémas sans émotion, du moins par rapport aux données historiques: en règle générale, 12,14 faux rapports seulement sont détectés par la police en une semaine en juin à Malaga et 3,33 à Murcie.

Bien sûr, cela ne signifie pas que l’outil est parfait. «Notre modèle a commencé à identifier de fausses déclarations faisant état d'incidents survenus ou de casques portés par les agresseurs», co-auteur de l'étude, Dr Jose Camacho-Collados, de l'école d'informatique et d'informatique de l'Université de Cardiff. , a déclaré dans un communiqué. Pas de chance pour ceux qui ont vraiment été volés par derrière ou par ceux qui portent un casque.

Si certaines caractéristiques semblent plutôt faciles à détecter sans avoir besoin d’une machine, les tests menés à Malaga et Murcia ont apparemment prouvé que VeriPol est meilleur que la police pour repérer les plaintes inventées. L’algorithme commence donc à être déployé dans les commissariats espagnols.  Dr Camacho-Collados estime que son étude «donne des renseignements fascinants sur la manière dont les gens mentent à la police, et fournit un outil qui pourra un jour être utilisé pour dissuader les gens de le faire». Avec les résultats qu’on peut imaginer si une vraie plainte a le malheur de trop ressembler à une fausse.

Toute enquête passe nécessairement par une analyse et une fouille détaillée des bases de données en vue d’une corrélation avec un historique existant. "Un analyste expérimenté doit effectuer 73 recherches distinctes pour collecter toutes ces informations, avant de les mettre manuellement en forme pour qu'elles soient compréhensibles. VALCRI, lui, peut le faire d’un simple clic", explique Neesha Kodagoda, chercheuse qui fait partie de l’équipe de 103 scientifiques et ingénieurs en charge du projet, au New Scientist.

France24 nous rappelle que ce type de technologie qui vient au renfort de la police ne date pas d’aujourd’hui. Le logiciel Anacrim (son nom est en réalité "ANB", Anacrim étant le nom de la méthode) à qui l’on a attribué l’année dernière de nouveaux rebondissements dans l’affaire Grégory, existe par exemple depuis 1990. Celui-ci est notamment utilisé dans les dossiers particulièrement volumineux ou complexes, et permet d’aller chercher plus rapidement l’information. Dans le cas de l’affaire Grégory, Anacrim avait ainsi relevé des contradictions jamais remarquées auparavant, et ciblé plusieurs suspects jusqu’ici oubliés.

Bien que la science-fiction puisse dépeindre les robots d'IA comme les méchants, certains géants de la technologie les utilisent maintenant pour des raisons de sécurité. Des entreprises telles que Microsoft et Uber utilisent des robots Knightscope K5 pour patrouiller dans les parkings et les grands espaces extérieurs afin de prévoir et de prévenir la criminalité. Les robots peuvent lire les plaques d'immatriculation, signaler des activités suspectes et collecter des données à rapporter à leurs propriétaires.

Ces robots basés sur l'IA ne sont qu'un exemple des « choses autonomes », l'une des 10 technologies stratégiques de Gartner pour 2019, avec le potentiel de générer des perturbations importantes et de créer des opportunités au cours des cinq prochaines années.

"L'avenir sera caractérisé par des dispositifs intelligents fournissant des services numériques de plus en plus intéressants", a déclaré David Cearley, vice-président et associé de Gartner, lors du symposium Gartner 2018 / ITxpo à Orlando, en Floride. "Nous appelons cela le maillage numérique intelligent."

L'utilisation d'outils purement informatique ne risque-t-elle pas de supplanter le caractère humain de l'enquête policière ? Ne s'expose-t-on pas à des effets pervers ?

Les bases de données restent, nous l’avons vu la matière première en termes d’enquête policière et je ne pense pas que nous en soyons au stade de supplanter le caractère humain de l’enquête policière.

En clair les hommes programment des machines, mais aucune machine ne programme l’homme. L’homme invente des machines mais aucune machine n’a inventé l’homme. Là où il faut regarder c’est dans la capacité à traiter un ensemble de données plus ou moins complexes. La machine à calculer en est un bel exemple ! C’est ce que nous révèle un article s’interrogeant sur une possible voir d’extinction de l’intelligence humaine face à l’IA.

Une étude menée par ESET met en avant la confiance accordée par les décideurs IT à l’intelligence artificielle dans le cadre de la cyberdéfense. Si l’IA fait bien partie des outils utilisés par l’éditeur pour combattre le cybercrime, seule, elle n’est pas la réponse à tout.

Comme nous l’explique Benoît Grunemwald, directeur des opérations chez ESET France : « Utiliser l’intelligence artificielle est aujourd’hui essentiel pour analyser les menaces en temps réel. Avec plus de 300 000 menaces qui apparaissent chaque jour sur les réseaux, il est difficile d’imaginer tout analyser à la main : c’est là que l’IA intervient. Elle va relier des points entre eux pour mettre en lumière les menaces. Mais aujourd’hui, on a encore besoin de l’humain pour faire l’analyse finale lorsqu’elle est atypique. »

De plus en plus sophistiquées, les IA dites de machine learning et deep learning sont capables, comme leurs noms l’indiquent, d’apprendre constamment de leurs expériences. Petit à petit, les connaissances des algorithmes s’affinent et ces derniers deviennent plus efficaces. Mais tant qu’elles ne seront pas totalement autonomes, ces mêmes entreprises autour de l’IA auront toujours besoin d’experts pour garder un œil sur la sécurité des infrastructures et des données. Les services d’ordre suivront ces innovations mais ne pourront aujourd’hui se passer de ce qu’ils ne peuvent plus faire de façon manuelle.

Pour l'essayiste Eric Sadin, les prouesses de l'intelligence artificielle masquent son terrifiant pouvoir d'emprise sociale. Le titre du dernier livre de cet observateur reconnu du monde digital laisse peu d'ambiguïté sur ses conclusions : L'Intelligence artificielle ou l'enjeu du siècle. Anatomie d'un antihumanisme radical.

 "Le libre exercice de notre faculté de jugement et d'action se trouve substitué par des protocoles destinés à infléchir chacun de nos actes ou chaque impulsion du réel en vue de leur insuffler la bonne trajectoire à suivre, écrit Eric Sadin. L'humanité se dote à grands pas d'un organe de dessaisissement d'elle-même, de son droit à décider, en conscience et en responsabilité, des choix qui la regardent. Un statut anthropologique et ontologique inédit prend forme."  

Un rapport réalisé par 26 chercheurs provenant de 14 institutions d'horizons variés ont publié un texte commun d'une centaine de pages dans lequel ils entendent mettre en garde contre les effets pervers de l’IA et une potentielle utilisation malveillante de l'intelligence artificielle.

Parmi les intervenants, on retrouve des membres de plusieurs universités, notamment celle d'Oxford, de l'alliance OpenAI pour la recherche ouverte sur l'IA, du Centre pour l'étude des risques existentiels (CSER) et de l'Electronic Frontier Foundation (EFF) pour ne citer qu'eux.

Le sujet vous intéresse ?

Thématiques

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !