En direct
Best of
Best of du 03 Novembre au 09 Novembre 2018
En direct
© AFP
Avis aux aspirants escrocs
L’intelligence artificielle serait désormais plus efficace que les officiers de police pour détecter les fausses déclarations
Publié le 04 novembre 2018
Et des programmes informatiques sont aujourd’hui aussi capables d’anticiper la survenue d’actes criminels
Jean-Paul Pinte est docteur en information scientifique et technique.Maître de conférences à l'Université Catholique de Lille, il est expert en cybercriminalité.
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Jean-Paul Pinte
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Jean-Paul Pinte est docteur en information scientifique et technique.Maître de conférences à l'Université Catholique de Lille, il est expert en cybercriminalité.
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Et des programmes informatiques sont aujourd’hui aussi capables d’anticiper la survenue d’actes criminels

Atlantico : L'Intelligence Artificielle est-elle un outil déjà utilisée par les services de police ? Est-elle fonctionnelle?

Jean-Paul Pinte : On entend parler d’énormes innovations ces derniers mois autour de l’Intelligence Artificielle et de la Machine Learning et plus aucun secteur d’activité de la société ne semble y échapper aujourd’hui tant dans la presse que dans les recherches qui se développent à grands pas dans ce domaine.

On en parlait et la voyait déjà dans les films d’espionnage avec de nombreuses scènes nombre de scènes à suspens tournant autour de détecteurs de mensonges. Le héros ou l’héroïne dans ce cas est attachée à une machine qui mesure sa pression sanguine, son rythme cardiaque et d’autres indicateurs de stress, afin de déterminer si elle ment ou pas. Seul problème, cette machine, le polygraphe, ne fonctionne pas. Ou du moins pas assez bien puisque certaines personnes ont réussi à la tromper. Il est utilisé aux États-Unis par certaines agences gouvernementales, notamment le FBI, mais pas en France, où la police estime que ses résultats n’ont pas valeur de preuve. En général, les polygraphes ne sont pas considérés comme assez fiables et vus comme une violation du droit à garder le silence. Mais ce n’est pas pour autant que les détecteurs de mensonge n’existent pas.

Aujourd’hui, de nombreuses réalisations en IA autour de ce thème en sont pour beaucoup’à leur début mais suscitent déjà de nombreux débats et convoitises qui s’annoncent prometteurs pour des secteurs comme la criminologie, la justice, la police, la sécurité, l’analyse prédictive, etc.

Dans le monde de la Police par exemple, les exemples ne manquent pas autour des détecteurs de mensonge. En 2017, c’était le cas du Canada qui a testé une IA pour détecter les mensonges à partir des comportements physiologiques dans ses aéroports. Avatar (pour Automated Virtual Agent for Truth Assessments in Real Time) pourrait aider à l’avenir les douaniers à contrôler les voyageurs en cas de doute sur leur motivation à venir. Il s’agit d’un guichet comme on pourrait le trouver dans un supermarché.  « Cependant, ce guichet possède un écran facial qui pose des questions aux voyageurs et peut détecter des changements physiologiques ou comportementaux pendant l'interrogatoire. Le système peut détecter des changements dans les yeux, la voix, les gestes et la posture pour déterminer des risques potentiels." sur le territoire, précise le professeur de management des systèmes d'information à l'université de San Diego Aaron Elkins.

Avatar dispose d’un logiciel de détection du regard et de mouvements qui doit contrôler les voyageurs dans leurs réponses et permet de détecter grâce à des capteurs des signes de gêne. Le guichet doit également poser des questions anodines pour savoir si les passagers ne sont pas juste stressés à l'idée de prendre l'avion. Une fois que le robot a détecté des signes, des agents des douanes peuvent procéder à des questions plus approfondies.

Bien qu’il n’existe aucun moyen infaillible de savoir si quelqu'un ment mentalement des scientifiques espagnols ont mis au point un système, qui s'appuie sur l'intelligence artificielle et le machine learning, pour détecter les faux dépôts de plainte. L'outil a été expérimenté l'an dernier dans deux villes espagnoles pour débusquer les fausses déclarations écrites de vol et va prendre place progressivement dans les postes de police de l’Espagne. Veripol conçu pour les rapports de vols qualifiés a été mis au point par l’Université de Cardiff et l’Université Charles III de Madrid. Dans leur article, publié dans la revue Knowledge-Based Systems plus tôt cette année, ils décrivent comment ils ont formé un modèle d’apprentissage automatique à partir de plus de 1 000 rapports de vol de police émanant de la police nationale espagnole, notamment de faux. Une étude pilote menée à Murcie et à Malaga en juin 2017 a révélé que, une fois que VeriPol avait identifié un rapport comme présentant une probabilité élevée d'être faux, 83% de ces cas avaient été clôturés à la suite d'un nouvel interrogatoire des demandeurs. Au total, 64 faux rapports ont été détectés en une semaine.

La police de Durham, une ville de 50 000 habitants du nord-est de l’Angleterre, va aussi bientôt s’équiper d’un programme d’intelligence artificielle, rapportait le mercredi 10 mai 2018 la BBC. Celui-ci, nommé Hart (harm assessment risk tool), doit aider les officiers de police à décider s’ils doivent placer en détention ou non un suspect, en évaluant les risques qu’il représente.

Des programmes informatiques sont aujourd’hui aussi capables d’anticiper la survenue d’actes criminels nous signale ce site sur l’IA et le transhumanisme. Dans certaines villes comme Chicago, Londres ou Munich, ces programmes sont en effet devenus réalité. Accompagnant l’évolution des sociétés modernes vers le tout-sécuritaire, la police expérimente de plus en plus ces nouveaux outils technologiques. Grâce à un algorithme capable d’analyser l’énorme masse de données personnelles que nous produisons et laissons-en permanence sur le numérique, ces logiciels spécialisés peuvent en effet établir des listes d’individus susceptibles d’être mêlés à des actes répréhensibles.

Toujours suivant cette source, Hitachi a conçu un système informatique appelé Visualization Predictive Crime Analytics (PCA). Ce système, une intelligence artificielle, est capable d’analyser des masses de données, d’apprendre des comportements qui ne peuvent être détectés par l’œil humain, lui permettant de prédire la criminalité, donc peut anticiper les crimes avant qu’ils se produisent. Le logiciel est issu des recherches effectuées par Darrin Lipscomb et Mark Jules, co-fondateurs de la société de technologie de surveillance du crime Avrio et Pantascene que Hitachi a acquis l’année dernière.

Depuis Octobre 2015, environ une demi-douzaine de villes américaines aident Hitachi à tester le concept, dont l’un pourrait être à Washington, DC.

Valcri est un programme informatique financé par l'Union européenne, actuellement testé par les polices d'Anvers et des Midlands. Il se charge de réaliser le laborieux travail d'un analyste criminel en quelques secondes, sans omettre une seule piste. Visual Analytics for Sense-making in CRiminal Intelligence analysis, est un système semi-autonome sémantique d’analyse de renseignements criminels. Autrement dit, une intelligence artificielle dont le but est d’aider la police criminelle à résoudre ses enquêtes, en explorant, entre autres, des pistes sur lesquelles des agents de chair et d’os ne se seraient pas forcément aventurés, faute de temps, de moyens, d’impartialité… et sans doute d’extravagance, dans certains cas.

En Belgique on s’interroge aussi depuis longtemps sur l’intelligence artificielle qui pourrait « fliquer » le citoyen à la place de la police, en dehors de tout cadre déontologique ou contrôle ? Annoncé en 2014, le projet « iPolice » (110 millions d’euros) devrait en effet centraliser l’actuelle BMG-Circulation et une vingtaine d’autres banques de données, mais aussi récolter les informations disponibles sur le web et les réseaux sociaux à propos des personnes recherchées. iPolice ne sera pas pleinement actif avant 2021. 

Sans tous les citer ici, on voit aussi se développer dans un autre type d’outils des vigiles cybernétiques telK5 surveillant de supermarché qui visionne en temps réel les 4 caméras à l’aide d’un réseau wifi, et peut ainsi faire intervenir rapidement la police en cas de situation confuse. D’autres logiciels seraient aussi de nos jours utilisés pour “repérer dans la foule des individus au comportement bizarre ».  

Quel est son mode de fonctionnement ? Son taux de réussite est-il supérieur à une analyse humaine ?

Rien n’équivaut réellement à l’analyse humaine en termes d’analyse avec l’IA et seules des extractions de données menées de manière intelligente avec des algorithmes permettent à ce jour de prévoir certaines maladies ou cancers comme il est dit dans cet exemple sur le cancer du sein.

Aujourd’hui il s’agit surtout pour la plupart des prédictions déjà menées de données compilées, basées sur des probabilités induites par le passé mais qui ne projettent sur des lignes ne tenant pas compte des variables notamment humaines. C’est ce qu'aime à nous rappeler  Xavier Bauer dans un interview Atlantico.

VeriPol utilise par exemple des algorithmes pour identifier les différentes caractéristiques d'une déclaration, y compris les adjectifs, les verbes et les signes de ponctuation, puis détecte les tendances dans les faux rapports. Selon une déclaration de l’Université de Cardiff, les rapports de faux vols sont plus susceptibles d’être plus courts, plus centrés sur les biens volés que sur le vol lui-même, peu de détails sur l’agresseur ou le vol et le manque de témoins.

Pris ensemble, ceux-ci ressemblent à des caractéristiques de bon sens que les humains pourraient reconnaître. Mais l'intelligence artificielle s'est révélée plus efficace pour analyser les rapports et identifier les schémas sans émotion, du moins par rapport aux données historiques: en règle générale, 12,14 faux rapports seulement sont détectés par la police en une semaine en juin à Malaga et 3,33 à Murcie.

Bien sûr, cela ne signifie pas que l’outil est parfait. «Notre modèle a commencé à identifier de fausses déclarations faisant état d'incidents survenus ou de casques portés par les agresseurs», co-auteur de l'étude, Dr Jose Camacho-Collados, de l'école d'informatique et d'informatique de l'Université de Cardiff. , a déclaré dans un communiqué. Pas de chance pour ceux qui ont vraiment été volés par derrière ou par ceux qui portent un casque.

Si certaines caractéristiques semblent plutôt faciles à détecter sans avoir besoin d’une machine, les tests menés à Malaga et Murcia ont apparemment prouvé que VeriPol est meilleur que la police pour repérer les plaintes inventées. L’algorithme commence donc à être déployé dans les commissariats espagnols.  Dr Camacho-Collados estime que son étude «donne des renseignements fascinants sur la manière dont les gens mentent à la police, et fournit un outil qui pourra un jour être utilisé pour dissuader les gens de le faire». Avec les résultats qu’on peut imaginer si une vraie plainte a le malheur de trop ressembler à une fausse.

Toute enquête passe nécessairement par une analyse et une fouille détaillée des bases de données en vue d’une corrélation avec un historique existant. "Un analyste expérimenté doit effectuer 73 recherches distinctes pour collecter toutes ces informations, avant de les mettre manuellement en forme pour qu'elles soient compréhensibles. VALCRI, lui, peut le faire d’un simple clic", explique Neesha Kodagoda, chercheuse qui fait partie de l’équipe de 103 scientifiques et ingénieurs en charge du projet, au New Scientist.

France24 nous rappelle que ce type de technologie qui vient au renfort de la police ne date pas d’aujourd’hui. Le logiciel Anacrim (son nom est en réalité "ANB", Anacrim étant le nom de la méthode) à qui l’on a attribué l’année dernière de nouveaux rebondissements dans l’affaire Grégory, existe par exemple depuis 1990. Celui-ci est notamment utilisé dans les dossiers particulièrement volumineux ou complexes, et permet d’aller chercher plus rapidement l’information. Dans le cas de l’affaire Grégory, Anacrim avait ainsi relevé des contradictions jamais remarquées auparavant, et ciblé plusieurs suspects jusqu’ici oubliés.

Bien que la science-fiction puisse dépeindre les robots d'IA comme les méchants, certains géants de la technologie les utilisent maintenant pour des raisons de sécurité. Des entreprises telles que Microsoft et Uber utilisent des robots Knightscope K5 pour patrouiller dans les parkings et les grands espaces extérieurs afin de prévoir et de prévenir la criminalité. Les robots peuvent lire les plaques d'immatriculation, signaler des activités suspectes et collecter des données à rapporter à leurs propriétaires.

Ces robots basés sur l'IA ne sont qu'un exemple des « choses autonomes », l'une des 10 technologies stratégiques de Gartner pour 2019, avec le potentiel de générer des perturbations importantes et de créer des opportunités au cours des cinq prochaines années.

"L'avenir sera caractérisé par des dispositifs intelligents fournissant des services numériques de plus en plus intéressants", a déclaré David Cearley, vice-président et associé de Gartner, lors du symposium Gartner 2018 / ITxpo à Orlando, en Floride. "Nous appelons cela le maillage numérique intelligent."

L'utilisation d'outils purement informatique ne risque-t-elle pas de supplanter le caractère humain de l'enquête policière ? Ne s'expose-t-on pas à des effets pervers ?

Les bases de données restent, nous l’avons vu la matière première en termes d’enquête policière et je ne pense pas que nous en soyons au stade de supplanter le caractère humain de l’enquête policière.

En clair les hommes programment des machines, mais aucune machine ne programme l’homme. L’homme invente des machines mais aucune machine n’a inventé l’homme. Là où il faut regarder c’est dans la capacité à traiter un ensemble de données plus ou moins complexes. La machine à calculer en est un bel exemple ! C’est ce que nous révèle un article s’interrogeant sur une possible voir d’extinction de l’intelligence humaine face à l’IA.

Une étude menée par ESET met en avant la confiance accordée par les décideurs IT à l’intelligence artificielle dans le cadre de la cyberdéfense. Si l’IA fait bien partie des outils utilisés par l’éditeur pour combattre le cybercrime, seule, elle n’est pas la réponse à tout.

Comme nous l’explique Benoît Grunemwald, directeur des opérations chez ESET France : « Utiliser l’intelligence artificielle est aujourd’hui essentiel pour analyser les menaces en temps réel. Avec plus de 300 000 menaces qui apparaissent chaque jour sur les réseaux, il est difficile d’imaginer tout analyser à la main : c’est là que l’IA intervient. Elle va relier des points entre eux pour mettre en lumière les menaces. Mais aujourd’hui, on a encore besoin de l’humain pour faire l’analyse finale lorsqu’elle est atypique. »

De plus en plus sophistiquées, les IA dites de machine learning et deep learning sont capables, comme leurs noms l’indiquent, d’apprendre constamment de leurs expériences. Petit à petit, les connaissances des algorithmes s’affinent et ces derniers deviennent plus efficaces. Mais tant qu’elles ne seront pas totalement autonomes, ces mêmes entreprises autour de l’IA auront toujours besoin d’experts pour garder un œil sur la sécurité des infrastructures et des données. Les services d’ordre suivront ces innovations mais ne pourront aujourd’hui se passer de ce qu’ils ne peuvent plus faire de façon manuelle.

Pour l'essayiste Eric Sadin, les prouesses de l'intelligence artificielle masquent son terrifiant pouvoir d'emprise sociale. Le titre du dernier livre de cet observateur reconnu du monde digital laisse peu d'ambiguïté sur ses conclusions : L'Intelligence artificielle ou l'enjeu du siècle. Anatomie d'un antihumanisme radical.

 "Le libre exercice de notre faculté de jugement et d'action se trouve substitué par des protocoles destinés à infléchir chacun de nos actes ou chaque impulsion du réel en vue de leur insuffler la bonne trajectoire à suivre, écrit Eric Sadin. L'humanité se dote à grands pas d'un organe de dessaisissement d'elle-même, de son droit à décider, en conscience et en responsabilité, des choix qui la regardent. Un statut anthropologique et ontologique inédit prend forme."  

Un rapport réalisé par 26 chercheurs provenant de 14 institutions d'horizons variés ont publié un texte commun d'une centaine de pages dans lequel ils entendent mettre en garde contre les effets pervers de l’IA et une potentielle utilisation malveillante de l'intelligence artificielle.

Parmi les intervenants, on retrouve des membres de plusieurs universités, notamment celle d'Oxford, de l'alliance OpenAI pour la recherche ouverte sur l'IA, du Centre pour l'étude des risques existentiels (CSER) et de l'Electronic Frontier Foundation (EFF) pour ne citer qu'eux.

 

 

Les commentaires de cet article sont à lire ci-après
Le sujet vous intéresse ?
Thématiques :
Articles populaires
Période :
24 heures
7 jours
01.
Pourquoi les nouveaux iPhones vous coûteront le double du prix que vous pensez payer si vous en changez
02.
L'initiateur de #sansmoile17... est salarié de LREM
03.
L'Italie prépare une bombe capable de faire exploser l'Europe et de lui faire perdre sa souveraineté politique
04.
"Les filles bien n'avalent pas" ! C'est le titre d'un des livres de Marlène Schiappa…
05.
Bruxelles : si l’Italie veut vivre son aventure populiste, ce sera sans l’Union européenne
06.
Gilets jaunes : pourquoi certains Français ont nettement plus de raisons que d’autres de se plaindre de l’évolution de leur pouvoir d’achat
07.
33 000 morts dues aux bactéries résistantes aux antibiotiques : faut-il limiter drastiquement les prescriptions ?
01.
Pourquoi les nouveaux iPhones vous coûteront le double du prix que vous pensez payer si vous en changez
02.
L'initiateur de #sansmoile17... est salarié de LREM
03.
L'Italie prépare une bombe capable de faire exploser l'Europe et de lui faire perdre sa souveraineté politique
04.
"Les filles bien n'avalent pas" ! C'est le titre d'un des livres de Marlène Schiappa…
05.
Bruxelles : si l’Italie veut vivre son aventure populiste, ce sera sans l’Union européenne
06.
Gilets jaunes : pourquoi certains Français ont nettement plus de raisons que d’autres de se plaindre de l’évolution de leur pouvoir d’achat
07.
33 000 morts dues aux bactéries résistantes aux antibiotiques : faut-il limiter drastiquement les prescriptions ?
01.
Radicalisation en prison : pourquoi l'Etat reste-t-il le "premier recruteur de Daech" ?
02.
Pour près de deux Allemands sur trois, Angela Merkel devrait "se retirer"
03.
L’horreur de la guerre au Yémen, ou le deux poids deux mesures des Occidentaux qui sanctionnent Russie et Iran… mais laissent tout passer aux Saoudiens ou aux Pakistanais !
04.
Comment la mafia se retrouve dans votre assiette
05.
Pourquoi est-ce que la nomination d'Andrea Enria à la tête de l'autorité bancaire européenne risque de ne rien changer
06.
#DansMaRue : l’application de la mairie de Paris qui promeut le retour de la délation
01.
Un couple découvre 53 cadavres de chats dans leur jardin
02.
S’armer face au péril russe ? Emmanuel Macron ferait bien de relire quelques manuels d’histoire
03.
2008- 2018 : ces 10 ans où l’Euro a perdu beaucoup de terrain dans son rêve de concurrencer le dollar comme monnaie de réserve mondiale
04.
Guerre et paix dans le cyberespace : pourquoi l'appel de Macron à faire la paix dans le cyberespace n'est pas prêt de se concrétiser
05.
Derrière l’itinérance d’Emmanuel Macron et le contact direct avec les Français, le renoncement à la démocratie représentative ?
06.
Démographie : la fertilité des femmes décline remarquablement presque partout dans le monde
Commentaires (0)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
Pas d'autres commentaires