En direct
Best of
Best of du 11 au 17 janvier
En direct
Flash-actu
Articles populaires
Période :
24 heures
7 jours
01.

Et si l’univers n’avait pas de fin (ni de début)

02.

Macron est content, Martinez ronge son frein et Berger engrange les adhésions. Mais la France va mieux ou pas ?

03.

Coronavirus chinois : ces 3 leçons apprises depuis le SRAS pourraient tout changer (mais saurons-nous les appliquer…?)

04.

CGT : Cancer Généralisé du Travail

05.

Des chercheurs parviennent à capter pour la première fois des images d’une liaison entre deux atomes

06.

69% des Français pensent qu’Emmanuel Macron ne sera pas réélu. Mais quel scénario pourrait empêcher son match retour avec Marine Le Pen ?

07.

#JeSuisMila : l’effarante incapacité contemporaine à distinguer la critique adressée au groupe de celle visant les individus

01.

Michel Onfray : “Le bourrage de crâne est parvenu à un degré jamais atteint depuis qu’il y a des hommes”

02.

Quand les députés votent pour grignoter discrètement le droit de propriété en France

03.

CGT : Cancer Généralisé du Travail

04.

Retraites : le Trafalgar d’Emmanuel Macron

05.

Et si l’univers n’avait pas de fin (ni de début)

06.

Mais pourquoi les pêcheurs chinois découvrent-ils autant de petits sous-marins espions dans leurs filets ?

01.

CGT : Cancer Généralisé du Travail

02.

Vu dans un manuel d'histoire : "les attentats du 11 septembre ont été orchestrés par la CIA" !

03.

Greta Thunberg-Donald Trump, le match : avantage à...

04.

Ce duel nationaux/mondialistes auquel s’accrochent Marine Le Pen et Emmanuel Macron alors qu’il n’intéresse pas vraiment les Français

05.

69% des Français pensent qu’Emmanuel Macron ne sera pas réélu. Mais quel scénario pourrait empêcher son match retour avec Marine Le Pen ?

06.

L’arme à 3 coups qui pourrait porter Ségolène Royal vers 2022

ça vient d'être publié
rendez-vous > International
Géopolitico-scanner
Les chrétiens d'Afrique subsaharienne menacés par le terrorisme islamiste
il y a 17 min 55 sec
décryptage > Politique
Objectif 2022 ?

Ségolène Royal ou le retour d’un fervent désir d’avenir (personnel)

il y a 2 heures 13 min
décryptage > Economie
C'est gonflé quand même…

Quand Bruno Le Maire se couche devant Trump… et affirme qu'il se tient debout…

il y a 3 heures 3 min
décryptage > Economie
Revue stratégique

Ces pistes révolutionnaires que la BCE pourrait explorer pour sauver la zone euro de la japonisation

il y a 4 heures 3 min
décryptage > France
Pression

Pourquoi nous devrions nous inquiéter que l’Etat veuille pousser à une hausse des salaires (alors même que la question se pose bel et bien)

il y a 4 heures 35 min
décryptage > Santé
Impact

Villes fermées et quarantaine : ce qui pourrait (ou pas) se passer en France en cas de pandémie aigüe

il y a 5 heures 14 min
light > Science
Images rares
Des chercheurs parviennent à capter pour la première fois des images d’une liaison entre deux atomes
il y a 16 heures 29 min
pépites > Politique
Nouveau calendrier
Réforme des retraites : Edouard Philippe révèle que la conférence de financement sera lancée le 30 janvier
il y a 17 heures 38 min
pépites > Justice
Soupçons de financement libyen
La justice britannique va remettre Alexandre Djouhri à la France
il y a 19 heures 6 min
décryptage > Culture
Atlanti Culture

"Messiah" de Michael Petroni : quand le doute s’insinue et ne vous lâche pas

il y a 19 heures 40 min
pépites > Politique
Confidences du chef de l'Etat
Violences en France, communautarisme, islam : Emmanuel Macron se confie aux médias après son déplacement en Israël
il y a 1 heure 9 min
décryptage > Economie
Entreprises menacées par le virus ?

Wuhan, la plus connectée à la France des villes chinoises

il y a 2 heures 43 min
décryptage > Politique
Revanche de la Ligue ?

Matteo Salvini, chronique d’un retour annoncé

il y a 3 heures 16 min
décryptage > Politique
Echiquier politique

Mais que prépare pour 2022 le "bordel" politique sans précédent des municipales ?

il y a 4 heures 22 min
décryptage > High-tech
Intrusion malveillante et vol de données

Comment protéger votre smartphone d’un piratage à la Jeff Bezos

il y a 4 heures 59 min
pépites > Santé
Lutte planétaire
Coronavirus chinois : l’OMS indique qu’il est "trop tôt" pour déclarer une urgence internationale et qu’il n’y a aucune preuve de transmission entre humains en dehors de la Chine
il y a 15 heures 52 min
pépite vidéo > International
Mémoire
75 ans de la libération d'Auschwitz : de nombreux dirigeants de la planète se mobilisent contre l'antisémitisme
il y a 17 heures 12 min
pépites > Santé
Mesures pour lutter contre le virus
Coronavirus : la Chine confine 20 millions d’habitants autour de Wuhan, les festivités du Nouvel an chinois annulées à Pékin
il y a 18 heures 45 min
décryptage > Culture
Atlanti Culture

"Les Ritals", adaptation théâtrale de Bruno Putzulu : il était une fois les immigrés italiens de Nogent-sur-Marne

il y a 19 heures 28 min
Electrocutions et incendies
L'UFC-Que Choisir alerte sur les dangers des chargeurs de smartphones
il y a 19 heures 55 min
© Reuters
© Reuters
Reconnaissance faciale

IA : pourquoi nous devrions songer à restreindre sérieusement les techniques de détection des émotions

Publié le 16 décembre 2019
Un centre de recherche de premier plan – l'institut « AI Now » – a appelé à restreindre l'utilisation des technologies de détection des émotions, malgré un marché en pleine croissance aujourd’hui estimé à 20 milliards de dollars.
Franck DeCloquement est praticien et expert en intelligence économique et stratégique (IES). Membre fondateur du Cercle K2 et ancien de l’Ecole de Guerre Economique de Paris (EGE), il est en outre professeur à l'IRIS (Institut de Relations...
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Franck DeCloquement
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Franck DeCloquement est praticien et expert en intelligence économique et stratégique (IES). Membre fondateur du Cercle K2 et ancien de l’Ecole de Guerre Economique de Paris (EGE), il est en outre professeur à l'IRIS (Institut de Relations...
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Un centre de recherche de premier plan – l'institut « AI Now » – a appelé à restreindre l'utilisation des technologies de détection des émotions, malgré un marché en pleine croissance aujourd’hui estimé à 20 milliards de dollars.

Atlantico : Pouvez-vous nous expliquer comment tout cela fonctionne au juste ? Et quels sont les réels enjeux financiers du secteur ? 

Franck DeCloquement : Dans les conclusions de son dernier rapport 2019, le centre de recherche AI NOW fait le constat abrupt que la reconnaissance des émotions aurait en réalité très peu de fondements scientifiques. Très schématiquement, cette technologie de détection augmenterait même l’amplification des disparités entre les races et les sexes des individus ainsi évalués. De sorte qu’elle devrait être immédiatement interdite d’utilisation dans des décisions qui affecteraient directement la vie des personnes. Mais aussi, et plus largement, pour des applications d’usages sensibles par les gouvernements. À l’image de l’évaluation des demandeurs d’emploi ou encore la détection des personnes soupçonnées d’avoir commis des crimes et des délits. Et ceci, avant que les risques inhérent n’aient été correctement détectés et évalués par des scientifiques, comme le stipule fortement l’institut AI NOW. 

Parmi les nombreux signataires du rapport, on compte de très nombreuses personnalités de renom. À l’image de Kate Crawford de Microsoft Research, de Roel Dobbe, Theodora Dryer, Genevieve Fried, Ben Green , Elizabeth Kaziunas, Amba Kak, Varoon Mathur , Erin McElroy, Andrea Nill Sánchez, Deborah Raji, Joy Lisi Rankin, Rashida Richardson, Jason Schultz, Sarah Myers West, Meredith Whittaker. Tous de l’AI Now Institute, New York University.

Source : https://iatranshumanisme.com/wp-content/uploads/2019/12/AI_Now_2019_Report.pdf

Sur le plan économique, et à l’image des nouveaux usages de l'intelligence artificielle (IA), de nombreuses entreprises tirent d’ores et déjà parti des technologies de détection des émotions pour renforcer leur gestion de la relation client (CRM). L'analyse des émotions avec ses caractéristiques futuristes évocatrices s’est d’ores et déjà fait une place de choix dans le monde des affaires et du Big Business. De manière très générale, cette technologie est utilisée pour améliorer la classification, la collecte, la visualisation et l'analyse des données. Dans son rapport, l’institut fait d’ailleurs le lien avec une autre étude publiée en avril 2018 par MRFR (Market Research Future). Selon celle-ci, le marché mondial de l'analyse émotionnelle atteindrait environ 25 milliards de dollars à l’horizon 2023, avec un TCAC de 17 % entre 2016 et 2023. Toujours selon Market Research Future, l'élargissement de la base d'application serait en partie à l'origine de cette importante croissance du marché mondial. Les développeurs améliorent constamment l'efficacité et la fonctionnalité des processus d’analyse des émotions, les rendant compatibles avec un large éventail d'applications logicielles et matérielles qui utilisent déjà des techniques d'exploitation audiovisuelles. En outre, la pénétration croissante du Big Data et de l'intelligence artificielle ouvre toujours plus de possibilités d'application dans le registre de l'analyse émotionnelle. L’étude de MRFR segmente d’ailleurs le marché mondial de l'analyse des émotions en quatre régions zones géographiques, à savoir : l'Amérique du Nord, l'Europe, l'Asie Pacifique (APAC) et le reste du monde. L'Amérique du Nord occupant bien entendu une position dominant en termes de parts de marché. Et la tendance devrait encore s’accroitre au long de la prochaine période selon Market Research Future.

Quels sont les dangers immédiats liés à l’utilisation irraisonnée des technologies de détection des émotions ? Faudrait-il en restreindre drastiquement les pratiques ? La France est-elle aussi touchée par ce phénomène ? 

Les dangers potentiels dans l’usage de ces technologies sont nombreux, car de nombreux biais subsistent. Comme nous le rappelions déjà plus haut, cette technologie est d’ores et déjà utilisée dans certains pays pour évaluer les candidats à un emploi ou encore les personnes soupçonnées de méfaits criminels. Pour ce faire, l’institut de recherche AI NOW fait à ce titre référence au dernier rapport publié en novembre dernier par « Electronic Privacy Information Center » (EPIC). Une publication ou il est question de « HireVue ». Autrement dit, l’un des outils d'intelligence artificielle que les entreprises utilisent de plus en plus pour évaluer les candidats. Les algorithmes de « HireVue » analysent les entrevues enregistrées par des moyens vidéo, en se basant sur plusieurs critères de choix. Et entre autre chose, celui du choix des mots employés par les individus étudiés, ainsi que les micros mouvements faciaux des candidats testés afin d’établir un « score d'employabilité » qui est alors comparé à celui des autres candidats en liste. À ce jour, plus de 100 entreprises l'auraient déjà employé sur un cheptel de plus d'un million de candidats selon l’Electronic Privacy Information Center. 

Et l’institut de s'inquiéter dans la foulée du fait que l'algorithme est formé sur la base de données finalement très incomplètes et fortement susceptible de spécifier les candidats « traditionnels » (blancs, hommes, etc.) comme « plus employables » que les autres. Les minorités visibles en feraient bien entendu les frais. Selon une autre étude publiée en janvier dernier par Lauren Rhue, professeur assistante de systèmes d'information et d'analyse à « Wake Forest University », il existerait à ce titre des preuves scientifiques patentes prouvant très nettement que l’usage de ces technologies pourraient amplifier les disparités sociales existantes. Et ceci, compte tenu de la génération de préjugés cachés dans la détection technologique des émotions d’autrui. Selon cette étude, bien que l’analyse des émotions soit de plus en plus usitée dans la vie quotidienne, cette technologie aurait pourtant de grandes difficultés à interpréter correctement les émotions des visages à la carnation noire. La technologie attribuant plus d'émotions d’occurrences négatives au visage de couleur foncée, qu'à celui d’hommes aux visages blancs. Par conséquent, les candidats qui s'écarteraient de ces critères médians de genre – y compris les personnes qui ne parleraient pas l'anglais comme langue maternelle, ou qui seraient handicapées – seraient ainsi plus susceptibles d'obtenir ; toujours selon nos experts ; des scores inférieurs aux tests. Cette technologie serait aussi testée dans le cadre d'autres applications hautement technologiques, à l’image des casques de réalité virtuelle (VR), afin de déduire les états émotionnels des gamers en temps réel. Dans une interview publiée en décembre 2018, le Président Directeur Général de « Looxid Labs », Brian Yongwook Chae, a présenté son produit phare « LooxidVR » qui permettrait de mesurer les ondes cérébrales et les images des caméras infrarouges des utilisateurs de VR quand ces derniers portent leur casque. Les données physiologiques brutes ainsi mesurées par « LooxidVR » sont prétraitées à l'aide d'un algorithme de réduction du bruit des ondes cérébrales, et de détection pupillaire. L'algorithme d'apprentissage machine serait alors appliqué aux informations prétraitées pour détecter les états émotionnels utilisant ce dispositif.

AI NOW fait également mention dans son rapport d’analyse d’une récente étude de « l'Association for Psychological Science », qui a passé deux années complètes à examiner plus de 1 000 articles sur la détection des émotions, et a conclu à l’issue de cette étude qu'il est très difficile d'utiliser les expressions faciales seules pour déterminer avec précision ce que ressent au plus juste une personne donnée. En effet, la corrélation serait très faible selon la psychologue Lisa Feldman Barrett de la « Northeastern University », entre les gens qui sourient quand ils sont heureux et ceux qui froncent les sourcils quand ils sont tristes. Les individus expriment en effet une multitude de variations expressives singulières, infiniment plus riches quand ils sont heureux ou tristes. Et celles-ci ne se limitent naturellement pas à quelques comportements gestuels ou expressifs caricaturaux. L’expression d’un sourire sur un visage donné pouvant tout à la fois être une manifestation de joie, de gêne ou d’ironie selon les individus étudiés. La spécificité d’un comportement humain donné variant beaucoup d'une culture à l’autre, et d'une situation à une autre. Le contexte spatial ou social d’interaction joue à ce titre un rôle déterminant dans la façon dont nous interprétons en retour les expressions de chacun, a indiqué la psychologue Lisa Feldman Barrett. 

Toujours selon les chercheurs de l'Association for Psychological Science, le défaut de données de formation des IA de reconnaissance des émotions constitue un danger patent en matière de mésinterprétation comportementale. Une approche extrêmement courante consiste pour les entreprises à demander aux gens de regarder des vidéos émouvantes afin de scanner les expressions de leurs visages. Puis une personne de l'entreprise est nommée responsable de « l'étiquetage » de ces données recueillies, pour alimenter l'algorithme. Toutefois, cela poserait un sérieux problème d’après le rapport : si l’on demande à quelqu’un de simuler par exemple la surprise avec les traits de son visage, cela peut se révéler au final très différent de l'apparence musculaire réelle que prendrait son visage lorsque que cette personne est véritablement surprise. Aussi, la tierce personne qui est chargée d’examiner et d’étiqueter toutes ces données numériques sur la base d’une expression faciale de son « cobaye » interprétée par elle comme matérialisant sa « surprise », n’en demande pas une confirmation à la personne concernée. Il devient donc objectivement très difficile de savoir si ladite expression était la véritable émotion de l’individu testé, peut-on aussi lire en substance dans le rapport de l'Association for Psychological Science. 

Comment endiguer tout cela ? Les gouvernements ont-ils assez de marge de manœuvre pour faire pression et agir sur les entreprises de haute technologie qui utilisent ces méthodes sans recul ?

Les prouesses technologiques fascinent bien souvent les esprits simples et les managers avides de martingales et profitabilité rapide. Les pays anglo-saxons en sont friands, et rien ne peut endiguer le Big Business du turbo capitalisme, dès lors qu’une croissance à deux chiffres pointe à l’horizon. Et cela, sans trop se soucier des considérations éthiques ou des effets systémiques catastrophiques que cela pourrait engendrer en cas d’emballements chaotiques. On pense immédiatement aux errements du trading à haute fréquence. 

Ainsi, le centre de recherche AI NOW recommande à ce titre que les organismes de réglementation et les pouvoirs publics puisse intervenir puissamment pour restreindre très substantiellement l’utilisation « sauvage » et sans recul des technologies de reconnaissance émotionnelle. Recommandant sans ambages que les sociétés en pointe dans les usages prospectifs de l’IA cessent immédiatement de le déployer, jusqu'à ce que les risques réels aient été correctement étudiés. Principe de précaution oblige.  Et à ce titre, la ville californienne de San Francisco est devenue la première ville des Etats-Unis à interdire en mai dernier l'usage de la reconnaissance faciale, en se basant pour l’essentiel sur des raisons éthiques en lien avec le respect des droits de l'Homme et de la personne humaine. Poussant le bouchon encore plus loin dans l’activisme et la sémantique militante, l’institut s'en ait aussi pris à l'industrie de l'IA pour son « racisme systémique, sa misogynie et son manque de diversité ». Elle a également demandé la divulgation obligatoire de l'impact environnemental de cette l'industrie. Affaire à suivre. 

Les commentaires de cet article sont à lire ci-après
Articles populaires
Période :
24 heures
7 jours
01.

Et si l’univers n’avait pas de fin (ni de début)

02.

Macron est content, Martinez ronge son frein et Berger engrange les adhésions. Mais la France va mieux ou pas ?

03.

Coronavirus chinois : ces 3 leçons apprises depuis le SRAS pourraient tout changer (mais saurons-nous les appliquer…?)

04.

CGT : Cancer Généralisé du Travail

05.

Des chercheurs parviennent à capter pour la première fois des images d’une liaison entre deux atomes

06.

69% des Français pensent qu’Emmanuel Macron ne sera pas réélu. Mais quel scénario pourrait empêcher son match retour avec Marine Le Pen ?

07.

#JeSuisMila : l’effarante incapacité contemporaine à distinguer la critique adressée au groupe de celle visant les individus

01.

Michel Onfray : “Le bourrage de crâne est parvenu à un degré jamais atteint depuis qu’il y a des hommes”

02.

Quand les députés votent pour grignoter discrètement le droit de propriété en France

03.

CGT : Cancer Généralisé du Travail

04.

Retraites : le Trafalgar d’Emmanuel Macron

05.

Et si l’univers n’avait pas de fin (ni de début)

06.

Mais pourquoi les pêcheurs chinois découvrent-ils autant de petits sous-marins espions dans leurs filets ?

01.

CGT : Cancer Généralisé du Travail

02.

Vu dans un manuel d'histoire : "les attentats du 11 septembre ont été orchestrés par la CIA" !

03.

Greta Thunberg-Donald Trump, le match : avantage à...

04.

Ce duel nationaux/mondialistes auquel s’accrochent Marine Le Pen et Emmanuel Macron alors qu’il n’intéresse pas vraiment les Français

05.

69% des Français pensent qu’Emmanuel Macron ne sera pas réélu. Mais quel scénario pourrait empêcher son match retour avec Marine Le Pen ?

06.

L’arme à 3 coups qui pourrait porter Ségolène Royal vers 2022

Commentaires (0)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
Pas d'autres commentaires