Alexa, Siri ou Google Home vous enregistrent bien plus souvent que vous ne le pensez<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Alexa, Siri ou Google Home vous enregistrent bien plus souvent que vous ne le pensez
©Reuters

La Minute Tech

Les assistants vocaux comme Siri, Alexa et les autres appareils de ce type se mettent en route jusqu'à 19 fois par jour. Ils enregistrent jusqu'à 43 secondes d'audio à chaque fois. Quels sont les risques et quelles sont les principales conséquences de ces intrusions dans notre quotidien ?

Fabrice Epelboin

Fabrice Epelboin

Fabrice Epelboin est enseignant à Sciences Po et cofondateur de Yogosha, une startup à la croisée de la sécurité informatique et de l'économie collaborative.

Voir la bio »

Atlantico.fr : Quelle technologie se cache derrière les assistants vocaux ? 

Fabrice Epelboin : Il s’agit de ce que l’on appelle le Deep Learning. C’est une des branches de l’intelligence artificielle (IA). C’est même LA branche qui donne des résultats probants. Elle donne lieu à une vraie application industrielle dans pleins de domaines, dont les assistants vocaux qui sont en train d’envahir tous nos foyers. Ils sont extrêmement pratiques et proposent vraiment une nouvelle façon, pleine d’avenir, d’interagir avec l’ordinateur. Ce qu’il faut bien comprendre c’est que cette forme d’IA s’appuie sur énormément de travail humain, en quantité pharamineuse même. Cela a été très bien analysé par Antonio Casili de l’EHESS. Des gens vont apprendre des choses à l’IA ou la suppléer quand elle n’arrive pas à les faire. Ces personnes vont, lorsque vous photographiez votre reçu de banque et que vous l’envoyez à votre comptabilité, apprendre à l’IA à lire ce qu’il y a sur le reçu si elle n’y arrive pas toute seule. Il en est exactement de même pour les assistants vocaux. De temps en temps, votre assistant vocal ne comprend pas ce que vous voulez lui dire et va passer la main à un être humain qui va lui dire de façon à ce qu’elle apprenne de ses erreurs. C’est un boulevard pour tout un tas de problématiques juridiques, à l’ère du Règlement Général sur la Protection des Données (RGPD). Tous ces êtres humains qui vont assister l’IA ne sont pas nécessairement dans des zones qui obéissent aux mêmes lois que nous. Il se prépare une vague de procès dans tous les sens du fait de la mondialisation de cette nouvelle forme de prolétariat qui est apparu avec le Deep Learning et qui est massivement présent dans des zones à très bas coût de travail, en dehors du contient européen. 

Sous quelle forme cela apparait-il ? 

Nous avons vraiment à faire à des usines, un peu comme ces usines de textiles qui se faisaient en Chine et maintenant plutôt au Bangladesh, mais construit comme des « sweatshop » intellectuels. C’est à dire des gens qui vont faire des tâches très répétitives, à la façon des Temps Modernes de Charlie Chaplin, mais intellectuelles pas manuelles. On voit ça dans les grands centres de modération qui s’occupent de modérer les contenus sur Facebook ou ailleurs et évidemment il y a le même genre de chose qui suppléent le travail des IA qui sont derrières nos assistants vocaux. Cette main d’oeuvre est répartie un peu partout sur Terre avec des considérations qui sont aussi linguistiques, mais pas vraiment culturelles ni juridiques parce que l’enjeu est de maximiser les revenus de l’entreprise ce qui est rarement compatible avec les conditions de travail que l’on trouve en Europe. 

Quelles pourraient être les conséquences pour les GAFAM ou pour nous consommateurs si les leviers juridiques pour contrer ces pratiques étaient activés ? 

Il existe d’autres technologies pour les assistants vocaux, plus en local, qui pourraient être une nouvelle génération d’assistants vocaux qui respect notre vie privée. Ces technologies sont développées, elles sont là et disponibles mais plutôt dans le marché du B2B (Buisiness to Business) mais elles pourraient venir dans le grand public. Par ailleurs, il faudrait déjà en passer par des grands procès qui soient gagnés, avec des sanctions. La RGPD prévoit des sanctions qui sont colossales puisqu’elles se calculent en fonction du chiffre d’affaire et dans le cas des GAFAM celui ci est considérable. Mais si cela venait à arriver, nous aurions à faire à un bras de fer géopolitique, on l’a vu avec la taxe sur les GAFAM. C’est bien gentil de vouloir taxer Google ou Apple de 2 ou plus % sur le chiffre d’affaire mondial, mais nous aurions forcément un bras de fer avec les États-Unis. LA problématique dépasserai alors de très loin celle des assistant vocaux ou même celle de la présence d’Apple sur le contient européen. 

Ce que révèle cette affaire des assistants vocaux, c’est, au final tout le contexte technologique et géopolitique qui est le notre actuellement. On ne peut se placer uniquement du point de vue de la défense de la vie privée ? 

Tout à fait. Ces technologies là sont une forme d’infrastructure et comme toute infrastructure technologique elles ont aujourd’hui un poids géopolitique absolument considérable. Ce sont des éléments à prendre en compte que ce soit pour soit, si on veut réfléchir à son rapport aux technologies, pour une entreprise, qui forcément doit se poser ses questions-là pour pouvoir ne serait-ce qu’anticiper l’impact d’une évolution de la géopolitique sur ses activités, et puis évidemment pour les politiques sur la question de la souveraineté. On l’a vu à l’occasion du coronavirus, cela commence à devenir un sujet de survie et de résilience, ça l’est aussi pour les technologies.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !