En direct
Best of
Best of du 24 au 30 octobre
En direct
Articles populaires
Période :
24 heures
7 jours
01.

Malika Sorel : "Emmanuel Macron commet une grave erreur dans sa stratégie face à l’islamisme"

02.

Plus odieuse que les caricatures de Mahomet, la caricature d'Erdogan

03.

Stratégie de la tension ? Ce piège dans lequel Erdogan tente d’entraîner la France pour s’imposer comme le nouveau sultan au yeux du monde musulman

04.

Lutte anti-terroriste : un problème nommé DGSI

05.

Sept Français interrogés sur dix (sondage Odoxa pour Figaro et France Info) se disent favorables au nouveau confinement qui vient de débuter

06.

Un sondage dévastateur pour Macron et aussi, hélas, pour la France

07.

Un islamiste radical armé d'un couteau a été interpellé dans le centre de Lyon

01.

L‘épargne des Français va nous sauver de la ruine et financer l’argent magique de la relance : démonstration

02.

Stéphane Plaza se fait larguer pour un plus jeune; Laeticia Hallyday plaque Pascal; Sia adopte des adultes; Kylian Mbappé récupère l'ex de Neymar; Marlène Schiappa aime les hommes, Britney Spears profite

03.

Une certaine gauche s’étrangle des accusations de complicité avec l’islamisme mais sera-t-elle capable d’en tirer des leçons sur ses propres chasses aux fachos imaginaires ?

04.

Bahar Kimyongür : "Dans sa fuite en avant, Erdogan n'hésitera pas à faire flamber le danger islamiste en France"

05.

Ce qui s'est vraiment passé au sein du ministère de l'Education nationale dans les jours ayant précédé la mort de Samuel Paty

06.

« Qu'est-ce que ce pays qui a perdu la tête ? » Clémentine Autain a fait mine d'oublier que c'est Samuel Paty qui avait perdu la sienne

01.

François Hollande : "une partie minoritaire de la gauche a pu manifester une étrange tolérance envers l’islam"

02.

Un sondage dévastateur pour Macron et aussi, hélas, pour la France

03.

Islamisme : pour Alain Juppé, "plus que du séparatisme, c'est un esprit de conquête"

04.

Mais qu’est ce qu’ont vraiment loupé les partis pour que 79% des Français soient désormais prêts à un vote anti-système ?

05.

Islamo-gauchisme : les lendemains ne chantent plus, c'est interdit

06.

Plus odieuse que les caricatures de Mahomet, la caricature d'Erdogan

ça vient d'être publié
décryptage > Culture
Atlanti Culture

"Hourra l'Oural encore" de Bernard Chambaz : en route pour l'Oural avec un amoureux de la Russie, de son peuple et de sa littérature. Un voyage intéressant et émouvant

il y a 26 min 53 sec
pépites > Education
Education nationale
Hommage à Samuel Paty : la rentrée scolaire n'est plus décalée à 10h lundi prochain
il y a 2 heures 57 min
light > Science
Ancêtre
Le chien est le plus vieil ami de l'homme, sa domestication est survenue il y a plus de 10.000 ans
il y a 4 heures 48 min
pépites > Politique
Décision
Antisémitisme : Jeremy Corbyn a été suspendu du Parti travailliste britannique
il y a 5 heures 23 min
pépites > France
Mobilisation des forces de l'ordre
Attentat à Nice : le gouvernement annonce le rappel de 3.500 gendarmes réservistes et la mobilisation de 3.500 policiers
il y a 6 heures 9 min
rendez-vous > Terrorisme
Géopolitico-scanner
La guerre indiscriminée des jihadistes contre la France : du "blasphémateur" Samuel Paty aux chrétiens respectueux de la Basilique niçoise
il y a 7 heures 17 min
pépites > Terrorisme
Religion
Des milliers de manifestants anti-Macron au Bangladesh, au Pakistan, en Afghanistan signale le Daily Mail
il y a 9 heures 18 min
light > Science
Singes
Les gorilles de montagne n'oublient pas leurs amis et sont amicaux avec eux quand ils se retrouvent même après une décennie de séparation
il y a 9 heures 53 min
décryptage > International
Paris - Ankara

Stratégie de la tension ? Ce piège dans lequel Erdogan tente d’entraîner la France pour s’imposer comme le nouveau sultan au yeux du monde musulman

il y a 10 heures 23 min
décryptage > Santé
Barrière contre le virus

Zorro contre le Covid-19 : le masque comme solution efficace et peu coûteuse

il y a 10 heures 32 min
décryptage > Culture
Atlanti Culture

"Effacer les dettes publiques - c’est possible et c’est nécessaire" de Hubert Rodarie : la thèse "contre-intuitive" d’un expert sur un sujet qui interroge les économistes, un appel à une révolution de la pensée

il y a 45 min 17 sec
pépites > Faits divers
Forces de l'ordre
Tentative d’agression au couteau sur un policier dans le XVe arrondissement de Paris
il y a 4 heures 20 min
pépites > Politique
Moyens d'action face au virus
Covid-19 : le Sénat a voté la prolongation de l'état d'urgence sanitaire jusqu'au 31 janvier
il y a 5 heures 1 min
pépites > International
Mini tsunami
Turquie : au moins quatre morts et 120 blessés après un séisme de magnitude 7 en mer Egée
il y a 5 heures 53 min
rendez-vous > Consommation
Atlantic-tac
Quand l’émail est semé de fleurs de sel et quand il neige sur la toundra : c’est l’actualité reconfinée des montres
il y a 6 heures 48 min
pépites > Consommation
Confiné
La France reconfinée pour au moins 4 semaines : ce qui est ouvert ou fermé
il y a 8 heures 42 min
pépite vidéo > Terrorisme
Face à l'info
Attaques terroristes : l'échec du renseignement français ?
il y a 9 heures 25 min
décryptage > France
Lutte contre le séparatisme

Malika Sorel : "Emmanuel Macron commet une grave erreur dans sa stratégie face à l’islamisme"

il y a 10 heures 6 min
pépites > Politique
Reconfinement
Sept Français interrogés sur dix (sondage Odoxa pour Figaro et France Info) se disent favorables au nouveau confinement qui vient de débuter
il y a 10 heures 29 min
décryptage > Politique
Maison Blanche

Le chemin de la victoire de Donald Trump est étroit mais il existe encore

il y a 11 heures 7 min
© Thomas SAMSON / AFP
© Thomas SAMSON / AFP
Escroqueries

Intelligence artificielle : un nouveau type de cybercriminalité utilise la voix de ceux à qui elle s’attaque

Publié le 29 septembre 2019
En mars dernier, l'un des directeurs de service d'une compagnie anglaise a été la victime d'un hacking nouvelle génération. Des hackers sont parvenus à lui faire faire de large transferts d'argent en imitant l'un de ses supérieurs à l'aide de la technologie vocale.
Jean-Paul Pinte
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Jean-Paul Pinte est docteur en information scientifique et technique. Maître de conférences à l'Université Catholique de Lille et expert  en cybercriminalité, il intervient en tant qu'expert au Collège Européen de la Police (CEPOL) et dans de nombreux...
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
En mars dernier, l'un des directeurs de service d'une compagnie anglaise a été la victime d'un hacking nouvelle génération. Des hackers sont parvenus à lui faire faire de large transferts d'argent en imitant l'un de ses supérieurs à l'aide de la technologie vocale.

Atlantico : Au fur et à mesure que les technologies en matière d'Intelligence Artificielle et de technologie vocale progressent la cybercriminalité est appelée à changer et à se perfectionner. Avec l'usage de ces nouvelles technologies, à quoi pourrait ressembler la cybercriminalité de demain ? Et jusqu'où les hackers pourraient-ils aller ? Quelles pourraient en être les conséquences ? 

Jean-Paul Pinte : Nous le savons pertinemment depuis les débuts de la cybercriminalité les cyber-délinquants ont toujours un pas d’avance dans leurs modes opératoires et l’avènement de l’intelligence artificielle, devenu un sujet contemporain ne risque pas d’améliorer les choses.

Quel que soit le domaine, le Deep Learning est en train de bouleverser tous les secteurs d’activité de nos sociétés. Au quotidien, tous les systèmes de dialogue avec les assistants personnels, les enceintes connectés, etc.

Le traitement de la parole, la synthèse de texte, c’est de l’IA dont on se sert tous les jours avec nos smartphones. Il en va de même pour les systèmes de traduction automatique qui ont beaucoup évolué ainsi que nos véhicules avec l’annonce de véhicules autonomes.

Au cœur de ces innovations sont appelées à se développer de nouvelles formes de cybercriminalité. Des hackers sont ainsi parvenus dernièrement à faire faire des transferts d’argent en imitant l’un de ses supérieurs à l’aide de la technologie vocale ! 

Selon la chronique de Jérôme Colombain sur France Info, ils ont même réussi à imiter la voix d’un PDG en  partant tout d’abord d’enregistrements audio réels, issus de conférences ou de vidéos sur Internet. Ensuite, ils utilisent des logiciels qui permettent de recréer des phrases sur mesure. On ne sait pas bien comment les pirates gèrent le mode conversationnel : est-ce qu’ils enregistrent des phrases à l’avance ou bien est-ce qu’ils utilisent des outils puissants qui permettent de parler et de fabriquer la fausse voix à la volée ? 

Dans l’affaire révélée par le WSJ, la victime déclare avoir reconnu au téléphone l’accent allemand de son chef. Mais au troisième appel, l'employé a commencé à avoir des doutes. La qualité audio dépend beaucoup de la puissance informatique disponible. Il faut des ordinateurs puissants, donc très chers, pour créer des deepfakes de qualité. C’est ce qui limite encore pour l'instant l’ampleur des attaques, mais on peut parier que la technologie va encore s’améliorer.   

Nous sommes ici en plein dans le jeu de l’imitation inventé par Turing qui consistait à mettre au point une machine impossible à distinguer de l’être humain.

Dans un autre genre et dans un article récent du hors-série de Science et Vie (N°190) on apprend qu’il serait aisé de berner un système de reconnaissance d’image. On pourrait donc leurrer les réseaux de neurones ! Le japonais Osamu Kitagawa commercialise ainsi des masques ultra-réalistes, parfois utilisés pour tester des systèmes de reconnaissance faciale.

En 2014, Ian Goodfellow  de Google Brain, publie l’image d’un panda imperceptiblement modifiée que GoogleLeNet, l’outil de classification d’images de Google, prend pour un gibbon. Les chercheurs ont conçu un algorithme qui introduit progressivement de minuscules modifications sur l’image initiale, en sélectionnant celles qui maximisent l’erreur de classification de GoogleLeNet.

Autant d’exemples dont pourraient s’emparer les hackers …

Il y a aussi de quoi s’inquiéter à la vue dont la reconnaissance faciale est utilisée en Chine pour surveiller sa population. Et c’est à ce niveau que la technologie du Deepfake pourrait bien décoller. Il s’agit de réaliser des vidéos truquées imitant l’apparence et la voix d’une personne. On peut faire dire ce que l’on veut à une personne comme le hameçonnage, la décrédibilisation d’une personne ou encore une atteinte à sa réputation.

Récemment le chatbot de Microsoft Tay s’est mis à débiter des propose vulgaires, etc.

Une étude prospective de Darktrace menée par Max Heinemeyer, son Director of « Threat Hunting », explore la façon dont l’Intelligence Artificielle pourrait être exploitée par les hackers dont le nombre de compétents est encore limité.

Premier cas de figure évoquée par le rapport, une attaque par un malware se propageant de manière extrêmement rapide dans le réseau d’un cabinet d’avocats. Le malware avait été envoyé via une campagne de phishing et téléchargé malencontreusement par un employé. Avec l’utilisation de l’IA, à l’avenir « les logiciels malveillants se propageront automatiquement via une série de décisions autonomes, intelligemment adaptées aux paramètres du système infecté », indique Max Heinemeyer.

Deuxième attaque : des communications imitées par les attaquants afin d’obtenir la confiance des points de contact et de passer inaperçus dans l’environnement d’une société de gestion de l’eau et de l’électricité. Avec l’IA, le malware pourra s’adapter à l’environnement qu’il infecte. « En apprenant à partir d’informations contextuelles, il saura cibler spécifiquement les points faibles qu’il découvre ou imiter les personnes de confiance », explique l’expert.

Enfin, l’étude rapporte un cas d’exfiltrations des données au sein d’une société de technologie médicale. Les données étaient exfiltrées très lentement avec des volumes très faibles, permettant aux hackers d’agir discrètement. Dans l’avenir, avec l’IA, le malware pourra adapter dynamiquement le volume de données exfiltrées, « en fonction de la bande passante totale utilisée par la machine infectée », devenant bien plus efficace.

Pour se fondre dans leur environnement cible autant que possible, les attaquants humains ajustent leurs techniques pour se normaliser, mais « il est tout à fait possible que les logiciels malveillants se lancent de manière autonome pour acquérir cette compréhension contextuelle en utilisant l’IA, puis adaptent leur comportement à la volée pour se fondre dans un environnement cible », prévient Max Heinemeyer.

Dans une étude baptisée "The Rise of Artificial Intelligence: Future Outlook and Emerging Risks", le groupe d'assurance Allianz passe en revue les différents bienfaits et risques qui pourraient émerger avec le développement de l'IA.

Selon cette étude, voici comment l'intelligence artificielle pourrait être utilisée par des personnes mal-intentionnées:

Les hackers pourront utiliser l'IA pour lancer des cyberattaques sophistiquées:

"La mauvaise utilisation d'une IA forte peut également augmenter le risque de cyber-attaques si des hackers mal intentionnés entraînent cette IA pour attaquer."

Les nouvelles machines qui viennent peupler sol et air peuvent être détournées et devenir des armes connectées:

"Les armes autonomes, telles que les drones, pourraient également être utilisées. Ce type de risques est souvent sous-estimé."

Les hackers pourront aussi développer ces outils plus rapidement grâce à l'IA, estime Allianz: 

"L'IA pourrait faciliter des incidents plus graves en abaissant le coût des nouveaux outils et des nouvelles armes qui permettraient de lancer des attaques."

Et l'ampleur des problèmes sera amplifiée.

"Une inter-connectivité accrue signifie que la vulnérabilité des machines automatiques, autonomes ou qui apprennent par elles-même aux bugs et aux cyber-attaques ne fera qu'augmenter", observe Allianz. 

Si une infrastructure informatique ou électrique est touchée — par un bug ou une cyberattaque —, d'autres équipements qui y sont connectés pourront aussi être atteints.

Par ailleurs, puisqu'avec le machine learning, les IA ont la capacité d'apprendre entre elles, "une erreur de programmation ou une attaque d'un hacker pourrait être répliquée sur de nombreuses machines". Une machine touchée pourra alors "répéter la même erreur plusieurs fois, ce qui provoquera une accumulation de pertes inattendue et une difficulté à identifier la source du problème", alerte Allianz. Avec à la clé, des pertes économiques majeures: 

"Quelle qu'en soit la cause, une erreur non-intentionnelle causée par l'IA pourrait se transformer en un accident majeur, qui pourrait endommager une réputation et donc des résultats financiers", estime l'étude.

En parlant justement de finances, les utilisations de l’IA cette technologie restent prudentes. Il s’agit généralement de chatbots (robot logiciel pouvant dialoguer avec un individu) ou d’assistants virtuels qui n’utilisent pas le deep learning, technologie d’apprentissage basée sur des réseaux de neurones artificiels. C’est le stade le plus avancé de l’intelligence artificielle (IA), mais aussi le plus risqué, d’où l’approche progressive des acteurs financiers et toute la surveillance à mener contre ceux qui voudraient nuire à une banque par exemple…

L’intelligence artificielle fait aussi apparaître de nouveaux risques : « Il est possible de modifier la perception d’un algorithme », souligne Edouard d’Archimbaud, CTO de Kili Technology et auparavant responsable du Lab data science and artificial intelligence chez BNP Paribas CIB. Les médias ont beaucoup parlé des algorithmes de reconnaissance d’image (dont on parlait en première partie de cet article) prenant un éléphant pour une chaise en modifiant seulement quelques pixels. Cela pourrait être problématique pour des solutions comme celle d’Alipay, Smile to Pay, qui permet de payer en un sourire grâce justement à une IA de reconnaissance d’image.

Des données falsifiées pourraient aussi toucher des algorithmes intervenant dans les décisions d’investissement. « Des ‘fake news’ pourraient perturber l’algorithme et provoquer un effet domino sur les marchés », pense Fabien Lortal (Alpha FMC). Edouard d’Archimbaud révèle une des pistes de recherche : « l’adversial machine learning », qui consiste à entraîner deux algorithmes ensemble. « Le travail du premier est de tromper le second qui apprend ainsi à ne pas être trompé », précise-t-il.

On peut enfin aussi envisager le risque d’une IA manipulée qui pourrait même paradoxalement renforcer la cybercriminalité en devenant la cible de nouvelles formes d’attaques destinées à tromper ou influencer le comportement des systèmes intelligents. Ce serait en effet oublier que les hackers peuvent, eux aussi, utiliser des algorithmes complexes pour automatiser certaines tâches, passer sous les radars d’une IA et laisser derrière eux les « bonnes » traces informatiques. Avec un tel outil, il devient possible de cartographier les points faibles d’un réseau et de répandre un virus. Dans ce contexte, où se situe la confiance numérique ? En matière de sécurité digitale et face aux cyberattaques croissantes, l’homme peut-il tout « déléguer » à l’IA… dans la mesure où, dans ce domaine, il reste le premier facteur de risque ?

Comment s'armer face aux deep face et aux technologies vocales ? Comment, alors que les voix récréées, par exemple, sont aujourd'hui presque évidentes à celles qu'elles imitent, distinguer le vrai du faux ?

Jean-Paul Pinte : Vincent Nozick, enseignant chercheur au laboratoire d’informatique Gaspard Monge (LIGM) qui travaille sur un programme de détection des Deepfake baptisé Mesonet nous indique qu’il est assez aisé de créer des Deepfake : “Il suffit d’avoir des bases d’informatique pour créer ce type de vidéos. L’algorithme est disponible sur Internet.”

Face à ces vidéos manipulées à l’aide d’outils d’intelligence artificielle qui se multiplient des logiciels existent pour tenter de les débusquer.

Certains chercheurs étudient désormais les incohérences au niveau des couleurs du visage ou le repérage de warping. Cocréateur d’un de ces outil de détection de deepfake baptisé MesoNet*, Vincent Nozick confie : “Les zones les plus stratégiques avec notre approche sont le nez, les yeux et la bouche de la personne filmée. C’est là que se situe la majorité des irrégularités détectées par notre outil”. Une technique qui marche. MesoNet affiche un taux de réussite de 98%. “Il faut cependant l’entraîner continuellement pour que ce taux ne baisse pas car les techniques évoluent en permanence”, précise le chercheur.

Une autre application Amber Authentificate s’appuie elle, par exemple, sur la blockchain pour confirmer qu’une vidéo n’a pas été modifiée. Lorsqu’une personne tourne une séquence, l’appli génère à intervalles réguliers des codes qui permettront a posteriori de confirmer qu’il s’agit de la séquence originale. Auquel cas Aber accolera un cadre vert à la vidéo. A l’inverse, si une partie de la vidéo est modifiée, l’appli pourra le détecter et passera la couleur du cadre en rouge à ce moment-précis (voir les exemples vidéos ici).

 Benoît Raphaël sur son blog nous rappelle qu’aux Etats-Unis, l'agence de recherche pour la défense (la DARPA) a lancé un appel à projets. Des chercheurs ont répondu, comme Robert Bolles (SRI), qui travaille en ce moment sur des algorithmes capables de détecter des faux visages au milieu des vrais à partir des vidéos originales.

En Hollande, deux chercheurs italiens ont lancé Deeptrace pour donner aux journalistes les bons outils de vérification. Chez Symantec, on s'intéresse notamment au clignement de l'oeil pour détecter les faux humains (merci Blade Runner). Une autre piste, étudiée par Amber Video ou Factom est celle de l'authentification des sources vidéo par la blockchain.

Pour détecter les manipulations, plusieurs pistes sont possibles. La première, qui ne s'applique qu'aux personnalités déjà largement filmées et photographiées, consiste à retrouver les images originales antérieures à la manipulation, voire à comparer la vidéo suspecte avec la "signature gestuelle" habituelle de la personne visée.

Une seconde se concentre sur les défauts générés par le trucage : une incohérence dans le clignement des yeux, la disposition des cheveux ou l'enchaînement des images… Mais les technologies s'adaptent et les "gomment" progressivement.

La troisième piste consiste à entraîner des modèles d'intelligence artificielle à détecter seuls les vidéos trafiquées. Les taux de réussite sont très bons, mais dépendent des exemples disponibles. "Un détecteur de deepfake qui marchait bien il y a un an ne marchera pas forcément sur ceux de cette année", explique Vincent Nozick.

Toujours selon le site de RTBF.be, les géants Facebook et Google, dont les plates-formes sont régulièrement critiquées pour leur rôle dans la désinformation, ont annoncé vouloir apporter leur aide en mettant à disposition des bases de contenus contrefaits. Mais la bataille ne fait que commencer: de nouveaux "deepfakes" utilisent la technologie des "réseaux génératifs adverses" (GANs) pour évaluer leur détectabilité avant même d'être publiés. En clair, ils s'auto-testent.

Plus bluffant, ou plus inquiétant : une équipe d'universitaires allemands travaille depuis 2016 à un logiciel de "marionettisation". Il ne s'agit plus de coller son visage sur celui d'une star dans un blockbuster hollywoodien, mais d'"animer" le visage d'une personnalité avec des mimiques et des paroles inventées, ce qui pourrait par exemple permettre de produire une fausse conférence de presse d'un chef d'Etat, le tout en direct.

Les Deepfake s’amélioreront constamment et seront donc plus difficiles à repérer nous rappelle ce site. Toutefois, si vous souhaitez vous entraîner les yeux, voici quelques pistes.

  • Battement des paupières étrange. Les faux visages n’ont pas de vrais yeux ni de conduits lacrymaux. Donc, même s’ils clignent des yeux, il y aura quelque chose de louche...
  • Mouvements du visage et la musculature. Ils peuvent être saccadés, ou bouger de manière robotique, surtout la bouche.
  • Changement de teint et d'éclairage. Lorsque la tête tourne, la vidéo peut s’agiter et rappeler de mauvais graphismes de jeux vidéo.
  • Mélange bizarre de deux visages. Les vidéos peuvent se trahir lors de mouvements complexes car plus il y a de mouvement, plus il faut de métrage et d'angles originaux pour fabriquer un faux convaincant.

Enfin, la police ne risque-t-elle pas d'être rapidement dépassée par ces technologies rendant l'aboutissement des enquêtes impossible ? De quels outils disposent-elles ? 

Jean-Paul Pinte : En matière de cybercriminalité rien n’est impossible et les menaces et les modes d’ingénierie sociale sont aujourd’hui supérieures à ce que tout être pourrait imaginer !

L’idéal serait que la Police comme la Gendarmerie se joignent au développement de travaux que sont en train de faire certains grands de l’Internet comme Apple, Facebook et Microsoft. Les Deepfake n’en sont en effet qu’à leur début et risquent de toucher assez rapidement d’autres domaines auxquels sont confrontés nos services d’ordre aujourd’hui comme les élections, la pédophilie.  Il n’existe pas d’outils fiables à ce jour pour contrer ces actes cybercriminels. Et Philip Torr, professeur à Oxford et participant au projet, de signaler que de nouveaux outils sont "nécessaires aussi vite que possible pour détecter ces contenus médiatiques manipulés.”

"L'objectif de cette initiative est de créer une technologie que tout le monde pourra utiliser pour détecter les vidéos modifiées par des outils d'intelligence artificielle et dont le but est d'induire en erreur les usagers", a expliqué le directeur technique de Facebook Mike Schroepfer.

M. Schroepfer a ajouté que les techniques de "deepfake" - vidéo ou audio, dont les trucages hyper-réalistes font dire à des personnalités des propos qu'elles n'ont jamais tenus, "posent un défi majeur à la légitimité de l'information en ligne". "Pourtant, le secteur ne possède pas de base de données ou d'outil de référence pour les détecter", a-t-il ajouté.

Ces trucages peuvent aussi reproduire une voix (Deep Fake audio) .C’est ce qu’explique Hugh Thompson, chef de la technologie chez Symantec, une entreprise de cybersécurité, à la BCC. « Le système d’intelligence artificielle (IA) peut être entrainé en utilisant la grande quantité d’enregistrements audio disponibles sur un dirigeant. C’est à dire les vidéos d’entreprise, les appels reçus, les apparitions dans les médias, sur les réseaux sociaux ou même les conférences auxquelles il a participé. » Et lorsque certaines syllabes ou certains mots ne sont pas assez bien reproduits pour paraître réels, il suffit d’ajouter un bruit de fond pour dissimuler cela.

Certains Etats d'outre-Atlantique ont commencé à construire un arsenal législatif autour de cette problématique. Le 2 juin 2018, la Virginie a interdit les deepfakes, estimant qu'ils faisaient partie du "revenge porn", rentrant ainsi dans le cercle très fermé des territoires ayant adopté une telle loi. Selon le site américain The Verge, le Texas se serait dotée d'une législation "anti-deepfakes" spécialement pour les prochaines élections. Cette dernière est entrée en vigueur le 1e septembre 2019.

De son côté, l'Hexagone ne s'est pas encore doté d'une législation spécifiquement relative aux deepfakes. Un premier pas a tout de même été franchi avec la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information. Concrètement, ce texte a créé une nouvelle voie de référé visant à faire cesser la diffusion de fausses informations dans les trois mois précédant un scrutin national. Une fois saisi, le juge doit apprécier, sous 48 heures, si ces données sont diffusées "de manière artificielle ou automatisée" et "massive".

Les commentaires de cet article sont à lire ci-après
Le sujet vous intéresse ?
Commentaires (0)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
Pas d'autres commentaires