En direct
Best of
Best of du 18 au 24 janvier
En direct
Flash-actu
Articles populaires
Période :
24 heures
7 jours
01.

La masse d’épargne accumulée par les Français trahit cette contradiction mortifère entre la vraie richesse de ce pays et le sentiment de pauvreté.

02.

Alors que les populations de culture musulmane connaissent un retour marqué à la religion en Europe, les pays arabo-musulmans connaissent pour leur part une sécularisation rapide

03.

Retraites : ce qui se joue vraiment avec l’avis du Conseil d’Etat sur le projet de loi du gouvernement

04.

Mila menacée de mort et de viol pour avoir critiqué l’Islam : « elle l’a cherché, qu’elle assume » !

05.

Les ministres seraient deux fois plus riches sous le quinquennat d’Emmanuel Macron que sous François Hollande

06.

Mais pourquoi la droite semble-t-elle incapable de capitaliser sur le rejet du duel retour Macron / Le Pen ?

07.

Bilan d’Anne Hidalgo : ce sont les grandes fortunes qui plébiscitent finalement Paris comme ville la plus attractive du monde

01.

Michel Onfray : “Le bourrage de crâne est parvenu à un degré jamais atteint depuis qu’il y a des hommes”

02.

La masse d’épargne accumulée par les Français trahit cette contradiction mortifère entre la vraie richesse de ce pays et le sentiment de pauvreté.

03.

Et si l’univers n’avait pas de fin (ni de début)

04.

CGT : Cancer Généralisé du Travail

05.

Retraites : le Trafalgar d’Emmanuel Macron

06.

Macron est content, Martinez ronge son frein et Berger engrange les adhésions. Mais la France va mieux ou pas ?

01.

La France, ni dictature, ni régime autoritaire mais néanmoins une démocratie affaiblie…

02.

Mila menacée de mort et de viol pour avoir critiqué l’Islam : « elle l’a cherché, qu’elle assume » !

03.

Vu dans un manuel d'histoire : "les attentats du 11 septembre ont été orchestrés par la CIA" !

04.

CGT : Cancer Généralisé du Travail

05.

Mais pourquoi la droite semble-t-elle incapable de capitaliser sur le rejet du duel retour Macron / Le Pen ?

06.

Greta Thunberg-Donald Trump, le match : avantage à...

ça vient d'être publié
pépites > International
"A Tunisian Girl"
Tunisie : mort de Lina Ben Mhenni, symbole de la révolution de 2011
il y a 11 min 43 sec
pépites > Justice
Justice
Patrick Balkany reste en prison après le rejet de la cour d'appel
il y a 1 heure 13 min
décryptage > Société
Insultes et menaces

#JeSuisMila : la France en plein naufrage relativiste

il y a 2 heures 29 min
pépites > France
"Lutter contre l'oubli et le négationnisme"
Emmanuel Macron a inauguré le Mur des Noms rénové au Mémorial de la Shoah
il y a 3 heures 35 min
décryptage > Culture
Atlanti Culture

"Les feux de l'amour et du hasard" : ce Marivaux revisité en soap américain ne fait pas dans la nuance

il y a 4 heures 22 min
pépites > Politique
Bras de fer politique
Municipales à Paris : Stanislas Guerini, délégué général de LREM, estime que Cédric Villani n'est plus "adhérent"du parti
il y a 5 heures 45 min
décryptage > France
Perception

Bonheur, sens du travail et raison d’être : les attentes légitimes des Français et.... celles qui le sont moins

il y a 7 heures 3 min
décryptage > Economie
Inquiétudes sur les marchés

Récession mondiale : une forme de virus ? Comment la traiter ?

il y a 7 heures 41 min
décryptage > Politique
Une mémoire très sélective…

Quand Macron assimile la guerre d’Algérie à la Shoah !

il y a 8 heures 8 min
décryptage > Religion
Paradoxe

Alors que les populations de culture musulmane connaissent un retour marqué à la religion en Europe, les pays arabo-musulmans connaissent pour leur part une sécularisation rapide

il y a 8 heures 50 min
pépites > Science
Prouesse
Des déchets nucléaires recyclés permettraient d'obtenir des batteries quasi éternelles
il y a 39 min 48 sec
light > Science
Age bonifié ?
Des scientifiques écossais ont utilisé la datation au carbone 14 afin de prouver l'âge réel des bouteilles et pour lutter contre les fraudes
il y a 1 heure 46 min
pépites > Terrorisme
Terrorisme
L'Etat islamique annonce une "nouvelle phase de son jihad" et menace Israël
il y a 2 heures 59 min
décryptage > Culture
Atlanti Culture

"L'offrande grecque, une aventure de Bernie Gunther" de Philip Kerr : du rififi chez les Grecs !

il y a 4 heures 11 min
décryptage > Economie
Les entrepreneurs parlent aux Français

Pourquoi les Américains et les Chinois sont-ils meilleurs que nous ?

il y a 5 heures 44 sec
pépite vidéo > Sport
Immense tristesse
Kobe Bryant, la légende des Los Angeles Lakers, est décédé à l'âge de 41 dans un crash d'hélicoptère
il y a 6 heures 21 min
décryptage > Politique
Projections financières lacunaires

Retraites : ce qui se joue vraiment avec l’avis du Conseil d’Etat sur le projet de loi du gouvernement

il y a 7 heures 29 min
décryptage > Politique
Calendrier électoral

Mais pourquoi la droite semble-t-elle incapable de capitaliser sur le rejet du duel retour Macron / Le Pen ?

il y a 8 heures 31 sec
rendez-vous > High-tech
La minute tech
Le vrai coût de l’utilisation de Google et Facebook : notre vie privée et nos données
il y a 8 heures 34 min
décryptage > Economie
Matières premières

Plus précieux que l’or, le palladium : les raisons d’un envol des prix

il y a 9 heures 31 min
© Thomas SAMSON / AFP
© Thomas SAMSON / AFP
Escroqueries

Intelligence artificielle : un nouveau type de cybercriminalité utilise la voix de ceux à qui elle s’attaque

Publié le 29 septembre 2019
En mars dernier, l'un des directeurs de service d'une compagnie anglaise a été la victime d'un hacking nouvelle génération. Des hackers sont parvenus à lui faire faire de large transferts d'argent en imitant l'un de ses supérieurs à l'aide de la technologie vocale.
Jean-Paul Pinte est docteur en information scientifique et technique.Maître de conférences à l'Université Catholique de Lille, il est expert en cybercriminalité.
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Jean-Paul Pinte
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Jean-Paul Pinte est docteur en information scientifique et technique.Maître de conférences à l'Université Catholique de Lille, il est expert en cybercriminalité.
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
En mars dernier, l'un des directeurs de service d'une compagnie anglaise a été la victime d'un hacking nouvelle génération. Des hackers sont parvenus à lui faire faire de large transferts d'argent en imitant l'un de ses supérieurs à l'aide de la technologie vocale.

Atlantico : Au fur et à mesure que les technologies en matière d'Intelligence Artificielle et de technologie vocale progressent la cybercriminalité est appelée à changer et à se perfectionner. Avec l'usage de ces nouvelles technologies, à quoi pourrait ressembler la cybercriminalité de demain ? Et jusqu'où les hackers pourraient-ils aller ? Quelles pourraient en être les conséquences ? 

Jean-Paul Pinte : Nous le savons pertinemment depuis les débuts de la cybercriminalité les cyber-délinquants ont toujours un pas d’avance dans leurs modes opératoires et l’avènement de l’intelligence artificielle, devenu un sujet contemporain ne risque pas d’améliorer les choses.

Quel que soit le domaine, le Deep Learning est en train de bouleverser tous les secteurs d’activité de nos sociétés. Au quotidien, tous les systèmes de dialogue avec les assistants personnels, les enceintes connectés, etc.

Le traitement de la parole, la synthèse de texte, c’est de l’IA dont on se sert tous les jours avec nos smartphones. Il en va de même pour les systèmes de traduction automatique qui ont beaucoup évolué ainsi que nos véhicules avec l’annonce de véhicules autonomes.

Au cœur de ces innovations sont appelées à se développer de nouvelles formes de cybercriminalité. Des hackers sont ainsi parvenus dernièrement à faire faire des transferts d’argent en imitant l’un de ses supérieurs à l’aide de la technologie vocale ! 

Selon la chronique de Jérôme Colombain sur France Info, ils ont même réussi à imiter la voix d’un PDG en  partant tout d’abord d’enregistrements audio réels, issus de conférences ou de vidéos sur Internet. Ensuite, ils utilisent des logiciels qui permettent de recréer des phrases sur mesure. On ne sait pas bien comment les pirates gèrent le mode conversationnel : est-ce qu’ils enregistrent des phrases à l’avance ou bien est-ce qu’ils utilisent des outils puissants qui permettent de parler et de fabriquer la fausse voix à la volée ? 

Dans l’affaire révélée par le WSJ, la victime déclare avoir reconnu au téléphone l’accent allemand de son chef. Mais au troisième appel, l'employé a commencé à avoir des doutes. La qualité audio dépend beaucoup de la puissance informatique disponible. Il faut des ordinateurs puissants, donc très chers, pour créer des deepfakes de qualité. C’est ce qui limite encore pour l'instant l’ampleur des attaques, mais on peut parier que la technologie va encore s’améliorer.   

Nous sommes ici en plein dans le jeu de l’imitation inventé par Turing qui consistait à mettre au point une machine impossible à distinguer de l’être humain.

Dans un autre genre et dans un article récent du hors-série de Science et Vie (N°190) on apprend qu’il serait aisé de berner un système de reconnaissance d’image. On pourrait donc leurrer les réseaux de neurones ! Le japonais Osamu Kitagawa commercialise ainsi des masques ultra-réalistes, parfois utilisés pour tester des systèmes de reconnaissance faciale.

En 2014, Ian Goodfellow  de Google Brain, publie l’image d’un panda imperceptiblement modifiée que GoogleLeNet, l’outil de classification d’images de Google, prend pour un gibbon. Les chercheurs ont conçu un algorithme qui introduit progressivement de minuscules modifications sur l’image initiale, en sélectionnant celles qui maximisent l’erreur de classification de GoogleLeNet.

Autant d’exemples dont pourraient s’emparer les hackers …

Il y a aussi de quoi s’inquiéter à la vue dont la reconnaissance faciale est utilisée en Chine pour surveiller sa population. Et c’est à ce niveau que la technologie du Deepfake pourrait bien décoller. Il s’agit de réaliser des vidéos truquées imitant l’apparence et la voix d’une personne. On peut faire dire ce que l’on veut à une personne comme le hameçonnage, la décrédibilisation d’une personne ou encore une atteinte à sa réputation.

Récemment le chatbot de Microsoft Tay s’est mis à débiter des propose vulgaires, etc.

Une étude prospective de Darktrace menée par Max Heinemeyer, son Director of « Threat Hunting », explore la façon dont l’Intelligence Artificielle pourrait être exploitée par les hackers dont le nombre de compétents est encore limité.

Premier cas de figure évoquée par le rapport, une attaque par un malware se propageant de manière extrêmement rapide dans le réseau d’un cabinet d’avocats. Le malware avait été envoyé via une campagne de phishing et téléchargé malencontreusement par un employé. Avec l’utilisation de l’IA, à l’avenir « les logiciels malveillants se propageront automatiquement via une série de décisions autonomes, intelligemment adaptées aux paramètres du système infecté », indique Max Heinemeyer.

Deuxième attaque : des communications imitées par les attaquants afin d’obtenir la confiance des points de contact et de passer inaperçus dans l’environnement d’une société de gestion de l’eau et de l’électricité. Avec l’IA, le malware pourra s’adapter à l’environnement qu’il infecte. « En apprenant à partir d’informations contextuelles, il saura cibler spécifiquement les points faibles qu’il découvre ou imiter les personnes de confiance », explique l’expert.

Enfin, l’étude rapporte un cas d’exfiltrations des données au sein d’une société de technologie médicale. Les données étaient exfiltrées très lentement avec des volumes très faibles, permettant aux hackers d’agir discrètement. Dans l’avenir, avec l’IA, le malware pourra adapter dynamiquement le volume de données exfiltrées, « en fonction de la bande passante totale utilisée par la machine infectée », devenant bien plus efficace.

Pour se fondre dans leur environnement cible autant que possible, les attaquants humains ajustent leurs techniques pour se normaliser, mais « il est tout à fait possible que les logiciels malveillants se lancent de manière autonome pour acquérir cette compréhension contextuelle en utilisant l’IA, puis adaptent leur comportement à la volée pour se fondre dans un environnement cible », prévient Max Heinemeyer.

Dans une étude baptisée "The Rise of Artificial Intelligence: Future Outlook and Emerging Risks", le groupe d'assurance Allianz passe en revue les différents bienfaits et risques qui pourraient émerger avec le développement de l'IA.

Selon cette étude, voici comment l'intelligence artificielle pourrait être utilisée par des personnes mal-intentionnées:

Les hackers pourront utiliser l'IA pour lancer des cyberattaques sophistiquées:

"La mauvaise utilisation d'une IA forte peut également augmenter le risque de cyber-attaques si des hackers mal intentionnés entraînent cette IA pour attaquer."

Les nouvelles machines qui viennent peupler sol et air peuvent être détournées et devenir des armes connectées:

"Les armes autonomes, telles que les drones, pourraient également être utilisées. Ce type de risques est souvent sous-estimé."

Les hackers pourront aussi développer ces outils plus rapidement grâce à l'IA, estime Allianz: 

"L'IA pourrait faciliter des incidents plus graves en abaissant le coût des nouveaux outils et des nouvelles armes qui permettraient de lancer des attaques."

Et l'ampleur des problèmes sera amplifiée.

"Une inter-connectivité accrue signifie que la vulnérabilité des machines automatiques, autonomes ou qui apprennent par elles-même aux bugs et aux cyber-attaques ne fera qu'augmenter", observe Allianz. 

Si une infrastructure informatique ou électrique est touchée — par un bug ou une cyberattaque —, d'autres équipements qui y sont connectés pourront aussi être atteints.

Par ailleurs, puisqu'avec le machine learning, les IA ont la capacité d'apprendre entre elles, "une erreur de programmation ou une attaque d'un hacker pourrait être répliquée sur de nombreuses machines". Une machine touchée pourra alors "répéter la même erreur plusieurs fois, ce qui provoquera une accumulation de pertes inattendue et une difficulté à identifier la source du problème", alerte Allianz. Avec à la clé, des pertes économiques majeures: 

"Quelle qu'en soit la cause, une erreur non-intentionnelle causée par l'IA pourrait se transformer en un accident majeur, qui pourrait endommager une réputation et donc des résultats financiers", estime l'étude.

En parlant justement de finances, les utilisations de l’IA cette technologie restent prudentes. Il s’agit généralement de chatbots (robot logiciel pouvant dialoguer avec un individu) ou d’assistants virtuels qui n’utilisent pas le deep learning, technologie d’apprentissage basée sur des réseaux de neurones artificiels. C’est le stade le plus avancé de l’intelligence artificielle (IA), mais aussi le plus risqué, d’où l’approche progressive des acteurs financiers et toute la surveillance à mener contre ceux qui voudraient nuire à une banque par exemple…

L’intelligence artificielle fait aussi apparaître de nouveaux risques : « Il est possible de modifier la perception d’un algorithme », souligne Edouard d’Archimbaud, CTO de Kili Technology et auparavant responsable du Lab data science and artificial intelligence chez BNP Paribas CIB. Les médias ont beaucoup parlé des algorithmes de reconnaissance d’image (dont on parlait en première partie de cet article) prenant un éléphant pour une chaise en modifiant seulement quelques pixels. Cela pourrait être problématique pour des solutions comme celle d’Alipay, Smile to Pay, qui permet de payer en un sourire grâce justement à une IA de reconnaissance d’image.

Des données falsifiées pourraient aussi toucher des algorithmes intervenant dans les décisions d’investissement. « Des ‘fake news’ pourraient perturber l’algorithme et provoquer un effet domino sur les marchés », pense Fabien Lortal (Alpha FMC). Edouard d’Archimbaud révèle une des pistes de recherche : « l’adversial machine learning », qui consiste à entraîner deux algorithmes ensemble. « Le travail du premier est de tromper le second qui apprend ainsi à ne pas être trompé », précise-t-il.

On peut enfin aussi envisager le risque d’une IA manipulée qui pourrait même paradoxalement renforcer la cybercriminalité en devenant la cible de nouvelles formes d’attaques destinées à tromper ou influencer le comportement des systèmes intelligents. Ce serait en effet oublier que les hackers peuvent, eux aussi, utiliser des algorithmes complexes pour automatiser certaines tâches, passer sous les radars d’une IA et laisser derrière eux les « bonnes » traces informatiques. Avec un tel outil, il devient possible de cartographier les points faibles d’un réseau et de répandre un virus. Dans ce contexte, où se situe la confiance numérique ? En matière de sécurité digitale et face aux cyberattaques croissantes, l’homme peut-il tout « déléguer » à l’IA… dans la mesure où, dans ce domaine, il reste le premier facteur de risque ?

Comment s'armer face aux deep face et aux technologies vocales ? Comment, alors que les voix récréées, par exemple, sont aujourd'hui presque évidentes à celles qu'elles imitent, distinguer le vrai du faux ?

Jean-Paul Pinte : Vincent Nozick, enseignant chercheur au laboratoire d’informatique Gaspard Monge (LIGM) qui travaille sur un programme de détection des Deepfake baptisé Mesonet nous indique qu’il est assez aisé de créer des Deepfake : “Il suffit d’avoir des bases d’informatique pour créer ce type de vidéos. L’algorithme est disponible sur Internet.”

Face à ces vidéos manipulées à l’aide d’outils d’intelligence artificielle qui se multiplient des logiciels existent pour tenter de les débusquer.

Certains chercheurs étudient désormais les incohérences au niveau des couleurs du visage ou le repérage de warping. Cocréateur d’un de ces outil de détection de deepfake baptisé MesoNet*, Vincent Nozick confie : “Les zones les plus stratégiques avec notre approche sont le nez, les yeux et la bouche de la personne filmée. C’est là que se situe la majorité des irrégularités détectées par notre outil”. Une technique qui marche. MesoNet affiche un taux de réussite de 98%. “Il faut cependant l’entraîner continuellement pour que ce taux ne baisse pas car les techniques évoluent en permanence”, précise le chercheur.

Une autre application Amber Authentificate s’appuie elle, par exemple, sur la blockchain pour confirmer qu’une vidéo n’a pas été modifiée. Lorsqu’une personne tourne une séquence, l’appli génère à intervalles réguliers des codes qui permettront a posteriori de confirmer qu’il s’agit de la séquence originale. Auquel cas Aber accolera un cadre vert à la vidéo. A l’inverse, si une partie de la vidéo est modifiée, l’appli pourra le détecter et passera la couleur du cadre en rouge à ce moment-précis (voir les exemples vidéos ici).

 Benoît Raphaël sur son blog nous rappelle qu’aux Etats-Unis, l'agence de recherche pour la défense (la DARPA) a lancé un appel à projets. Des chercheurs ont répondu, comme Robert Bolles (SRI), qui travaille en ce moment sur des algorithmes capables de détecter des faux visages au milieu des vrais à partir des vidéos originales.

En Hollande, deux chercheurs italiens ont lancé Deeptrace pour donner aux journalistes les bons outils de vérification. Chez Symantec, on s'intéresse notamment au clignement de l'oeil pour détecter les faux humains (merci Blade Runner). Une autre piste, étudiée par Amber Video ou Factom est celle de l'authentification des sources vidéo par la blockchain.

Pour détecter les manipulations, plusieurs pistes sont possibles. La première, qui ne s'applique qu'aux personnalités déjà largement filmées et photographiées, consiste à retrouver les images originales antérieures à la manipulation, voire à comparer la vidéo suspecte avec la "signature gestuelle" habituelle de la personne visée.

Une seconde se concentre sur les défauts générés par le trucage : une incohérence dans le clignement des yeux, la disposition des cheveux ou l'enchaînement des images… Mais les technologies s'adaptent et les "gomment" progressivement.

La troisième piste consiste à entraîner des modèles d'intelligence artificielle à détecter seuls les vidéos trafiquées. Les taux de réussite sont très bons, mais dépendent des exemples disponibles. "Un détecteur de deepfake qui marchait bien il y a un an ne marchera pas forcément sur ceux de cette année", explique Vincent Nozick.

Toujours selon le site de RTBF.be, les géants Facebook et Google, dont les plates-formes sont régulièrement critiquées pour leur rôle dans la désinformation, ont annoncé vouloir apporter leur aide en mettant à disposition des bases de contenus contrefaits. Mais la bataille ne fait que commencer: de nouveaux "deepfakes" utilisent la technologie des "réseaux génératifs adverses" (GANs) pour évaluer leur détectabilité avant même d'être publiés. En clair, ils s'auto-testent.

Plus bluffant, ou plus inquiétant : une équipe d'universitaires allemands travaille depuis 2016 à un logiciel de "marionettisation". Il ne s'agit plus de coller son visage sur celui d'une star dans un blockbuster hollywoodien, mais d'"animer" le visage d'une personnalité avec des mimiques et des paroles inventées, ce qui pourrait par exemple permettre de produire une fausse conférence de presse d'un chef d'Etat, le tout en direct.

Les Deepfake s’amélioreront constamment et seront donc plus difficiles à repérer nous rappelle ce site. Toutefois, si vous souhaitez vous entraîner les yeux, voici quelques pistes.

  • Battement des paupières étrange. Les faux visages n’ont pas de vrais yeux ni de conduits lacrymaux. Donc, même s’ils clignent des yeux, il y aura quelque chose de louche...
  • Mouvements du visage et la musculature. Ils peuvent être saccadés, ou bouger de manière robotique, surtout la bouche.
  • Changement de teint et d'éclairage. Lorsque la tête tourne, la vidéo peut s’agiter et rappeler de mauvais graphismes de jeux vidéo.
  • Mélange bizarre de deux visages. Les vidéos peuvent se trahir lors de mouvements complexes car plus il y a de mouvement, plus il faut de métrage et d'angles originaux pour fabriquer un faux convaincant.

Enfin, la police ne risque-t-elle pas d'être rapidement dépassée par ces technologies rendant l'aboutissement des enquêtes impossible ? De quels outils disposent-elles ? 

Jean-Paul Pinte : En matière de cybercriminalité rien n’est impossible et les menaces et les modes d’ingénierie sociale sont aujourd’hui supérieures à ce que tout être pourrait imaginer !

L’idéal serait que la Police comme la Gendarmerie se joignent au développement de travaux que sont en train de faire certains grands de l’Internet comme Apple, Facebook et Microsoft. Les Deepfake n’en sont en effet qu’à leur début et risquent de toucher assez rapidement d’autres domaines auxquels sont confrontés nos services d’ordre aujourd’hui comme les élections, la pédophilie.  Il n’existe pas d’outils fiables à ce jour pour contrer ces actes cybercriminels. Et Philip Torr, professeur à Oxford et participant au projet, de signaler que de nouveaux outils sont "nécessaires aussi vite que possible pour détecter ces contenus médiatiques manipulés.”

"L'objectif de cette initiative est de créer une technologie que tout le monde pourra utiliser pour détecter les vidéos modifiées par des outils d'intelligence artificielle et dont le but est d'induire en erreur les usagers", a expliqué le directeur technique de Facebook Mike Schroepfer.

M. Schroepfer a ajouté que les techniques de "deepfake" - vidéo ou audio, dont les trucages hyper-réalistes font dire à des personnalités des propos qu'elles n'ont jamais tenus, "posent un défi majeur à la légitimité de l'information en ligne". "Pourtant, le secteur ne possède pas de base de données ou d'outil de référence pour les détecter", a-t-il ajouté.

Ces trucages peuvent aussi reproduire une voix (Deep Fake audio) .C’est ce qu’explique Hugh Thompson, chef de la technologie chez Symantec, une entreprise de cybersécurité, à la BCC. « Le système d’intelligence artificielle (IA) peut être entrainé en utilisant la grande quantité d’enregistrements audio disponibles sur un dirigeant. C’est à dire les vidéos d’entreprise, les appels reçus, les apparitions dans les médias, sur les réseaux sociaux ou même les conférences auxquelles il a participé. » Et lorsque certaines syllabes ou certains mots ne sont pas assez bien reproduits pour paraître réels, il suffit d’ajouter un bruit de fond pour dissimuler cela.

Certains Etats d'outre-Atlantique ont commencé à construire un arsenal législatif autour de cette problématique. Le 2 juin 2018, la Virginie a interdit les deepfakes, estimant qu'ils faisaient partie du "revenge porn", rentrant ainsi dans le cercle très fermé des territoires ayant adopté une telle loi. Selon le site américain The Verge, le Texas se serait dotée d'une législation "anti-deepfakes" spécialement pour les prochaines élections. Cette dernière est entrée en vigueur le 1e septembre 2019.

De son côté, l'Hexagone ne s'est pas encore doté d'une législation spécifiquement relative aux deepfakes. Un premier pas a tout de même été franchi avec la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information. Concrètement, ce texte a créé une nouvelle voie de référé visant à faire cesser la diffusion de fausses informations dans les trois mois précédant un scrutin national. Une fois saisi, le juge doit apprécier, sous 48 heures, si ces données sont diffusées "de manière artificielle ou automatisée" et "massive".

Les commentaires de cet article sont à lire ci-après
Le sujet vous intéresse ?
Articles populaires
Période :
24 heures
7 jours
01.

La masse d’épargne accumulée par les Français trahit cette contradiction mortifère entre la vraie richesse de ce pays et le sentiment de pauvreté.

02.

Alors que les populations de culture musulmane connaissent un retour marqué à la religion en Europe, les pays arabo-musulmans connaissent pour leur part une sécularisation rapide

03.

Retraites : ce qui se joue vraiment avec l’avis du Conseil d’Etat sur le projet de loi du gouvernement

04.

Mila menacée de mort et de viol pour avoir critiqué l’Islam : « elle l’a cherché, qu’elle assume » !

05.

Les ministres seraient deux fois plus riches sous le quinquennat d’Emmanuel Macron que sous François Hollande

06.

Mais pourquoi la droite semble-t-elle incapable de capitaliser sur le rejet du duel retour Macron / Le Pen ?

07.

Bilan d’Anne Hidalgo : ce sont les grandes fortunes qui plébiscitent finalement Paris comme ville la plus attractive du monde

01.

Michel Onfray : “Le bourrage de crâne est parvenu à un degré jamais atteint depuis qu’il y a des hommes”

02.

La masse d’épargne accumulée par les Français trahit cette contradiction mortifère entre la vraie richesse de ce pays et le sentiment de pauvreté.

03.

Et si l’univers n’avait pas de fin (ni de début)

04.

CGT : Cancer Généralisé du Travail

05.

Retraites : le Trafalgar d’Emmanuel Macron

06.

Macron est content, Martinez ronge son frein et Berger engrange les adhésions. Mais la France va mieux ou pas ?

01.

La France, ni dictature, ni régime autoritaire mais néanmoins une démocratie affaiblie…

02.

Mila menacée de mort et de viol pour avoir critiqué l’Islam : « elle l’a cherché, qu’elle assume » !

03.

Vu dans un manuel d'histoire : "les attentats du 11 septembre ont été orchestrés par la CIA" !

04.

CGT : Cancer Généralisé du Travail

05.

Mais pourquoi la droite semble-t-elle incapable de capitaliser sur le rejet du duel retour Macron / Le Pen ?

06.

Greta Thunberg-Donald Trump, le match : avantage à...

Commentaires (0)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
Pas d'autres commentaires