Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Crédits Photo: Ethan Miller / GETTY IMAGES NORTH AMERICA / AFP
deepfakes pornhub

Nouveau fléau

Après la complaisance vis-à-vis du "revenge porn", les sites porno font la sourde oreille face aux victimes de deepfakes

Les sites pornographiques réalisent des millions de dollars de chiffres d’affaires souvent au détriment de certaines personnes comme ce fut le cas avec les "revenge porn". Les célébrités sont désormais victimes de deepfake. Les visage des acteurs d’origine sont remplacés par celui de personnalités célèbres.

Didier Hardoin

Didier Hardoin

Didier Hardoin est ingenieur en systèmes d'information, spécialiste en cybersecurité.

 

Voir la bio »

Atlantico.fr : Le deepfake (ou "hypertrucage") est une technique de synthèse d'images basée sur l'intelligence artificielle. Elle sert à superposer des fichiers audio et vidéo existants sur d'autres vidéos. Est-il facile d'en réaliser un ? 

Didier Hardoin : Aujourd'hui on se retrouve par exemple avec une application humoristique disponible depuis pas très longtemps dans l'appstore // playstore: reface. 

Elle permet de s'insérer soi-même ou quelqu'un dans des extraits des vidéos musicaux, films, où même remplacer le visage des GIF's. REFACE est une compagnie ukrainienne qui a été fondé en 2018, qui aujourd'hui nous emmène cette technologie facilement accessible par tout le monde (moyennant paiement), pour des usages humoristiques et parodiques. On se retrouve à danser comme Shakira, michael jackson, se transformer en Iron Man, faire un défilé de mode Victoria Secrets, entre autres... On rigole avec le résultat parfois surprenant, parfois pas du tout proche à la réalité....  

Comment ça marche : REFACE utilise les GAN (réseaux antagonistes génératifs) ce sont des algorythmes d'apprentissage non suppervisé à base de réseaux de neurones artificiels. Ils sont notamment utilisés dans les domaines du traitement d'images, texte, sons... En résumé ce sont deux réseaux de neurones, mis en compétition. Le premier réseau est le générateur, il génère un échantillon (ex. une image), tandis que son adversaire, le discriminateur essaie de détecter si un échantillon est réel ou bien s'il est le résultat du générateur. L'apprentissage se fait jusqu'à ce que le réseau arrive à une certaine acceptabilité. Un autre usage de cette technologie est la généreration des photos de personnes qui n'ont jamais existé, pour faciliter la création des faux profils sur les réseaux sociaux par exemple. Dans ses débuts on a eu un collectif d'artistes qui ont fait un portrait qui s'est vendu à hauteur de 380 000 euros ! 

Alors il va sans dire, l'application REFACE envois les données pour un traitement à distance, les vidéos sont déjà un produit préconçu afin de limiter le traitement, et apprentissage des modèles. Donc très facile et rapide de se transformer dans un artiste connu pour des fins humoristiques où parodiques. Voici un gros résumé de l'application reface : 

En donnant un repère historique, depuis le temps de photoshop, je parle ici d'il y a bien une quinzaine d'années voir plus, un individu qui pouvait se procurer le logiciel et qui comptait avec une configuration matérielle correcte pour l'utilisation, pouvait faire cet échange facial sur une image (un peu plus complexe à l'époque). Pour des fins humoristiques ou autres, et la vraisemblance arrivait à des niveaux surprenants (à condition d'avoir le savoir, matériel et le temps). Plus tard arrive cette technologie, qui demande tout de même une configuration très puissante pour pouvoir avoir un rendu de qualité! Le temps d'entrainement des GAN n'est pas anodin, on peut parler de plusieurs jours et d'un volume de données très conséquent, donc quand on recherche un résultat qualitatif et non approximatif il faut disposer de beaucoup de temps, sinon pourquoi le faire? Donc je dirais que la réalisation "maison" est à la portée de ceux qui ont le temps, le matériel et les connaissances pour le faire. D'ailleurs ils existent pas mal des deepfakes en parodiant des extraits des films connus sur youtube...

Un exemple plus commercialement ciblé, est le film STAR WARS ROGUE ONE, où l'on retrouve l'amiral TARKIN (historiquement interprété par l'acteur Peter Crushing, décédé en 1994) dont Disney l'a ramène à la vie dans ce film de 2016. Il va sans dire le nombre d'heures, matériel, échantillonnages, personnel et données que cela à généré, avec un résultat tout à fait extraordinaire.

En revanche, le deepfake commence à avoir d'autres portées, en effet les cyberattaques par des vecteurs deepfake restent très rares mais existants ! L'attaquant utilise des échantillons de voix afin de réaliser des impersonifications et ainsi pouvoir atteindre son objectif. On parle alors dans les deux cas du chantage algorithmique. Il faut se rappeler des mots "deep-fake", qui se décomposent en "deep learning - fake" donc de l'apprentissage profond pour produire des faux.

Le monde de la pornographie est ciblé par d'innombrable deepfake. Jusqu'à 1000 vidéos de ce genre ont été téléchargées sur des sites pornographiques chaque mois. Peut-on les filtrer ? Et peut-il y a avoir des conséquences graves pour le site diffusant ce genre de vidéos, et pour l'individu qui en est à l'origine ? 

Il n'est pas anodin comme souvent lors des avancements technologiques, que ces derniers soient utilisés pour produire des faux contenus pornographiques, dans un but de récolter le maximum d'argent. D'ailleurs on a même eu le cas d'une application qui utilisait ce genre de technologie pour déshabiller les personnes (DeepNude), les résultats étaient assez surprenants, et l'application a été supprimé en moins d'une semaine après son lancement. La technologie est donc bien présente, et capable de faire ce type de choses bien entendu motivés par l'argent. 

Que cela soit le site web qui diffuse où l'individu à l'origine, En outre, la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information propose une première réponse aux deepfakes à travers les mesures prises contre la diffusion des fausses informations. Autrement, il est possible de se protéger de cet usage néfaste grâce à la législation déjà en vigueur comme le droit à l’image, le droit d’auteur, le droit à la vie privée ou des délits tels que le harcèlement, la diffamation ou encore le « revenge porn ». Pour rappel cette loi prévoit le risque d'un an d'emprisonnement et de 75 000 € d'amende.

Peut-on les filtrer? Et bien je dirais que comme tout usage du faux, ce dernier prévoit de prêcher sur des sujets improbables (mais plausibles), dans ce thème on peut prévoir le clip porno d'un(e) acteur(trice) très célèbre, où sur d'autres thèmes pour faire un BUZZ médiatique, où des conspirations... Comme tout film digne d'Hollywood ou Bollywood, plus c'est gros, plus ça devrait vendre. Sur ce sujet, comme pour tout type d'arnaque, je tends à dire qu'il faut vérifier les informations et les sources, on est dans une ère d'hyper-information où il est primordial d'avoir de bonnes sources d'information, et pouvoir vérifier cette dernière, tout comme des fakes news. Mise à part la thématique il en va de soi que les machines ne soient pas encore parfaites et on peut arriver à reconnaitre un deepfake par rapport a:

  • Les vêtements: parfois l'intelligence artificielle crée des combinaisons peu probables

  • Les boucles d'oreilles: l'intelligence artificielle a du mal avec les boucles d'oreilles

  • La synchronisation de l'audio n'est pas parfaite (levres qui ne parlent pas au même temps)

  • Pixellation: le resultat de certains rendus provoque une pixellation qui peut être assez forte

  • Cela ne semble pas correspondre par rapport à ce que vous savez qui est vrai (le plus important) 

Les deepfake mettent pour la plupart du temps en scène des stars (récemment Emma Watson par exemple, qui été visionnée plus de 23 millions de fois). Peut-on, en tant qu'individu "lambda" se retrouver à notre insu sur une vidéo ? Peut-on savoir si notre visage a été utilisé pour une vidéo de deepfake ? 

Malheureusement il est possible qu'en tant qu'individu quelconque qu'on se retrouve, à notre insu, sur une vidéo. Maintenant il faut savoir décodifier l'information, est-ce que l'on se retrouve pour nous faire une blague, où bien s'agit il bien des faits d'harcelement ou chantage... Il y a une ligne très fine, et il faut pouvoir filtrer cette information. Comme je disais dans la question précédente, les deepfakes tendent à promouvoir des faits conspirationistes, des choses trop grosses pour être vraies, par exemple si l'on se retrouve à danser comme shakira alors que l'on ne saurait pas le faire en temps normal... Plus c'est gros (Emma Watson), plus cela va vendre... 

Tout comme les techniques utilisées par des arnaqueurs pour copier nos visages afin de créer des faux profils dans les réseaux sociaux, pour ensuite extorsionner nos contacts ou d'autres personnes, il faut continuer à être vigilant sur ce que l'on laisse apparaitre sur le web concernant nôtre image, et a qui on le laisse apparaître; il suffit d'une seule photo pour pouvoir créer un faux profil, un vidéo deepfake...

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !