Désinformation : voilà comment reconnaître si une photo d’actualité a été détournée, manipulée ou truquée<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
Un Palestinien porte une petite fille blessée à l'hôpital Al-Shifa de la ville de Gaza après des frappes israéliennes, le 29 octobre 2023.
Un Palestinien porte une petite fille blessée à l'hôpital Al-Shifa de la ville de Gaza après des frappes israéliennes, le 29 octobre 2023.
©Dawood NEMER / AFP

Fakes et deep fakes

Beaucoup de fausses ou anciennes images ont circulé sur la toile depuis les attaques terroristes du Hamas en Israël le 7 octobre dernier.

Kélian Sanz Pascual

Kélian Sanz Pascual est analyste géopolitique chez Cassini Conseil et chargé de recherche au centre GEODE.

Voir la bio »

Atlantico : Les fausses images pullulent sur Internet. Comment vérifier les images en ligne ? Comment savoir si une image est déjà apparue sur Internet et dans quel contexte ? Y a-t-il des règles ?

Kélian Sanz Pascual : Tout d'abord, je souhaite préciser deux choses. Les évolutions des différentes techniques qui existent pour manipuler des images peuvent être un peu inquiétantes, mais il y a en réalité toujours une constante dans leur fonctionnement. Pour s'en prémunir, il s'agit donc avant toute chose d'être vigilant, de la même manière qu'on pouvait l'être il y a 15 ou 20 ans lorsque les montages photo se démocratisaient. 

D'autre part, tout contenu manipulé l'a été par des êtres humains en suivant une certaine méthode et avec une intention. Ce faisant, des éléments révélateurs sont souvent laissés par inattention, imprudence voire incompétence, et c'est précisément ce qui permet de déterminer qu'un contenu a été manipulé la majeure partie du temps. 

Je dirais qu'il y a pour cela trois vecteurs de vérification principaux qui peuvent être mis en œuvre, certains avec des outils mais la majorité simplement à partir de recherches accessibles à n'importe qui. Ce sont les trois grands C : 

·       Le Contenu

S’il s’agit d’une image, vous pouvez vérifier plusieurs éléments dont les watermarks. Une personne qui publie une image manipulée oublie parfois de les retirer. Ce sont des petites mentions qui se trouvent sur la totalité de l’image ou dans un coin, sorte de tatouage numérique ou de copyright. Il suffit de vérifier. On va voir, par exemple, le nom de l’artiste en bas à droite de l’image. Ensuite, une simple vérification sur Google permet de tomber sur les comptes de l’artiste sur les réseaux sociaux et de se rendre compte qu’une de ses images a été détournée.

Dans les images générées par l’IA, il y a souvent des étrangetés. Il faut être attentif aux petits détails. Certains éléments qui ne vont pas peuvent créer un malaise. C’est le phénomène qu’on appelle « la vallée dérangeante », en référence à la courbe dessinée sur le graphique représentant le malaise ressenti par rapport au degré de similarité à un être humain : ce qui a une apparence presque humaine sans l'être tout à fait a tendance à déranger. 

Sur les images générées par IA, vérifiez bien les mains des personnages représentés car le nombre de doigts peut-être disproportionné, tout comme les dents. Vérifiez les accessoires également. Si jamais on représente une personne avec des lunettes, il arrive souvent que les branches soient fondues avec la peau. Idem si la personne tient un téléphone. Les touches vont avoir une apparence étrange car les intelligences artificielles ont encore du mal à représenter des tout petits éléments qui se répètent. Prêtez attention également à la peau des personnages qui peut faire plastique ou cireuse ainsi que les ombres qui sont manquantes ou incohérentes. S’il y a du texte, les IA générant des images ont encore beaucoup de mal à formuler des textes cohérents donc il faut y prêter attention. Pour finir, s'il l'image représente un lieu plutôt qu'une personne, il y a aussi des éléments révélateurs. Place de la République à Paris par exemple, vous pouvez vérifier que la statue qui est représentée est bien dans la bonne position ou ce genre de choses. 

Enfin, il ne faut pas oublier que les montages sont toujours très utilisés. Être vigilant aux éléments mal montés est tout aussi pertinent pour ces cas. Deux programmes, FotoForensics et Forensically, permettent de détecter des montages Photoshop en détectant des parasites, des zones clonées ou d’autres types de variations difficiles à discerner à l‘œil nu.

·       Le Contenant 

Souvent, les manipulateurs de contenu pensent à corriger les imperfections de leurs contenus mais oublient certains éléments techniques du fichier. Ces éléments peuvent être difficiles à vérifier sur les réseaux sociaux, qui ont tendance à les remodifier avant publication, mais ils peuvent être exploitables pour les fichiers partagés sur des blogs, Telegram ou encore en message privé.

-Le nom de l’image

S'il s'agit d'une photo, par exemple, les appareils avec lesquels on les prend ont des normes de nommage précises, par exemple avec l’heure et la date pour les téléphones. Un monteur d'image aura tendance à les renommer parfois de façon explicite, et peut oublier de changer le nom. 

-Les données EXIF (Exchangeable image file format)

Ce sont des données qui sont enregistrées automatiquement lorsqu'on prend une photo avec un téléphone ou un appareil photo et qui sont faciles à vérifier sur un ordinateur, en sélectionnant Propriétés à partir d'un clic droit sur le fichier téléchargé. La date et l’heure peuvent être révélatrices. Dans plusieurs cas de désinformation russe par exemple, on a vu des images ou des vidéos qui étaient présentées comme ayant été filmées et publiées dans la foulée. En revérifiant leurs données exif, on se rendait compte qu'elles avaient été enregistrées deux ou trois jours avant. 

-L’heure des montres

C’est parfois édifiant ! Cette technique qui croise contenu et contenant consiste à vérifier l’heure indiquée par les personnes qui portent une montre et à comparer avec les propos tenus et/ou les EXIF, ce qui peut révéler une manipulation. Il faut toutefois se méfier, car cette technique est connue et certains acteurs récurrents d'opérations informationnelles tels que Vladimir Poutine dérèglent volontairement leurs montres pour attiser la confusion.

-La résolution

Parfois, la résolution ne colle pas. Elle est trop bonne pour un appareil de mauvaise qualité ou l’inverse. Je prends ici pour exemple une vidéo que la Russie a diffusée dans ses propres médias pour essayer de montrer ses offensives réussies contre l'armée ukrainienne. Non seulement les graphismes paraissaient étranges au premier regard mais, en observant attentivement, on se rendait même compte que c'était de la 3D et que les images provenaient d'un jeu vidéo. 

·       Le Contexte

C'est surtout là qu'on va pouvoir utiliser des outils. Mais attention, les outils pour vérifier les images ne vont pas forcément pouvoir donner beaucoup plus d'éléments que ce qu'on peut vérifier à l'œil nu.

Prêter attention au contexte, consiste à essayer de comprendre ce qu’on essaye de vous vendre. Qu'est- ce qu'on essaye de me faire croire ? S'il s'agit, par exemple, de publications qui sont censées susciter le choc, la colère ou la tristesse, cela peut être un signal d’alerte pour déterminer qu’il y a peut-être manipulation. Une grande part de la désinformation tire en effet partie du facteur émotionnel plus que du rationnel. Dans ce cas, cela vaut la peine d'essayer de croiser les sources. Ce que je vois, est-ce qu’on me le montre ailleurs ? Que disent les autres utilisateurs sur les réseaux sociaux ? Est-ce que je connais des sources de confiance, qui travaillent sur la vérification, qui font du fact-checking de façon régulière ? Est-ce qu'elles en ont parlé ? Si oui, qu'est- ce qu'elles en disent ? Il s'agit vraiment d'avoir des réflexes de vigilance et de ne pas croire tout ce qu'on voit au premier regard, tout particulièrement lorsqu'un contenu vient conforter vos croyances et qu'il est séduisant d'y croire sans vérifier.

Quels sont les outils accessibles ?

Beaucoup d'outils sont très facilement accessibles. Une simple recherche booléenne sur Google avec des guillemets pour rechercher l'expression exacte ou l'opérateur AND pour forcer le moteur de recherche à afficher des résultats combinant deux termes de recherche, pour retrouver une citation suspecte par exemple, peut révéler beaucoup de choses. 

Concernant les outils, certains sont très faciles d'utilisation et ne nécessitent pas de connaissances en informatique. Ce qu'il faut cependant savoir, c'est leur principe de fonctionnement : certains ne font qu'automatiser une procédure qui ne fonctionnera pas si elle est utilisée à mauvais escient. De même, certains outils sont alimentés par des bases de données qui sont très vastes, mais pas forcément exhaustives. Un échec d'utilisation peut donc provenir d'une utilisation erronée ou tout simplement de son inadéquation au contexte de votre recherche. 

Voyons un exemple concret : vous cherchez à savoir si une image a déjà été utilisée, pratique courante de désinformation. Prenons l’exemple du conflit israélo-palestinien. De nombreuses images ont été présentées comme étant des atrocités ayant été commises à Gaza alors qu'elles avaient été prises il y a plusieurs années dans le cadre du conflit en Syrie. Un outil de recherche inversée permet de détecter cela.

Les utilisateurs occidentaux vont avoir tendance à se tourner vers Google Lens ou TinEye. Cela peut valoir le coup d'essayer de faire la même recherche avec le moteur de recherche russe Yandex, dont la base de données n'est pas la même que celle de Google, en particulier si votre vérification porte sur le conflit en Ukraine.  

Est-ce qu'on vérifie une vidéo de la même manière qu'on vérifie une photo ?

Forcément, il faut s'adapter aux médiums mais on vérifie certains éléments sur le même principe, comme la gestuelle du corps. Sur une vidéo censée représenter un politicien, si on s’aperçoit qu’il n’y a que les yeux et la bouche qui bougent alors c’est un deep fake. Les outils les moins performants laissent en effet le corps complètement statique. Il peut d’ailleurs déclencher le phénomène de « vallée dérangeante » évoqué au début de notre entretien. Sans parler de deepfake, on peut également remarquer des éléments tels que des ombres incohérentes ou les mouvements des lèvres qui ne correspondent pas au texte prononcé qui suggèrent un montage. Les EXIF fonctionnent aussi, car elles concernent aussi les vidéos. Pour déterminer l’origine d’un clip vidéo, il existe un outil, InVID. C’est un plug-in pour navigateur qui a été développé par l’AFP et Deutsche Welle et fonctionne de façon similaire à Tineye.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !