Cette psychologie des Fake News que devrait potasser LREM avant de vouloir tout réglementer  | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Société
Des étudiants des centres éducatifs unifiés assistent à une leçon sur les "Fake News" à Sao Paulo, au Brésil, le 21 juin 2018.
Des étudiants des centres éducatifs unifiés assistent à une leçon sur les "Fake News" à Sao Paulo, au Brésil, le 21 juin 2018.
©MIGUEL SCHINCARIOL / AFP

Le problème est ailleurs

Cette psychologie des Fake News que devrait potasser LREM avant de vouloir tout réglementer 

Alors que La République en marche se mobilise contre la diffusion de fausses nouvelles ou les tentatives d’ingérence étrangère dans la présidentielle à venir, il n’est pas inutile de revenir sur ce que l’on sait vraiment de leur impact et de leur mode de diffusion.

David Fayon

David Fayon

David Fayon est responsable de projets innovation au sein d'un grand Groupe, consultant et mentor pour des possibles licornes en fécondation, membre de plusieurs think tank comme La Fabrique du Futur, Renaissance Numérique, conseiller numérique d'Objectif France. Il est l'auteur de Géopolitique d'Internet : Qui gouverne le monde ? (Economica, 2013), Facebook, Twitter et les autres... (avec Christine Balagué, Pearson, 3e éd, 2016) ainsi que de  Made in Silicon Valley – Du numérique en Amérique (Pearson, 2017). Il a publié avec Michaël Tartar Transformation digitale 2.0 (Pearson, 2019).

Voir la bio »
David Rand

David Rand

David Rand est professeur agrégé de sciences de gestion et de sciences du cerveau et cognitives au MIT Sloan, et directeur du laboratoire de coopération humaine et de l'équipe de coopération appliquée.

Voir la bio »

Atlantico : D'après votre étude ("The Psychology of Fake News"), la diffusion de fausses informations, de fake news n'est pas principalement liée à des motifs politiques ou partisans. Comment avez-vous déconstruit ce cliché ? Selon vous, "il y a aussi une grande déconnexion entre ce que les gens croient et ce qu'ils vont partager sur les médias sociaux." Le partage d'informations par inattention est-il plus fréquent que la volonté délibérée de partager de fausses informations ?

David Rand : Ce n'est pas tout à fait exact. Les motivations politiques ou partisanes semblent effectivement influencer le partage des informations, dans la mesure où les gens sont nettement plus susceptibles de partager des informations qui vont dans le sens de leurs opinions politiques. Mais nos résultats montrent qu'en général, les gens ne veulent pas délibérément partager des informations qu'ils savent fausses ou trompeuses, même si elles vont dans le sens de leur idéologie. Dans l'idéal, ils préféreraient donc partager des informations vraies qui vont dans le sens de leur vision politique - mais l'inattention les conduit souvent à ne pas réfléchir à la véracité de l'information, et donc à partager des informations qui vont dans le sens de leur vision politique, qu'elles soient vraies, fausses ou trompeuses. Cela signifie que les motivations politiques et l'inattention à l'exactitude fonctionnent ensemble pour conduire au partage d'informations mensongères.

Vous parlez de "familiarité et d'heuristique de la source". De quoi s'agit-il ?

David Rand : En ce qui concerne la familiarité, de nombreuses recherches montrent que le fait d'avoir vu une information auparavant (de telle sorte qu'elle vous est familière) vous rend plus susceptible de la croire vraie. Ainsi, l'exposition à de fausses affirmations, par exemple sur les médias sociaux, les rend plus crédibles, même si elles sont extrêmement invraisemblables. Nous avons constaté que cet effet se produit pour les messages de fausses nouvelles, qu'il s'aggrave avec des expositions multiples, que l'augmentation de la croyance persiste dans le temps (nous avons constaté qu'elle était toujours évidente une semaine plus tard, par exemple), et que l'exposition augmentait la croyance ultérieure même si la fausse affirmation portait un avertissement "contesté par les vérificateurs de faits" pendant l'exposition.

À Lire Aussi

Coronavirus : le dispositif anti fake news du gouvernement relève plus de son allergie à la contradiction que de l’intérêt public

En ce qui concerne l'heuristique de la source, il existe de nombreuses preuves que les gens croient davantage les informations si elles proviennent de personnes en qui ils ont confiance et qu'ils considèrent comme fiables. Les gens utilisent donc les caractéristiques de la source de l'information comme des indices pour savoir s'ils doivent croire l'information elle-même.

Compte tenu de vos conclusions, l'arsenal législatif déployé (notamment en France) est-il efficace ? 

David Rand : Je ne me sens pas assez familier avec les lois pour vraiment les commenter. Mais je pense que les médias traditionnels (par exemple, les journaux télévisés et les émissions d'opinion) jouent un grand rôle dans la diffusion de l'information (par exemple, Fox News aux États-Unis) et que les efforts pour lutter contre la désinformation ne devraient pas se concentrer uniquement sur les médias sociaux, mais inclure également les médias traditionnels. 

Pour retrouver ce Thread sur Twitter : cliquez ICI

LREM a validé « un plan d'action » pour lutter contre la désinformation et l'ingérence étrangère. Celui-ci est notamment présenté par Laëtitia Avia, à l'origine de la controversée Loi Avia. Les ingérences étrangères sont-elles vraiment la première cause de la diffusion de fake news ?

David Fayon : Tout d’abord, il convient de s’interroger sur le calendrier de cette mesure. Pourquoi maintenant alors que l’on est à un peu plus de 10 mois du premier tour des prochaines élections présidentielles ? Après la révélation de la fille cachée du président Mitterrand, Mazarine Pingeot, ou plus récemment l’affaire Cahusac, toutes les spéculations deviennent possibles. Quelles surprises pourraient nous réserver l’avenir par rapport à ces événements passés ?

À Lire Aussi

Liberté d’expression, fake news et post-vérité : un jeu de dupes

Ensuite, comme vous le dites, ce plan d’action est présenté par Laëtitia Avia dont la loi du 24 juin 2020 visant à lutter contre les contenus haineux sur Internet a vu de nombreuses dispositions censurées par le Conseil constitutionnel car portant atteintes à la liberté d’expression. D’autres comme un observatoire de la haine en ligne rattaché au CSA ont été maintenues alors même que l’objectif en France serait d’avoir moins d’instances et plus d’agilité pour être plus proche des administrés, moins coûteux, plus efficace. Déjà, la loi Avia était passée en force en période d’urgence sanitaire – adoptée 2 jours après le déconfinement en première lecture par l’Assemblée nationale – alors même que la France dispose d’un arsenal législatif très conséquent pour les luttes contre les discriminations et d’une loi relative à la lutte contre la manipulation de l’information, dite loi contre les « fake news » (ou infox) du 22 décembre 2018.

Maintenant sur la question de l’ingérence étrangère possible en cas d’élection car il ne faut pas être naïf, nous sommes dans un choc des puissances. On le voit avec les États-Unis, la Chine, la Russie et même la Turquie ou des grands pays émergents. Des informations peuvent être relayées sur les réseaux sociaux par des États étrangers pour favoriser un candidat ou a contrario en discréditer un autre que ce soit avec des contenus publiés sur les médias et les réseaux sociaux par des humains ou par des bots sans compter le piratage des sites et les attaques par déni de service de sites d’information. Des moyens techniques pour perturber l’information peuvent aller des particuliers aux entreprises jusqu’à perturber les États. Dans ce contexte, la France a surtout des intérêts à défendre. La récente tribune dans Figaro Vox de Raphaël Chauvancy, officier supérieur dans les troupes de Marine et enseignant à l'École de Guerre Économique, souligne du reste que la création d’une agence nationale de lutte contre les manipulations de l'information est une bonne idée montrant l’enjeu de l’intelligence économique dans la guerre informationnelle. Pour autant, ne soyons pas dupes, sous couvert de la création de cette agence, il ne faudrait pas que ce soit un moyen pour embarquer une censure des contenus n’entrant pas dans la pensée (ou doctrine) officielle du parti au pouvoir. Déjà pour le hashtag #SaccageParis circulant sur Twitter attestant, photos à l’appui, d’une dégradation de la capitale, la maire de Paris avait taxé ces auteurs d’extrême-droite et niant les faits d’une dégradation de la propreté, de la voirie et des équipements alors même que l’extrême-droite réalise des scores à un chiffre dans la ville lumière et qu’une part très importante des Parisiens constate chaque jour les dégradations augmenter. Il est facile de taxer ses opposants quels qu’ils soient d’extrême (gauche, droite).

À Lire Aussi

Démocratie et fake news, l’équation sans solution (…technique) ? 

Comme le dit Raphaël Chauvancy : « Ce n'est pas la nature des informations erronées relayées par les réseaux sous influence étrangères qui est néfaste mais que la peur des fake news puisse servir de prétexte à la criminalisation des opinions rivales ». La meilleure solution possible par rapport aux fake news serait plutôt d’éduquer les citoyens à avoir un jugement critique, à effectuer du « fact checking », croiser les informations, remonter à la source, vérifier leur crédibilité, etc. Après il est difficile de dire quels sont les principales causes des fake news, celles-ci évoluant selon les moments et l’actualité.

Parmi la batterie de mesures proposées : établir une liste noire des sites diffuseurs de fausses informations, encadrer la propagande numérique électorale sur les réseaux sociaux, généraliser le permis Internet, créer un « Pharos de la fake news » sous l’autorité du CSA pour permettre aux citoyens de signaler les fausses informations, réguler les plateformes comme YouTube, Facebook et Twitter pour « rompre l’enfermement algorithmique en période électorale » et limiter la viralité des fake news. Comment jugez-vous l'efficacité de ces mesures au regard de la potentielle atteinte à la liberté d'expression ? 

David Fayon : Ces mesures proposées résultent d’une réponse à un sondage effectué par Viavoice commandité par LREM. Ce n’est pas une surprise. La moitié des Français estiment que les réseaux sociaux seront les plus susceptibles d’influencer leur vote. Ils devancent les médias traditionnels et les chaînes d’information en continu même si une stratégie omnicanale est à privilégier. C’est d’ailleurs ce que fait le Président de la République en s’adressant à des canaux par exemple pour cibler les jeunes comme BRUT, TikTok ou plus récemment avec McFly et Carlito en disant, tel un caméléon, à chaque cible ce qui fait mouche ou qu’elle a envie d’entendre dans une tactique « attrape-tout ».

Ce jeu est dangereux et potentiellement liberticide. Pourquoi décréter qu’un site est diffuseur de fausses informations alors qu’au sein de celui-ci on peut avoir une diversité des articles, des contributions d’auteurs et un « écart-type » important. Quelle que soit son opinion politique, aussi bien dans Libération, Le Monde, Le Figaro ou Valeurs Actuelles, nous pouvons avoir des articles intéressants ou des signaux faibles. De surcroît des médias atypiques permettent d’exprimer des opinions ou des alertes pertinentes qui n’existeraient pas par ailleurs et qui pour autant ne sont pas des fake news. Quant à la propagande, il s’agit d’un faux débat. S’il y a diffamation d’un candidat par exemple, il existe des moyens de recours. Le signalement des fausses informations par des citoyens fait planer une potentialité de société de cybersurveillance comme il n’existe pas seulement en Chine mais aussi à Singapour par exemple. Le climat de dénonciation poussée à l’extrême n’est pas bon et par ailleurs il existe une part de subjectivité dans le décret qu’une information est fausse. Ce qui est paradoxal est que des contenus indiquant que la Terre est plate ne sont pas censurées alors même que d’emblée il a été décrété que le virus de la Covid19 provenait d’une contamination via l’animal. Désormais des doutes sont permis avec des hypothèses de sortie du virus d’un laboratoire de Wuhan. Même le prix Nobel de médecine 2008, Luc Montagnier émettait une hypothèse controversée sur l’origine du virus. Qui croire ? La réponse n’est pas forcément booléenne et tranchée. On a parfois besoin de donner du temps au temps et de prendre du recul avec la protection des lanceurs d’alertes. Une fake news à un moment donné peut passer à l’état d’hypothèse ultérieurement. Notre Dame a-t-elle été incendiée intentionnellement ? Nous ne pouvons pas répondre que la probabilité est de 0 ou de 100 %. Nous ne le saurons peut-être jamais mais nous avons vu d’autres églises qui ont été victimes d’actes malveillants (Cathédrale de Nantes en 2020) et non accidentels.

Pour limiter la viralité des fake news, il conviendrait de demander aux Facebook, Twitter et les autres… de changer leurs algorithmes. Par ailleurs les sanctions possibles pour les réseaux sociaux qui diffuseraient des fake news pourraient conduire à des sur-modérations faisant passer à la trappe des contenus qui n’en seraient pas.

Ces mesures sont discutables avec potentiellement des atteintes à la liberté d’expression en décrétant ce qui est vrai ou bon pour les citoyens déjà infantilisés en contexte de pandémie. Cela fait planer l’ombre du ministère de la Vérité décrit dans l’œuvre 1984 de George Orwell.

Par ailleurs, censurer les fausses informations ne risque-t-il pas de produire l'effet inverse que celui recherché ?

David Fayon Vous faites allusion implicitement à l’effet Streisand. Il s’agit d’un phénomène observé qui, lorsque l’on souhaite empêche la diffusion d’information que l’on souhaite cacher ou supprimer (indépendamment de leur caractère vraie ou de rumeur), le résultat inverse s’opère.

Il convient plutôt de permettre le pluralisme des opinions et d’avoir le réflexe de relayer des informations factuelles et vérifiées. S’informer, analyser, comprendre avant de relayer même si les réseaux sociaux cultivent le culture du scoop qui permet d’être davantage récompensé en étant la première ou le premier à relayer des contenus viraux qui font ensuite l’objet de plus de commentaires, de reprises, d’émotions (J’aime, etc.). Il est peut-être temps pour les internautes de sacrifier un peu de viralité pour gagner en crédibilité dans la diffusion ou la réaction à des informations sur les réseaux sociaux. C’est là que la bataille se joue. Aux internautes de gagner en maturité plutôt que d’avoir une complexification administrative, un recul de nos libertés et des censures préventives et abusives supprimant arbitrairement des informations utiles.

Nous avons besoin de pouvoir nous informer avec un pluralisme. Rappelons les paroles de Benjamin Franklin : « Un peuple prêt à sacrifier sa liberté au prix de sa sécurité, n’est digne ni de l’un ni de l’autre, et finit par perdre les deux ». Un principe de précaution poussé à l’extrême n’est pas bon. Il empêche de diffuser des informations, d’innover et sclérose la société.

Mais au-delà des fake news, il ne faudrait pas négliger un autre phénomène dérivé, celui des deepfake ou hypertrucage vidéo. Cette technique consiste à superposer des fichiers vidéos existants sur d’autres vidéos comme le changement de visage d’une personne. Le terme vient de deep learning (branche de l’intelligence artificielle) et de fake (faux). Les deepfakes sont utilisées pour véhiculer des fakenews avec plus d’impact du fait de l’attrait pour la vidéo ou pour des canulars. Ces vidéos qui peuvent être très réalistes demanderont beaucoup de discernement et risquent de s’inviter au débat en 2022.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !