Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Fake news, infox et deepfakes : pourquoi la technologie est beaucoup moins en cause que le modèle économique des réseaux sociaux
©ALAIN JOCARD / AFP

Erreur d'appréciation

Fake news, infox et deepfakes : pourquoi la technologie est beaucoup moins en cause que le modèle économique des réseaux sociaux

En envisageant les deepfakes qu’à l’aune d’un problème technique, les géants de la Silicon Valley s’exonèrent ostensiblement de leur relation symbiotique avec ces contenus frelatés, et autres fausses nouvelles.

Franck DeCloquement

Franck DeCloquement

Ancien de l’Ecole de Guerre Economique (EGE), Franck DeCloquement est expert-praticien en intelligence économique et stratégique (IES), et membre du conseil scientifique de l’Institut d’Études de Géopolitique Appliquée - EGA. Il intervient comme conseil en appui aux directions d'entreprises implantées en France et à l'international, dans des environnements concurrentiels et complexes. Membre du CEPS, de la CyberTaskforce et du Cercle K2, il est aussi spécialiste des problématiques ayant trait à l'impact des nouvelles technologies et du cyber, sur les écosystèmes économique et sociaux. Mais également, sur la prégnance des conflits géoéconomiques et des ingérences extérieures déstabilisantes sur les Etats européens. Professeur à l'IRIS (l’Institut de Relations Internationales et Stratégiques), il y enseigne l'intelligence économique, les stratégies d’influence, ainsi que l'impact des ingérences malveillantes et des actions d’espionnage dans la sphère économique. Il enseigne également à l'IHEMI (L'institut des Hautes Etudes du Ministère de l'Intérieur) et à l'IHEDN (Institut des Hautes Etudes de la Défense Nationale), les actions d'influence et de contre-ingérence, les stratégies d'attaques subversives adverses contre les entreprises, au sein des prestigieux cycles de formation en Intelligence Stratégique de ces deux instituts. Il a également enseigné la Géopolitique des Médias et de l'internet à l’IFP (Institut Française de Presse) de l’université Paris 2 Panthéon-Assas, pour le Master recherche « Médias et Mondialisation ». Franck DeCloquement est le coauteur du « Petit traité d’attaques subversives contre les entreprises - Théorie et pratique de la contre ingérence économique », paru chez CHIRON. Egalement l'auteur du chapitre cinq sur « la protection de l'information en ligne » du « Manuel d'intelligence économique » paru en 2020 aux Presses Universitaires de France (PUF).

Voir la bio »

Atlantico : Jeudi dernier, le Comité du renseignement de la Chambre du congrès américain a entendu des experts sur la menace des « deepfakes » et autres types de données synthétiques générées par l'intelligence artificielle, pour le système électoral américain et la sécurité nationale en général. L'an dernier, devant le Congrès américain, Mark Zuckerberg promettait des solutions technologiques aux « deepfakes » et autres générateurs de fake-news. L'intelligence artificielle est-elle en mesure de résoudre durablement le problème constitué par ces « deepfakes », comme le sous-entendait le patron de Facebook ?

Franck DeCloquement : Il semble en effet que ce ne sont plus les bots Russes, qui inquiètent désormais les parlementaires américains, mais bien « les faux » générés par la prolifération d’images contrefaites, par le truchement des nouveaux usages de l’intelligence artificielle. Autrement dit, les « deepfakes ». 
De quoi s’agit-il au juste ? De la prolifération de vidéos falsifiées qui modifient le contenu, le visage et les propos des personnes qui s’expriment à l’image. Ces nouvelles « armes du faux » selon l’expression consacrée de notre ami François-Bernard Huyghe, pouvant indûment donner l'impression à tout un chacun que les gens font ou profèrent des choses qu'ils n'ont en réalité jamais dites ou faites. La menace de falsification est tellement prise au sérieux par les autorités américaines que jeudi dernier, le comité du renseignement de la Chambre du congrès a en effet tenu la première audience sur le sujet. Dans ses remarques liminaires, le président du comité, Adam Schiff, a déclaré à ce propos que la société était « à l'aube d'une révolution technologique » qui transformera qualitativement la manière dont les fausses informations sont construites. Il a évoqué à cet effet des « avancées de l'IA » qui permettront dès demain de compromettre totalement ou partiellement, l’intégrité des prochaines campagnes électorales. Répétant à maintes reprises que de meilleurs algorithmes et données rendraient extrêmement difficile à l’avenir, l’authentification des images ou la vérification de la véracité des vidéos, des propos tenus ou des textes diffusés.
En substance, Adam Schiff a présenté à ses interlocuteurs le problème des supports falsifiés comme une nouvelle menace pouvant peser très lourdement sur la sécurité nationale du pays, provoquée par l’émergence et l’usage inéluctable de ces technologies avancées de falsifications. On évalue encore mal les conséquences exactes que  pourraient provoquer ces technologies de rupture, sur la fragile trame du tissu social des systèmes démocratiques. Et donc, sur la bonne tenue de leur cohésion générale face à la production de contenus hautement déstabilisants. Mais aussi, leur impact général sur le développement de l’esprit critique des populations visées. La crédulité générale étant bien entendue en ligne de mire des falsificateurs de tous poils, et autres promoteurs de « faux ». Ne nous voilons évidemment pas la face : la diffusion des « deepfakes » n'est pas seulement un problème technologique qui pourra être résolu par un surcroit de technologie pour mieux les combattre. A contrario les explications technophiles très orientées « business » d’un Mark Zuckerberg, qui promettait déjà l'an dernier – et pour cause – de résoudre ce problème grâce à l’usage intensif d’une « IA plus performante », occultent en réalité un problème structurel crucial bien plus prosaïque. La croisade de Zuckerberg cache l’emprise croissante des GAFAM sur nos vies. Le modèle économique initialement adopté par les plateformes sociales comme Facebook, exploite en réalité ardemment ce type de contenus contrefaits pour mieux prospérer. Et en la matière, le bon sens commande évidemment de ne pas confier les clefs du poulailler à « Maitre Renard » ! A bon entendeur.
Par ailleurs, de récentes enquêtes ont démontré qu'une grande partie de la modération des contenus repose en réalité toujours sur la faculté de discrimination d’êtres humains soumis à des conditions de travail particulièrement pénibles. Rivés pour la plupart derrière leurs écrans, au sein de fermes à « Clics » délocalisées à l’autre bout du monde. En nous vendant sans cesse l’occurrence d’une modération « machinale », reposant sur les capacités augmentées et hyper-technologiques de la seule IA, les grands patrons de la Tech détournent en réalité nos attentions de la souffrance humaine bien réelle des « travailleurs du clic » très promptement rejetée en lisière du secteur de la Tech. Je conseille instamment la lecture édifiante de l’excellent livre-enquête d’Antonio A.Casilli, paru au Seuil : « En attendant les robots : enquête sur le travail du clic ». Ou l’on découvre stupéfait cet autre monde des travailleurs pauvres, dissipant immédiatement l’illusion de « l’automatisation intelligente », et nous imposant soudain la réalité dérangeante du « digital Labor ». Autrement dit, ces millions de petites mains précarisées, et autres tacherons de l’intelligence « artificielle ». Ces micro travailleurs en charge de filtrer les contenus pornographiques, et leurs tombereaux d’images obscènes et très souvent violentes.
Cependant, certains outils de contre-mesures actives font peu à peu leur apparition sur le devant de la scène. La presse en ligne rapporte que des chercheurs de l’USC Information Sciences Institute (USC-ISI) ont conçu à cet effet un nouvel outil de détection qui pourrait s’avérer bientôt incontournable dans la chasse aux deepfakes. Celui-ci se concentre sur les micro-expressions ainsi que les artéfacts contenus dans les fichiers numériques des images encodées, afin de déterminer si une vidéo a été ostensiblement falsifiée. L’outil aurait une précision de 96%, selon l’étude publiée par la « Computer Vision Foundation ». Cette technologie de contre-mesure empile les images considérées les unes sur les autres, et cherche des inconsistances incluses en leur sein, à travers la détection de mouvements hiératiques des sujets considérés. Mouvements qualifiés de « signatures de biométrie douce ». Que ce soit d’imperceptibles battements de paupières ou même, une incongruité dans certains gestes entamés. La plupart des algorithmes qui permettent de créer des deepfakes n’allant pas aussi loin dans la précision de leurs « créations » contrefaites, il devient alors possible de détecter les vidéos trafiquées, avec une bonne occurrence de certitude. Les concepteurs ont utilisé un jeu de données d’environ 1 000 vidéos manipulées, afin d’entraîner leur algorithme à les discerner. Celui-ci serait désormais fortement aguerri dans la détection des deepfakes mettant en scène des hommes politiques, des personnalités publiques et autres célébrités. Ce qui pourrait s’avérer assurément très utile, pour l’élection présidentielle américaine de 2020 qui s’annoncent… Affaire à suivre !

Le modèle économique des GAFAM est-il compatible avec le rôle de « gendarme » que la coopération franco-américaine voudrait les voir endosser en l’état, à leur corps défendant ?

Si Mark Zukerberg, le fondateur emblématique de Facebook, réclame aujourd’hui un meilleur contrôle d’internet par les Etats, sa posture cache en réalité l’emprise croissante des GAFAM sur nos vies. Ravir nos attentions collectives et maintenir nos cognitions individuelles captives, tel est – in fine – le nerf de la guerre et « le grand jeu » des plateformes à vocation « sociale » dans leur ensemble... La commercialisation de nos données personnelles assurant dans la foulée de gigantesques profits à ces firmes géantes toutes américaines. En réclamant le 30 mars dernier une intervention plus musclée des États dans la régulation du web, récidivant le 10 mai dernier à l’Élysée aux côtés d’Emmanuel Macron, prônant pour la France et l’Europe « un nouveau modèle de régulation d’internet », Mark Zuckerberg approuvait dans la foulée « l’appel de Christchurch » contre les contenus terroristes, extrémistes et haineux, lancé à Paris le 15 mai dernier à l’initiative concertée de plusieurs dirigeants. En outre, par la Première ministre néozélandaise Jacinda Ardern et le président français Emmanuel Macron.
L’essayiste Bruno Patio résume impeccablement cette affaire « d’encerclement cognitif » en quelques mots, dans son dernier livre à succès « la civilisation du poisson rouge » : « Les empires économiques ont créé une nouvelle servitude avec une détermination implacable. Au cœur du système, et au cœur de notre vie quotidienne, un projet caché : l’économie de l’attention. Augmenter la productivité du temps pour en extraire encore plus de valeur… » Cette posture leur est même consubstantielle pourrait-on dire, incluse au cœur même de leur ADN industriel. Pour les spécialistes avertis de l’association « la quadrature du Net », la régulation des contenus haineux ou contrefaits par les géants du Web est clairement vouée à l’échec… La petite équipe d’experts et de juristes, d’inspiration libertaire, mène une campagne de lobbying musclées contre les GAFAM – Google, Apple, Facebook, Amazon et Microsoft –, accusés de beaucoup trop s’immiscer dans nos vies privées. 
En lutte contre les faux dilemmes et les fausses évidences nourries face aux GAFAM, ils préconisent en outre deux autres options possibles, mais non suivie jusqu’alors par les gouvernements : renforcer le rôle de la justice, en musclant ses effectifs. Mais aussi, développer des  formations d’aguerrissement, ayant toute vocation à édifier les « esprits et les cœurs ». En somme, à vacciner les internautes contre les méfaits cognitifs d’un usage irréfléchi des plateformes sociales mise en ligne. Pour l’heure, leur nombreuses recommandations ont fait choux blanc auprès des gouvernements, plus adeptes d’imposer le « filtrage » et la « centralisation » du Web. Le tout confinant véritablement au syndrome de Stockholm vis-à-vis des GAFAM pour nos fins observateurs de la toile mondiale…
Un très bon article de « The Guardian » défend l'idée selon laquelle résoudre le problème des « deepfakes » par l'IA est encore une preuve du « solutionnisme technologique » prônée par la Silicon Valley. Un tropisme bien connu qui fait fi de bien d’autres solutions annexes. Or, il n’est pas très difficile de démontrer que la diffusion des deepfakes n'est pas seulement un problème lié à l’émergence de nouvelles solutions technologiques qui pourrait être aisément résolu par un surcroit de technologies. Mais également un problème structurel qui pointe en creux les dangers du modèle économique adopté initialement par les réseaux sociaux et leurs plateformes qui exploitent sans vergogne les effets délétères et mercantiles de ce type de contenu, sur leurs audiences cibles. En ne définissant les « deepfakes » que comme un problème lié à des turpitudes techniques, la Silicon Valley espère ainsi se soustraire par la bande à l’évidence de sa relation ambiguë et symbiotique avec les fausses nouvelles. S’exonérant ainsi à très bon compte de ses responsabilités véritables… Ces plateformes remettent profondément en cause les mécanismes fragiles de nos démocraties qu’elles érodent indubitablement. Et ceci, sans véritablement mesurer leur impact délétère sur l’organisation générale de la société qui repose sur des élections libres, et la garantie du pluralisme des opinions exprimées à travers les débats contradictoires d’une presse que l’on aimerait toujours intègre… 

Alors que le gouvernement américain semble être à l’initiative sur ces questions ayant trait à « la vérité », et dans l’anticipation de contre-mesures efficaces, en quoi les deepfakes représentent-elles un sujet d'intérêt général qui ne peut être traité qu'au niveau institutionnel, et à l'échelle internationale ?

Dans la période précédente, très peu de spécialistes ont en réalité anticipé à quel point la désinformation en ligne, le trolling, les attaques virales à la réputation, les opérations de falsifications, de déstabilisations et de propagande noire perturberaient le processus démocratique dans son ensemble. Pouvant même jusqu’à corroder et déchirer le tissu social d’une nation, dans certaines situations d’extrêmes tensions. À l’approche des prochaines échéances électorales dans les pays occidentaux, une vigilance grandissante des pouvoirs publics se fait jour, face aux nouvelles « menaces à la vérité ». Le tout, dans un écosystème d’informations déjà fragilisé par les affres de la transformation digitale en cours, des mouvements de contestation sociale et des luttes fratricides entre puissances économiques rivales. 
Pour résumer à grands traits nos propos précédents, les médias sociaux et les grandes plateformes du web sont cyniques par nature. Et la relation très ambiguë qu’entretiennent les multinationales géantes de la Silicon Valley avec la diffusion d’informations alternativement « factices » ou « factuelles », s’explique en grande partie par la poursuite implacable de leurs intérêts commerciaux bien compris. Lorsque le business-modèle d'une plate-forme consiste à maximiser le temps d'engagement de ses audiences (certains parleraient ici de « temps de cerveaux disponible »), afin de s’octroyer des revenus publicitaires astronomiques, des contenus controversés, choquants, complotistes ou parfaitement complaisants sont naturellement poussés jusqu’au au sommet de la « chaine alimentaire » pourrait-on dire. Les plateformes géantes exploitent naturellement cette dynamique économique vertueuse avec malice, du strict point de vue de leurs intérêts stratégiques et commerciaux. Et c’est bien là que réside la véritable ambiguïté de fond. Car en le formulant indubitablement sous le seul prisme des errements de la technologique, les puissantes plates-formes technologiques de la Silicon Valley distraient en réalité opportunément leur public, ainsi que les pouvoirs publics,  de l’idée qu’il pourrait y avoir des liens de connivences et d’intérêts croisés bien plus fondamentaux, en deçà de nos seuils de perception et de notre appréhension des enjeux. 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !