Les algorithmes, cette menace infiniment plus grande pour la démocratie que les milliardaires ou les éditorialistes<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Media
Une part de plus en plus importante de citoyens s'informe sur les réseaux sociaux, sous l'influence des algorithmes.
Une part de plus en plus importante de citoyens s'informe sur les réseaux sociaux, sous l'influence des algorithmes.
©DENIS CHARLET / AFP

Influence des réseaux sociaux

Les préoccupations de Reporters sans frontières sur un supposé défaut de pluralisme dans l’information, également centrales dans les États généraux de l’information, révèlent une vision du monde profondément dépassée.

Fabrice Epelboin

Fabrice Epelboin

Fabrice Epelboin est enseignant à Sciences Po et cofondateur de Yogosha, une startup à la croisée de la sécurité informatique et de l'économie collaborative.

Voir la bio »
Julien Pillot

Julien Pillot

Julien Pillot est Enseignant-Chercheur en économie (Inseec Grande Ecole) / Chercheur associé CNRS.

Voir la bio »

Atlantico : Reporters Sans Frontières et l’ARCOM s’inquiètent du manque de pluralisme de certains médias. En quoi ces craintes révèlent-elles une vision du monde dépassée ?

Fabrice Epelboin : Je ne crois pas qu'ils n'aient pas compris les vrais dangers du monde d'aujourd'hui, sincèrement. Le vrai danger, que posent aussi bien les bulles de filtre des réseaux sociaux que des médias qui sont eux-mêmes des bulles de filtre, est en réalité d'enfermer les gens dans des bulles de filtre qui ne sont pas les leurs. Tous les médias aujourd'hui sont des bulles de filtre. S'attaquer à la télévision, plutôt que de s'attaquer aux algorithmes des réseaux sociaux, est un défi réaliste. Il est facile d’imaginer imposer des choses dans le paysage audiovisuel, alors qu'imposer des choses aux géants américains est presque mission impossible. Les médias traditionnels sont anciens et touchent des populations âgées qui votent. La réalité est aussi simple que cela. Il y a suffisamment d'institutions qui s'attaquent aux réseaux sociaux. Avec le DSA (Digital Services Act), dans l'œil du cyclone de façon quasi-permanente depuis de nombreuses années, on ne peut pas dire qu'il n'y ait pas de débat public sur le rôle des réseaux sociaux dans la décomposition sociale, dans un grand nombre d'effets délétères. Je ne suis pas sûr que ce soit vraiment le rôle de l'ARCOM.

Vraiment, le DSA vient de s'attaquer aux réseaux sociaux. On vient d'avoir une loi qui encadre les réseaux sociaux. La loi va tout régler. Un pas en avant significatif a été fait d'un point de vue législatif et pour la régulation sur les réseaux sociaux.

Julien Pillot : Reporters Sans Frontières ne vise pas le manque de pluralisme dans les médias., mais une chaîne spécifique, CNews, à laquelle elle reproche d'être devenue une chaîne d'opinion plutôt que d'information. D'où sa saisine auprès du Conseil d'État dans laquelle RSF estime que CNews ne respectait pas le principe même d'attribution des fréquences sur la TNT. 

La décision qui a été rendue par le Conseil d'État relève, à mon sens, d'une relecture de la loi de 1986. Cette loi, qui a beaucoup évolué dans le temps, fonde les missions du régulateur sectoriel, c'est-à-dire l'ARCOM, anciennement le CSA. Elle lui confère, à plus forte raison pendant les périodes électorales, la mission de veiller à la pluralité des courants de pensée politiques, économiques et d'opinion sur les chaînes et sur les radios qui sont sous sa surveillance. Le Conseil d'État dit en substance qu'il va falloir modifier les règles de décompte du temps d'antenne en intégrant les prises de parole des chroniqueurs, des éditorialistes et de tous les invités sur le plateau. Le Conseil d'Etat laisse à l'ARCOM le soin de définir les nouvelles modalités sous 6 mois. Or, l'ARCOM a déjà fait savoir qu'elle était assez mal à l'aise vis-à-vis de la décision du Conseil d'État, notamment en ce que ça reviendrait à faire du fichage des intervenants sur les plateaux. On se souvient également d'une conférence récente de Roch-Olivier Maistre, Président de l'ARCOM, à Sciences Politiques dans laquelle il rappelait que "ce qui fonde la démocratie, c'est l'art de la conversation...". et d'ajouter, en s'appuyant sur un arrêt de la Cour de Justice européenne des Droits de l'Homme, que "la liberté d'expression est aussi ce qui heurte, et qu'elle ne peut se résumer au politiquement correct". Sur le fond, cette affaire porte en creux une question qu'il ne nous revient pas de trancher : le pluralisme doit-il se matérialiser dans chaque média, ou sur l'ensemble du spectre médiatique ?

Cette vision du monde n'est pas tout à fait dépassée dans la mesure où les radios et les télévisions sont encore, au moment où l’on se parle, les premiers canaux d'information des gens qui votent. Au cœur de nos démocraties, les électeurs qui se mobilisent le plus sont les personnes âgées. Leur premier canal d'information reste les médias traditionnels. Il y a donc une vigilance liée au respect du pluralisme sur les médias traditionnels, comme le veut le Conseil d'État et comme doit le faire respecter l'ARCOM. Cela reste à mon sens quelque chose de normal et même de souhaitable. 

Cela étant dit, cette vision doit néanmoins évoluer pour prendre en compte les nouvelles réalités. Lorsque l’on regarde les chiffres, les médias traditionnels ont une audience qui est très vieillissante. Les jeunes et les jeunes adultes jusqu'à 35 ans s'informent de moins en moins via les canaux traditionnels et de plus en plus sur des médias sur Internet et notamment des plateformes sociales comme Twitter, Facebook, Instagram, TikTok. Nous sommes donc à la croisée des chemins, dans un entre-deux où l'ancien monde et le nouveau se côtoient, chacun avec son public. L'action de l'ARCOM ne peut donc pas se contenter d'être focalisée uniquement sur les médias traditionnels. Cela reviendrait à passer à côté de l'histoire d'une certaine façon. Dans cette histoire qui est en train de s'écrire, les médias traditionnels perdent leur influence auprès d’un public plus jeune. Ceux qui gagnent de l’influence, ou qui sont des relais d'influence incontournables, sont les opérateurs de ces plateformes, aujourd'hui quasi exclusivement étrangers. Ce qui veut dire que la question devrait plutôt porter sur le pluralisme dans la sphère numérique, et notamment sur la capacité des algorithmes à faire respecter ce pluralisme-là.

Pourquoi les algorithmes sont aujourd’hui la plus grande menace pour nos démocraties ?

Fabrice Epelboin : Pour la démocratie, rien n’est moins sûr mais pour la République, sans aucun doute. Les réseaux sociaux et les algorithmes des réseaux sociaux ont fait exploser les silos assez stables que les médias de masses d'hier imposaient à la société. Il y a eu une évolution entre le XXe siècle où il y avait une demi-douzaine de bulles de filtre au sein de la société, qui regroupaient l'essentiel de la société, à une hyper-individualisation des bulles de filtre.

Un phénomène de polarisation des opinions est clairement accéléré par ces algorithmes. Cela alimente une société où les positions politiques, quels que soient les sujets, sont tellement antagonistes qu'il paraît compliqué de viser une unité du pays. La bulle de filtres est un algorithme qui va vous donner ce que vous avez envie de voir. Typiquement, cela correspond au moteur de recommandations de Netflix qui va savoir recommander ce qui va vous plaire. Mais s'il s'agit d'informations politiques, cela va avoir des effets totalement délétères. Cela vous enferme dans une uniformité idéologique et vous donne une impression qu'on appelle en sociologie le bandwagon effect, l'effet groupe, qui va vous donner l'illusion d'être largement majoritaire. Même si vous êtes en totale minorité, vous ne serez entouré que d’individus qui pensent comme vous et qui valideront votre propre opinion. Cela est très mauvais pour la démocratie.

Julien Pillot : Je ne sais pas si cela représente un danger mais, en revanche, cela va nécessiter de régler plusieurs problèmes.

Le premier problème est celui des bulles de filtres. Les algorithmes ont tendance à vous connecter avec du contenu qui correspond finalement à vos goûts personnels, vos aspirations et vos a priori. Contrairement à un média où il peut y avoir du contradictoire, un algorithme risque de ne pousser que des informations qui viennent conforter vos préjugés. Et affaiblir d'autant l'esprit critique et le libre-arbitre

Un autre problème concerne la question de la surreprésentation des contenus à fort potentiel de polémiques. Ces plateformes se rémunèrent en monétisant l'intention que vous leur prêtez. Plus vous y passez de temps, plus vous rapportez à ces plateformes. Elles ont identifié que les contenus qui permettent d’obtenir la plus forte rétention d'attention, le plus fort taux d'engagement, de la part des utilisateurs sont des contenus controversés, des contenus qui vont heurter les sensibilités, qui vont déchaîner des passions irréconciliables, voire des contenus qui vont flirter avec l’illégalité et la désinformation ou le complotisme. Il est dans l'intérêt des plateformes de promouvoir les contenus de ce type... parfois au détriment de l'intérêt général.

Les algorithmes, notamment ceux qui sont mobilisés dans la cadre des Intelligences Artificielles Génératives, sont aussi suspectés d'avoir des biais au niveau de leur conception même, notamment les biais de confirmation. Comme ces algorithmes sont entraînés sur la base d'observations passés pour faire des prédictions sur l'avenir, il convient de s'intéresser à la neutralité des données sur lesquelles ils ont été entrainés. Si cette neutralité n'est pas de mise, ces algorithmes risquent juste de répliquer des déséquilibres et inefficiences qui existaient déjà ex ante.

La modération est également défaillante. Car, après tout, les algorithmes pourraient ne pas être exemplaires si en bout de chaîne, il y a eu une modération qui palie les défaillances algorithmiques et qui supprime ou atténue les messages les plus problématiques. Mais cette modération est défaillante. On le constate jour après jour. Ces plateformes agglomèrent des milliers de nouveaux contenus chaque jour, qui eux-mêmes génèrent des millions de réactions. Tant et si bien qu'il est quasiment impossible d'avoir une modération humaine qui vienne message par message, contenu par contenu, faire la police. Et quand bien même cela serait possible sur le plan technique, cela engendrerait des coûts très importants, et cela se heurterait également à des marges d'interprétation inhérentes aux modérateurs pour tous les contenus qui ne sont pas immédiatement identifiés comme manifestement illicites. Même la modération algorithmique montre des défaillances. Elon Musk misait beaucoup sur cet élément au départ sur Twitter, mais les trous dans la raquette sont multiples et même dans ce cas-là, on en revient aux biais qui peuvent apparaître dès la conception de l'algorithme ou à son incapacité structurelle à émettre du contexte. Un algorithme aurait probablement censuré les propos de Guillaume Meurice sur Netanyahu ("une sorte de nazi mais sans prépuce"), sans prendre en considération le statut d'humouriste de l'émetteur.

La conception de la liberté d'expression en Europe est aussi différente de celle des États-Unis, pourtant vous avez des plateformes qui opèrent autant en Europe qu'aux États-Unis. Est-ce qu'il faut des plateformes à plusieurs vitesses ? Est-ce qu'il faut cloisonner les plateformes selon la localisation des utilisateurs, de telle sorte que les Américains ne pourraient plus interagir avec les Européens ? Quelles sont les mesures techniques que les plateformes pourraient imaginer pour se mettre en conformité avec des droits asymétriques, sans réduire à néant leur business model, voire même l'esprit d'interconnectivité de l'Humanité que porte l'internet ?

Il y a enfin la question de la désinformation à grande échelle. Derrière ces plateformes, et la puissance d'influence qu’elles peuvent avoir, des groupuscules ont très bien compris le potentiel de diffusion de désinformation à travers ces plateformes. Ils misent sur le fait que les gens ne sont pas suffisamment bien formés pour faire la différence entre une information et une désinformation, que la modération sera défaillante et laissera passer des messages servant à désinformer. Des groupuscules utilisent des moyens techniques, humains, économiques pour armer des bots qui se livrent à des campagnes de désinformation à grande échelle sur les plateformes. Cela permet d’avoir de l'influence sur les électeurs et contribue à déstabiliser des gouvernements ou des entreprises par le biais de campagnes de désinformation à très grande échelle sur ces plateformes-là.

On le voit : chacun de ces éléments, pris individuellement, peut déjà avoir une influence sur le bon déroulement du jeu démocratique. Alors quand tous les problèmes sont présents simultanément...

L’information va aux citoyens maintenant avec les algorithmes. Quelle est la part d’individus qui consultent réellement les médias et de ceux qui s’informent directement via les réseaux sociaux ?

Julien Pillot : La moyenne d'âge des spectateurs de télévision et de radio a plutôt tendance à augmenter assez fortement. Aujourd'hui, la moyenne d'âge est largement au-dessus de 55-57 ans, parfois même au-dessus de 60 ans pour certains médias. Dans le même temps, d'autres études mettent en avant que les jeunes, quand ils continuent de s'informer, ont tendance à privilégier les médias numériques, et notamment les plateformes. Certains ont même complètement décroché des médias traditionnels. Ces pourcentages-là varient d'un pays à l'autre, et selon les classes d'âge. En moyenne, on peut estimer qu'en Occident, près un tiers des jeunes de moins de 30 ans ne s’informe quasiment plus que par les réseaux sociaux.

Des collectifs comme Sleeping giants ou NewsGuard harcèlent les rédactions en ligne et exigent beaucoup plus de transparence dans les médias alors qu’ils travaillent avec les Gafam. N’y a-t-il pas un paradoxe ?

Julien Pillot : Avant toute chose, plutôt que de GAFAM, il faudrait parler de grandes plateformes numériques, sans quoi vous excluriez Twitter (désormais X) et TikTok de votre réflexion. Or, ces grandes plateformes numériques, jusqu'à preuve du contraire, ne sont pas créateurs de contenu, mais des hébergeurs de contenus créés par des tiers, qu'il s'agisse de médias ou d'utilisateurs.

Ces plateformes arguent qu'elles ne peuvent être tenues responsables de contenus qui ont été écrits, éditorialisés, validés et publiés par d'autres. Ce ne sont pas des journalistes, ce ne sont pas des médias, ce sont juste des plateformes d'hébergement et de diffusion. Elles sont néanmoins responsables de la modération qui doit s'y opérer.

On pourrait toutefois considérer, à la lumière de nos précédents développements, que cette vision est quelque peu étriquée, voire hypocrite. Il me semble effectivement qu'on n ne peut pas non plus les qualifier de parfaitement neutres. D'une part, car à l'instar de X (Twitter), elles peuvent avoir une politique d'entreprise qui pourrait faire office de ligne éditoriale, à la façon d'un vrai média. D'autre part, en raison de la façon dont ces plateformes peuvent orientent leurs algorithmes va faire ressortir certains contenus plutôt que d'autres. C'est là qu'il peut y avoir un biais, un impact réel et une influence sur l'information et in fine, en bout de chaîne, sur la démocratie.

Quelles solutions sont envisageables pour enrayer ce phénomène ?

Fabrice Epelboin : La loi, le DSA, ne va pas revenir au monde du XXe siècle. Nous sommes entrés dans un monde où l'intermédiation entre le public et une information est faite par un algorithme. L'être humain prend une part de moins en moins importante dans ce processus et son influence est bien moins importante qu'elle ne l'était au XXe siècle. Le plus influent aujourd'hui, c’est l'algorithme. Les réseaux sociaux ne vont pas s’arrêter demain, sauf à se retrouver dans une dictature terrifiante. Mais même en Chine, il y a des réseaux sociaux. Et même en Chine, ils ont aussi ces effets malgré un contrôle beaucoup plus étroit. La société va changer du fait de ces algorithmes. Elle a déjà profondément changé ces dix dernières années. La moitié de la population ne s'informe qu'à travers les réseaux sociaux. Ils lisent des médias, mais ce sont les réseaux sociaux qui leur apportent l'article à lire, le clip, l'extrait à regarder. Ce ne sont pas des gens qui vont vers un média pour consommer de l'information. Ce sont les réseaux sociaux qui leur apportent l'information que l'algorithme juge utile et juge que la personne va apprécier. Cela change radicalement la circulation de l'information au sein de la société.

Hier, les médias de masses étaient les grands orchestrateurs de la circulation de l'information. Ils étaient le théâtre des débats publics. Aujourd'hui, les médias ne sont qu'un acteur du débat public. Et le théâtre, ce sont très clairement les réseaux sociaux. Ce monde-là est parti pour durer. La loi ne permettra pas de revenir en arrière. Il va falloir que la société s'adapte. Elle s'adaptera de gré ou de force. La circulation de l'information au sein de la société est quelque chose de vraiment structurant et d’extrêmement fort. Donc, dans la mesure où ces algorithmes interfèrent lourdement avec la circulation d'informations dans la société, les sociétés vont changer de façon extrêmement rapide.

La seule solution qui me semble réaliste pour limiter les effets nocifs passe par l'éducation. Les individus doivent être conscients de ce que sont ces algorithmes et de leurs effets, de manière à prendre un peu de recul avec ces algorithmes qui nous délivrent de l'information au quotidien. Comprendre la manière dont ils fonctionnent est la meilleure façon de commencer à pouvoir éventuellement s'en extraire.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !