Vers l’ère des artificialocraties ? L’intelligence artificielle, nouvelle arme des régimes autoritaires<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
Selon une récente étude du journal académique QJE, les autocraties augmentent leurs achats d’intelligence artificielle.
Selon une récente étude du journal académique QJE, les autocraties augmentent leurs achats d’intelligence artificielle.
©Mikhail TERESHCHENKO / SPUTNIK / AFP

Contrôle social

Les régimes autoritaires ont besoin de beaucoup de données afin de générer des algorithmes utilisés par de l’intelligence artificielle pour faire de la reconnaissance faciale ou de la reconnaissance comportementale.

Emmanuel Lincot

Emmanuel Lincot

Professeur à l'Institut Catholique de Paris, sinologue, Emmanuel Lincot est Chercheur-associé à l'Iris. Son dernier ouvrage « Le Très Grand Jeu : l’Asie centrale face à Pékin » est publié aux éditions du Cerf.

 

Voir la bio »
Franck DeCloquement

Franck DeCloquement

Ancien de l’Ecole de Guerre Economique (EGE), Franck DeCloquement est expert-praticien en intelligence économique et stratégique (IES), et membre du conseil scientifique de l’Institut d’Études de Géopolitique Appliquée - EGA. Il intervient comme conseil en appui aux directions d'entreprises implantées en France et à l'international, dans des environnements concurrentiels et complexes. Membre du CEPS, de la CyberTaskforce et du Cercle K2, il est aussi spécialiste des problématiques ayant trait à l'impact des nouvelles technologies et du cyber, sur les écosystèmes économique et sociaux. Mais également, sur la prégnance des conflits géoéconomiques et des ingérences extérieures déstabilisantes sur les Etats européens. Professeur à l'IRIS (l’Institut de Relations Internationales et Stratégiques), il y enseigne l'intelligence économique, les stratégies d’influence, ainsi que l'impact des ingérences malveillantes et des actions d’espionnage dans la sphère économique. Il enseigne également à l'IHEMI (L'institut des Hautes Etudes du Ministère de l'Intérieur) et à l'IHEDN (Institut des Hautes Etudes de la Défense Nationale), les actions d'influence et de contre-ingérence, les stratégies d'attaques subversives adverses contre les entreprises, au sein des prestigieux cycles de formation en Intelligence Stratégique de ces deux instituts. Il a également enseigné la Géopolitique des Médias et de l'internet à l’IFP (Institut Française de Presse) de l’université Paris 2 Panthéon-Assas, pour le Master recherche « Médias et Mondialisation ». Franck DeCloquement est le coauteur du « Petit traité d’attaques subversives contre les entreprises - Théorie et pratique de la contre ingérence économique », paru chez CHIRON. Egalement l'auteur du chapitre cinq sur « la protection de l'information en ligne » d u « Manuel d'intelligence économique » paru en 2020 aux Presses Universitaires de France (PUF).
Voir la bio »

Atlantico : Selon une récente étude du journal académique QJE, les autocraties augmentent leurs achats d’intelligence artificielle. L’innovation en matière d’IA bénéficierait d’ailleurs de la répression des troubles par les autocrates. De quoi s'agit-il ?

Franck Decloquement : L’étude explique ce principe de renforcement. Les régimes autocratiques sont toujours très concentrés sur les troubles, notamment sociaux, qui peuvent exister dans leur pays. Pour faire du contrôle social, ils ont besoin de beaucoup de données afin de générer des algorithmes utilisés par de l’intelligence artificielle pour faire de la reconnaissance faciale ou de la reconnaissance comportementale. Plus vous avez de données, plus vous pouvez détecter les troubles ou des comportements bizarres pour les régimes durs et autocratiques. L’IA leur apporte des solutions pour une répression centrée. Cette répression fait ensuite baisser les troubles. Il y a donc un système de renforcement avec le régime qui l’utilise. Ce renforcement est presque une espèce de spirale, notamment dans le cadre d’un régime autocratique. Pour ces régimes, l’IA crée un cercle vertueux dans le domaine du traitement des troubles. Ces régimes durs déploient toujours plus ces technologies de renforcement. Ces technologies rendent addictes les pouvoirs autoritaires car elles leur permettent de renforcer leur contrôle politique. Donc, ça augmente la commande publique. 

L’étude du journal QJE prend en référence l’exemple de la Chine. Le gouvernement chinois est très friand de reconnaissance faciale. De quand pouvons-nous dater cette volonté d’investir dans l’IA ?

Emmanuel Lincot : En 2009 quand éclatent dans la ville de Urumqi, capitale du Xinjiang, des révoltes très graves opposant communautés ouïgoures et han. Plusieurs centaines de morts pousseront le régime à recourir à une surveillance plus systématique s’appuyant sur la technologie (caméras et IA) puis sur l’usage du crédit social pour accroître la surveillance de la population. Fondamentalement, la crainte du régime est liée à un précédent : la chute de l’Union Soviétique. Echapper à cette trajectoire funeste pour le Parti est une priorité absolue. 

L'investissement du régime chinois dans l'IA, c'est surtout à des fins de contrôle politique ? 

Emmanuel Lincot : Pas seulement. Rappelons que ces innovations ont une utilité immédiate : réguler les flux des trafics, permettre les paiements en ligne, faciliter le développement du e-commerce. L’IA change nos rapports à l’argent, nos modalités de paiement et sans doute à terme des transactions financières qui échapperont au contrôle imposé par exemple par le régime des sanctions américaines à l’encontre de la Chine. La monnaie fiduciaire a pratiquement disparu en Chine en quelques années seulement. Il est impossible de réserver un taxi, de régler le moindre achat autrement que par l’usage d’une application. Dans des domaines plus techniques encore, l’IA permet des avancées considérables dans le domaine de la médecine. Bref, la Chine met au défi l’Occident dans un choix multivectoriel de l’IA y compris dans le domaine militaire comme moyen d’augmenter l’intelligence humaine dans le champ de l’observation de l’adversaire ou dans celui de la dissuasion nucléaire ou non. Je pense en particulier à l’usage des drones sous-marins à des fins, pour la Chine, d’obtenir des renseignements ou des contre-mesures face à la menace des groupes aéronavals américains.

Autocraties et intelligence artificielle, attention danger ? 

Franck Decloquement : Oui ! Et pas seulement pour les autocraties. L’algorithme utilisé par les chinois n’est pas très loin de celui utilisé par les assurances quand elles-mêmes achètent des quantités effarantes de data à différents fournisseurs. Ça peut être les fournisseurs de nos propres banques ou réseaux de transports qui vendent leurs datas. Les dispositifs utilisés pour faire de la détection dans la vente de contrats d’assurances ou dans la consommation n’est pas différent de ceux qu’utilisent les autocraties. Dans les démocraties, on utilise ces algorithmes avec une vocation commerciale et business alors que les autocraties les utilisent à vocation très claire de contrôle social. L’usage de la mathématique sociale de comportement a vocation à contrôler les populations. Les autocraties font du contrôle social pour réguler une forme de contestation interne. Ce qui est toujours l’objectif principal des régimes durs comme la Russie, la Chine, la Corée du Nord.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !