Contrôle social
Vers l’ère des artificialocraties ? L’intelligence artificielle, nouvelle arme des régimes autoritaires
Les régimes autoritaires ont besoin de beaucoup de données afin de générer des algorithmes utilisés par de l’intelligence artificielle pour faire de la reconnaissance faciale ou de la reconnaissance comportementale.
Emmanuel Lincot
Professeur à l'Institut Catholique de Paris, sinologue, Emmanuel Lincot est Chercheur-associé à l'Iris. Son dernier ouvrage « Le Très Grand Jeu : l’Asie centrale face à Pékin » est publié aux éditions du Cerf.
Franck DeCloquement
Atlantico : Selon une récente étude du journal académique QJE, les autocraties augmentent leurs achats d’intelligence artificielle. L’innovation en matière d’IA bénéficierait d’ailleurs de la répression des troubles par les autocrates. De quoi s'agit-il ?
Franck Decloquement : L’étude explique ce principe de renforcement. Les régimes autocratiques sont toujours très concentrés sur les troubles, notamment sociaux, qui peuvent exister dans leur pays. Pour faire du contrôle social, ils ont besoin de beaucoup de données afin de générer des algorithmes utilisés par de l’intelligence artificielle pour faire de la reconnaissance faciale ou de la reconnaissance comportementale. Plus vous avez de données, plus vous pouvez détecter les troubles ou des comportements bizarres pour les régimes durs et autocratiques. L’IA leur apporte des solutions pour une répression centrée. Cette répression fait ensuite baisser les troubles. Il y a donc un système de renforcement avec le régime qui l’utilise. Ce renforcement est presque une espèce de spirale, notamment dans le cadre d’un régime autocratique. Pour ces régimes, l’IA crée un cercle vertueux dans le domaine du traitement des troubles. Ces régimes durs déploient toujours plus ces technologies de renforcement. Ces technologies rendent addictes les pouvoirs autoritaires car elles leur permettent de renforcer leur contrôle politique. Donc, ça augmente la commande publique.
L’étude du journal QJE prend en référence l’exemple de la Chine. Le gouvernement chinois est très friand de reconnaissance faciale. De quand pouvons-nous dater cette volonté d’investir dans l’IA ?
Emmanuel Lincot : En 2009 quand éclatent dans la ville de Urumqi, capitale du Xinjiang, des révoltes très graves opposant communautés ouïgoures et han. Plusieurs centaines de morts pousseront le régime à recourir à une surveillance plus systématique s’appuyant sur la technologie (caméras et IA) puis sur l’usage du crédit social pour accroître la surveillance de la population. Fondamentalement, la crainte du régime est liée à un précédent : la chute de l’Union Soviétique. Echapper à cette trajectoire funeste pour le Parti est une priorité absolue.
L'investissement du régime chinois dans l'IA, c'est surtout à des fins de contrôle politique ?
Emmanuel Lincot : Pas seulement. Rappelons que ces innovations ont une utilité immédiate : réguler les flux des trafics, permettre les paiements en ligne, faciliter le développement du e-commerce. L’IA change nos rapports à l’argent, nos modalités de paiement et sans doute à terme des transactions financières qui échapperont au contrôle imposé par exemple par le régime des sanctions américaines à l’encontre de la Chine. La monnaie fiduciaire a pratiquement disparu en Chine en quelques années seulement. Il est impossible de réserver un taxi, de régler le moindre achat autrement que par l’usage d’une application. Dans des domaines plus techniques encore, l’IA permet des avancées considérables dans le domaine de la médecine. Bref, la Chine met au défi l’Occident dans un choix multivectoriel de l’IA y compris dans le domaine militaire comme moyen d’augmenter l’intelligence humaine dans le champ de l’observation de l’adversaire ou dans celui de la dissuasion nucléaire ou non. Je pense en particulier à l’usage des drones sous-marins à des fins, pour la Chine, d’obtenir des renseignements ou des contre-mesures face à la menace des groupes aéronavals américains.
Autocraties et intelligence artificielle, attention danger ?
Franck Decloquement : Oui ! Et pas seulement pour les autocraties. L’algorithme utilisé par les chinois n’est pas très loin de celui utilisé par les assurances quand elles-mêmes achètent des quantités effarantes de data à différents fournisseurs. Ça peut être les fournisseurs de nos propres banques ou réseaux de transports qui vendent leurs datas. Les dispositifs utilisés pour faire de la détection dans la vente de contrats d’assurances ou dans la consommation n’est pas différent de ceux qu’utilisent les autocraties. Dans les démocraties, on utilise ces algorithmes avec une vocation commerciale et business alors que les autocraties les utilisent à vocation très claire de contrôle social. L’usage de la mathématique sociale de comportement a vocation à contrôler les populations. Les autocraties font du contrôle social pour réguler une forme de contestation interne. Ce qui est toujours l’objectif principal des régimes durs comme la Russie, la Chine, la Corée du Nord.
En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.
Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !