En direct
Best of
Best of du 18 au 24 mai 2019
En direct
© Thomas SAMSON / AFP
La data, c’est plus fort que toi
Pourquoi les algorithmes sont beaucoup plus politiques que ce vous croyez
Publié le 09 novembre 2018
Les algorithmes sont devenus l’infrastructure cognitive permettant d’ordonnancer l’information à une échelle jamais connue jusque-là.
Directeur marketing basé à Pékin, spécialiste du management de l’innovation, Bertrand Hartemann se passionne pour les nouveaux modèles économiques induits par la disruption numérique. Diplômé de la Sorbonne et du CNAM en droit, finances et économie, il...
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Bertrand Hartemann
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Directeur marketing basé à Pékin, spécialiste du management de l’innovation, Bertrand Hartemann se passionne pour les nouveaux modèles économiques induits par la disruption numérique. Diplômé de la Sorbonne et du CNAM en droit, finances et économie, il...
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Les algorithmes sont devenus l’infrastructure cognitive permettant d’ordonnancer l’information à une échelle jamais connue jusque-là.

Ils prolifèrent dans toutes les directions faisant corps avec leur environnement. Les processus d’embauche, d’octroi de crédit bancaire, de ciblage publicitaire ou encore de diagnostic médical intègrent de manière croissante ces outils prédictifs. Avec le développement des techniques dites « d’apprentissage machine » mimant le système neuronal, on en vient même à fantasmer sur une possible mise en équation de l‘intelligence humaine. Loin d’être neutre, cette « numérisation du monde » est en soit une fiction raisonnée porteuse de valeurs. Elle échappe pourtant encore largement au champ politique et ce alors même qu’elle est potentiellement source de biais sociaux et économiques.  

Une vision actuarielle de la société

Les algorithmes décrivent l'enchaînement logique des étapes nécessaires à la résolution d’un problème. Cette automatisation des processus de raisonnement a toujours existé. Les premières méthodes de calcul et de résolution d’équation datent des babyloniens, au IIIe siècle avant J.-C. Ces mécanismes analytiques ont ensuite été systématisés par le mathématicien perse Al-Khwarizmi au IXème siècle et par le philosophe andalou Averroès au XII siècle. En 1843, Ada Lovelace, pionnière de l’informatique, réalise la première implémentation d’un algorithme sous forme de programme. La puissance calculatoire et le volume de données collectées changent aujourd’hui d’échelle. L’analyse algorithmique est désormais en mesure de faire surgir des corrélations dans de vastes systèmes stochastiques (dépendant du hasard).

Souvent parés de la vertu d’objectivité des mathématiques, ces artefacts ne sont pourtant pas neutres. Ils constituent une nouvelle forme culturelle organisant un savoir qui leur est propre. Comme toute modalité de traitement de l’information, ils traduisent des opinions. Aux Etats-Unis, ils sont placés sous la protection du premier amendement de la Constitution, portant sur le droit à la libre expression. Leur structure dépend des données entrantes ainsi que de la définition des résultats attendus. A une problématique peut donc correspondre de multiples modèles de résolution.

A la manière d’un enfant qui se « nourrit » des interactions avec son environnement, l’algorithme apprend de la sélection des informations mises à sa disposition. Le risque est alors d’avoir des angles morts, avec des données insuffisantes ou incorrectes. Déduire les évolutions futures à partir des données du passé implique également de mener une analyse critique des sous-jacents sociaux, économiques ou culturels. Aux Etats-Unis, les décisions de justice s’appuient déjà sur des outils actuariels de calcul du risque d’infraction. Les mises en détention provisoires, avant un procès, ou les libertés conditionnelles sont décidées en fonction de la note attribuée. Or comme l’a illustré le site d’investigation ProPublica (2016), certains de ces logiciels ont tendance à surévaluer le risque de récidive des populations afro-américaines. Ils ne sont pas en soi racistes mais se fondent sur des données corrélées aux origines sociales, créant ainsi « une boucle de rétroaction de l’injustice » (Virginia Eubanks, 2016). On peut dès lors s’inquiéter du risque de renforcement de la surveillance et des soupçons pesant sur les groupes les plus marginalisés.

L’automatisation de la décision risque par ailleurs de faire disparaître toute subjectivité, tout processus de dialogue. L’individu n’est plus objectivé à travers son discours, ou la manière dont il cherche à se présenter aux autres. Il est profilé par des modèles épidémiologiques de calcul des risques. Le fait pour un individu d’être relié à certains profils statistiques suffit désormais à le classifier, sans jugement sur la singularité de son parcours individuel. Se dessine une économie actuarielle, ou les individus se voient attribuer un score social par leur banque, leur employeur ou leur gouvernement. La Chine travaille déjà à l’implémentation, à grande échelle, d’un système automatisé de notation citoyenne. Dans ce contexte, l’homme n’est plus un « animal autobiographique » qui met en discours sa vie mais un flux statistique catégorisable. Il n’y a plus de place pour la jurisprudence, c’est-à-dire pour les mécanismes de justification de la singularité et de la désobéissance.

Des boites noires algorithmiques insondables 

Se détachant du religieux, la modernité a fait émerger la structure étatique comme outil premier de gestion du risque. A travers le « contrat social », l’individu consent à une délégation de souveraineté en échange de sécurité économique et sociale. Avec la numérisation du monde, la gestion de l’incertitude est progressivement déléguée aux algorithmes qui apparaissent comme un nouveau projet de « gouvernementalité » (Foucault).

Le législateur français et européen tente d’encadrer cette automatisation du « contrat social ». Les opérateurs de plateformes numériques sont aujourd’hui soumis à l’obligation de délivrer une information loyale, claire et transparente. Les facteurs influençant le référencement de l’information ou la nature des services en ligne doivent être explicités afin que les utilisateurs puissent les contester. Mais dans la pratique, l’exigence de « redevabilité » des plateformes numériques se heurte à l’obscurité des algorithmes et à l’absence de contre-pouvoir.

Il a fallu attendre le scandale Cambridge Analytica et les révélations sur l'utilisation à des fins politiques des données de 50 millions d'utilisateurs pour que le géant Facebook soit finalement inquiété. En priorisant les contenus viraux, le réseau social a largement contribué à la propagation de fausses nouvelles, de discours haineux, jusqu’à devenir un outil d’ingérence étrangère dans les débats électoraux. Plus généralement, l’ingénierie soutenant la segmentation publicitaire s’est faite au mépris de la protection des données personnelles.

Avec le succès des technologies d'apprentissage machine ou « deep learning », il devient désormais quasiment impossible de rendre intelligible les processus de traitement. Lorsque la machine bat un joueur d’échec, la combinaison des possibles est infinie mais la règle du jeu est établie. Au contraire, avec l’apprentissage machine il n’y a plus de corpus de règles. L'algorithme est ajusté de manière itérative par un jeu continu d’essais-erreurs, c’est-à-dire sans raisonnement structuré.

L’Etat, décrit par Hobbes comme un automate artificiel, se voit désormais concurrencé par des formes techniques étrangères au domaine politique. L’exploitation des données comportementales confère une puissance sans précédent aux entreprises numériques. Cette architecture panoptique augure d’une société inquisitrice. On ne trouve, pour autant, aucun « Big Brother » central clairement identifié. L’autorité ne revêt plus une forme institutionnalisée mais s’exerce à travers une infrastructure algorithmique décentralisée auquel l’individu consent passivement.

Les commentaires de cet article sont à lire ci-après
Articles populaires
Période :
24 heures
7 jours
01.
Rihanna éconduit Neymar, Charlotte Casiraghi & Gad Elmaleh s’ignorent, Anthony & Alain-Fabien Delon se vengent de leur père; Karine Ferri investit lourdement pour son mariage (et invite utile); Johnny Depp : c’est Amber qui l’aurait battu
02.
Ce qui explique la nouvelle vague d'eugénisme
03.
LREM, UDI, LR ou abstention ? Petit guide pour ceux qui voudraient (vraiment) voter libéral aux Européennes…
04.
Cannes : Abdellatif Kechiche s'emporte contre la question "imbécile" et "malsaine" d'un journaliste
05.
Le nombre de cancers du côlon chez les jeunes adultes augmente nettement et voilà pourquoi
06.
Automobile : des centaines de milliers de moteurs Renault suspectés de malfaçon
07.
Colis piégé à Lyon : pourquoi la menace terroriste ne parviendra pas à prendre cette élection en otage
01.
Pôle Emploi n’aime pas qu’on dise qu’il est peu efficace dans son accompagnement des chômeurs mais qu’en est-il concrètement ?
02.
Semaine à haut risque pour Emmanuel Macron : les trois erreurs qu’il risque de ne pas avoir le temps de corriger
03.
Burkini à la pisicine municipale : les périlleuses relations de la mairie de Grenoble avec les intégristes musulmans
04.
Cancer : cette découverte sur le cerveau qui ouvre de prometteuses voies de traitement
05.
Immobilier : l’idée folle de la mairie de Grenoble pour protéger les locataires mauvais payeurs
06.
Le nombre de cancers du côlon chez les jeunes adultes augmente nettement et voilà pourquoi
01.
Mondialisation, libre-échange et made in France : l’étrange confusion opérée par François-Xavier Bellamy
02.
Appel des personnes en situation de handicap ou familles concernées pour sauver Vincent Lambert d’une mort programmée
03.
La bombe juridique qui se cache derrière la décision de la Cour d’appel de Paris de sauver Vincent Lambert
04.
Chômage historiquement bas mais travailleurs pauvres : le match Royaume-Uni / Allemagne
05.
Des experts estiment dans un nouveau scénario que la hausse du niveau des océans pourrait dépasser deux mètres d'ici 2100
06.
Vidéo de Vincent Lambert : son épouse va porter plainte
Commentaires (0)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
Pas d'autres commentaires