Triche ou optimisation : mais qui sont ces marques qui utilisent des bataillons de travailleurs du clic ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Economie
Triche ou optimisation : mais qui sont ces marques qui utilisent des bataillons de travailleurs du clic ?
©Omar TORRES / AFP

Uberisation permanente

Une étude réalisée par des chercheurs de Télécom ParisTech, du CNRS et de la MSH Paris Saclay révèle que le nombre de "travailleurs du clic" "très actifs" se situe autour des 15.000 tandis que le nombre de micro-travailleurs « occasionnels » monterait jusqu'à 250.000

Frédéric Marty

Frédéric Marty

Frédéric Marty est chercheur affilié au Département Innovation et concurrence de l'OFCE. Il également est membre du Groupe de Recherche en Droit, Economie et Gestion (GREDEG) de l'Université de Nice-Sophia Antipolis et du CNRS.

 

Voir la bio »

Atlantico : Que révèle l'ampleur de cette uberisation de la vente de données personnelles ? Quel est le profil de ces travailleurs ?

Frederic Marty : La recherche, publiée par Clément Le Ludec, Paola Tubaro et Antonio Casilli, dans le cadre d’un document de travail de l’i3, l’Institut Interdisciplinaire de l’Innovation du CNRS, délivre une première estimation du nombre de travailleurs du clic en France. Il s’agit des utilisateurs occasionnels, réguliers voire très actifs sur les plateformes numériques de micro-travail. Cette étude fournit un complément essentiel à l’ouvrage récemment publié par Antonio Casilli sur les travailleurs cachés de l’Internet : En attendant les robots, enquête sur les travailleurs du clic. Sa contribution et cette recherche empirique permettent de caractériser et de prendre la mesure du digital labor.

Comme le montre Antonio Casilli, l’Internet ne fonctionne que par la mobilisation d’une armée de réserve de petites mains effectuant de micro-tâches parcellisées et souvent déqualifiées et répétitives visant à aider les algorithmes, à les entraîner voire dans certains cas à les mimer. Derrière les promesses d’un monde d’automates, porté par la transformation numérique, se cacherait une réelle digitalisation, au sens propre du terme, dans laquelle un rôle central serait joué par un nombre impressionnant d’humains cliquant physiquement sur des photos pour les labéliser, remplissant manuellement des formulaires à partir d’images numérisées de factures ou de devis, voire se faisant passer pour des assistants virtuels.

Le paradoxe de ce digital labor tient au fait qu’il est rendu invisible à l’utilisateur par le fonctionnement des plateformes dont les algorithmes constituent à ce point des boîtes noires qu’on ne peut séparer ce qui relève du traitement algorithmique de ce qui est produit par des interventions humaines.

Le digital labor au sens de Casilli regroupe trois types d’activités, complémentaires et imbriquées, mais qu’il est intéressant de distinguer. La première relève de ce que nous regroupons traditionnellement sous le vocable d’économie des plateformes et de travail à la demande. La plateforme, intermédiaire numérique, joue le rôle d’un algorithme d’appariement, mettant en contact demandeurs et offreurs de services. Ces derniers, souvent des micro-entrepreneurs, proposent par exemple des services de transport de personnes (cas des VTC) ou des services de livraisons (de colis, de repas, etc…). Une autre catégorie correspond au travail social en réseau. Il ne s’agit pas réellement d’un travail qui fait l’objet d’une contrepartie monétaire. Antonio Casilli emploie à fort juste escient l’expression de playbor (contraction de play et de labor). La production de contenu pour le compte de la plateforme se fait sous une apparence ludique. En favorisant l’engagement des internautes, les réseaux sociaux, et les plateformes en général, bénéficient d’un flux de production et de labellisation des contenus qui leur permet de réaliser des progrès longtemps inimaginables en matière d’intelligence artificielle et notamment d’apprentissage profond (deep learning).

Un troisième type de digital labor est au centre de l’évaluation réalisée par Clément Le Ludec, Paola Tubaro et Antonio Casilli. Il tient à la réalisation pour le compte de plateformes spécialisées de micro-tâches : distribuées par algorithmes, proposées pour des sommes forfaitaires souvent très faibles, celles-ci sont réalisées de façon décentralisées à l’extérieur des entreprises, par de nombreux internautes y trouvant des revenus de compléments. Il s’agit de modèles de travail à la pièce ou de travail à la demande portant sur des tâches rendues les plus élémentaires possibles (on parle pour cela de tâcheronnisation) ou visant à organiser des données pour les rendre utilisables pour l’intelligence artificielle (on parle de datafication). Il est nécessaires aux algorithmes recourant à l’apprentissage machine de disposer d’un stock initial de données mises en forme, accompagner son entraînement sur celles-ci et assurer un calage pour garantir la pertinence des prédictions qu’ils seront amenés à faire.

Le numérique ne conduit pas à éliminer le travail humain au profit de l’algorithme mais conduit à instrumentaliser le premier par et pour le compte du second. Le cas du Turc Mécanique d’Amazon tel que présenté par Oscar Schwartz dans IEEE Spectrum constitue le meilleur exemple pour cerner cette complémentarité dissimulée sous les atours d’une substituabilité.

L’origine du nom vient d’une tromperie, on ne saurait dire forgerie, du 18ème siècle. Wolfgang von Kempelen avait fabriqué un faux automate sous les atours d’un Grand Turc d’opérette, supposé être capable de jouer aux échecs. Ce lointain ancêtre de Deep Blue était doté d’une intelligence artificielle dotant plus artificielle qu’il dissimulait un être humain ! La plateforme mTurk d’Amazon fonctionne selon le même principe d’un travail humain occulté par l’algorithme. Lorsque le catalogue d’Amazon s’étoffa et se complexifia, la plateforme dût faire face à la nécessité de classer des offres nombreuses et de supprimer maints doublons.

Réaliser cette tâche était alors impossible à réaliser pour des algorithmes et la firme ne pouvait (et ne voulait) employer suffisamment de salariés pour réaliser ces tâches de nettoyeurs. En effet, relever les similitudes entre différents produits était bien plus difficile pour des algorithmes d’il y a quinze ans que pour les humains. Le taux d’échec des algorithmes de reconnaissance d’images constituait une barrière alors insurmontable à l’automatisation de la tâche. Il s’agissait donc à la fois, dans une optique très taylorienne, de diviser cette tâche complexe en de nombreuses tâches élémentaires et de mettre en œuvre un outil algorithmique permettant la distribution des tâches et leur compilation. Il s’agissait également au travers d’une plateforme de permettre leur externalisation vers des travailleurs en dehors de l’entreprise.

En 2001, Amazon et l’un de ses ingénieurs, Venky Harinarayan, déposèrent une demande à l’Office des brevets américain, demande validée en 2007 et qui portait sur une méthode d’organisation d’une distribution de tâche hybride entre hommes et machines permettant de décomposer et de distribuer des micro-tâches au sein d’un réseau. Cette méthode permettait de coordonner algorithmiquement l’externalisation de tâches élémentaires impossibles à automatiser et à réaliser en interne. Cette technologie conduisit donc à développer une place de marché sur laquelle des tiers, free-lancers ou individus à la recherche d’un revenu additionnel pourraient trouver un (maigre) complément de revenu.

Cette intelligence artificielle artificielle pour reprendre les termes mêmes de J. Bezos repose donc sur la mobilisation à la demande d’une armée de réserve de travailleurs du clic et constitua la matrice de l’ensemble des plateformes de micro-travail qui sont aujourd’hui présentes sur le marché.

Qu’apprend-t-on sur la structuration de ce marché à la lecture du document de travail édité par l’Institut Interdisciplinaire de l’Innovation du CNRS ? Il permet tout d’abord d’actualiser les données et d’étendre le périmètre de l’évaluation réalisée en 2016 par l’Inspection Générale des Affaires Sociales (IGAS) sur lesplateformes coopératives. Celle-ci évaluait le nombre de chauffeurs Uber en France à 14 000. A l’heure actuelle, le nombre de chauffeurs de VTC atteindrait 28 000 et les seuls livreurs de Deliveroo quelques 9300. Les travailleurs du clic tels que définis par Clément Le Ludec, Paola Tubaro et Antonio Casilli seraient au nombre de 14 000 pour les très actifs, de 52 300 pour les réguliers et de 266 000 pour les occasionnels.

Il peut être intéressant de se pencher plus en détail sur l’activité de ces derniers par rapport à celle des travailleurs des plateformes (i.e. de l’économie à la demande ou de la gig economy). Notons tout d’abord, en suivant encore les conclusions d’Antonio Casilli, que les travailleurs des plateformes, qu’ils soient chauffeurs de VTC ou livreurs, ne fournissent pas seulement un service physique de transport à celles-ci. Ils produisent à leur profit une masse impressionnante de données au travers de leurs déplacements via leur GPS et leur application mobile ou encore à interagir avec la plateforme pour gérer leurs messages, leur notation en ligne etc… Remarquons au passage que la production des données se fait sur les deux versants de la plateforme, qu’il s’agisse des chauffeurs ou des clients qui eux aussi utilisent leur application. Ainsi, un éventuel passage à la voiture autonome, qui suppose la collecte d’une masse inédite de données, s’appuie sur les flux de données créées, labélisées et annotées par les participants du service de transport.

La seconde forme de ce digital labor correspond pleinement au modèle du calcul assisté par l’humain, c’est-à-dire au computationnel appuyé sur du digital au sens physique du terme. Dans la logique du mTurk, il s’agit d’appuyer le fonctionnement de l’algorithme par la distribution sur des plateformes de micro-travail de tâches élémentaires rémunérées à la pièce. Quelles sont ces tâches, en apparence automatisées et dans les faits réalisées pour tout ou partie par des humains ? Il s’agit de la labélisation de vidéos et d’images, de la modération de messages et de contenus sur des réseaux sociaux, du nettoyage et de la mise en forme de données, de réponses à des questionnaires en ligne ou encore à la retranscription dans des formulaires en lignes de documents numérisés comme des facturettes de supermarché.

Ce travail rend possible le fonctionnement des algorithmes qui ont besoin pour fonctionner de données mises en forme. Avant de mettre en œuvre une science des données, il faut en développer une ingénierie. Celle-ci nécessite, comme les processus industriels du début du siècle dernier, le recours à de nombreux opérateurs, pour lesquels de faibles compétences peuvent être suffisantes. En attendant que les robots arrivent, ces derniers œuvrent à leur paver la voie et à suppléer à leurs faiblesses actuelles. En l’espèce l’homme n’est pas encore augmenté par la machine, c’est plutôt la machine qui est (encore) appuyée sur l’homme.

Ce type de profession fait plutôt penser à un travail de "robot". Est-ce un phénomène temporaire avant l'automatisation du procédé ou peut-on s'attendre à la naissance d'une réelle profession ?

Si un nouvel hiver ne s’abat pas sur l’intelligence artificielle après ceux des années soixante-dix et des années quatre-vingt-dix, on pourrait voir cette relation de complémentarité comme une étape nécessaire à son développement. Cette étape serait appelée à être définitivement dépassée dès lors que les algorithmes auront pu être entraînés sur des données suffisamment massives et diversifiées.

Pour l’heure, nous ne disposons pas à proprement parlé d’une IA « forte ». Celle-ci pourrait de façon autonome contextualiser des problèmes nouveaux et y apporter des réponses. Les outils actuels relèvent bien plus d’intelligences artificielles « faibles ». Elles ne sont performantes (de plus en plus d’ailleurs) que dans les domaines et pour les questions pour les lesquels elles ont été entraînées. La substitution de l’automate à l’opérateur n’est donc pas pour demain quand bien même le rôle du second peut recouvrir des tâches bien élémentaires…

L’IA peut permettre à des spécialistes d’augmenter leurs capacités et de se recentrer sur des tâches d’interprétation et d’analyse les plus gratifiantes, elle peut néanmoins dans le même temps supposer l’engagement de nombreux travailleurs dans des tâches basiques et répétitives d’annotation, de mise en forme et de nettoyage de bases de données. Les travaux menés par Nathaniel Porter, d’Ashton Verdery et d’Ashton Gaddis sur le recours à des outils d’impartition à grande échelle (crowdsourcing) soulignent les possibilités de répartition de ces tâches d’augmentation des données au travers de plateformes numériques. En d’autres termes, si l’IA peut potentiellement augmenter l’humain, des humains sont (et seront peut-être toujours) nécessaires pour augmenter les données sur lesquelles repose l’IA.

Si le travailleur est nécessaire, l’activité d’augmentation des données peut-elle être suffisamment rémunératrice pour lui ?

Il convient tout d’abord de noter que ces plateformes de micro-travail sont en premier lieu des outils d’externalisation de tâches. Il s’agit de pouvoir mobiliser une force de travail dont on ne peut disposer en interne mais aussi de réduire les coûts directs et indirects de la main d’œuvre.

Il convient ensuite de noter qu’à l’exception de tâches très précises et très qualifiées, qui constituent l’idéal du modèle du freelancer, la majeure partie des tâches distribuées sont élémentaires et mettent en jeu une mise en concurrence entre de très nombreux internautes. Leur rémunération se fait à la tâche et se caractérise par des montants unitaires particulièrement faibles. Une évaluation américaine réalisée sur le cas de l’Amazon Mechanical Turk, publiée en décembre 2017, concluait à une rémunération horaire médiane de 2$ de l’heure pour les travailleurs du clic avec seulement 4% d’entre eux capables de dégager un salaire horaire supérieur à 7,25$, lequel correspond au salaire minimum aux Etats-Unis.

L’évaluation réalisée par Antonio Casilli et ses coauteurs montre que les utilisateurs français assidus des sites de micro-travail ne génèrent en moyenne qu’un revenu mensuel de 20 €. Encore faut-il noter que toutes les tâches réalisées ne font pas l’objet d’une rémunération en monétaire ; pour certaines d’entre elles la contrepartie tient à des bons d’achat, à des coupons de réduction, …). De surcroît, certaines activités présentées sous forme ludique ou sociale ne font pas l’objet d’une compensation.

Les entreprises payant ce type de services ont-elles conscience de la nature de ce service de "faux clics" ? A quel point l'économie numérique est-elle biaisée par ces services ?

La question peut se poser au niveau des investisseurs et des firmes mais également à celui des utilisateurs eux-mêmes des services.

L’intelligence artificielle a besoin de cette phase de machine augmentée pour tenir ses promesses de développement. Celles-ci sont toujours conditionnelles, comme son histoire nous l’a montré depuis les années 1950, mais elles apparaissent comme de plus en plus tangibles, non seulement grâce aux extraordinaires progrès réalisés en termes de capacité de calcul et grâce à la massivité et à la richesse des flux de données produites par les grandes plateformes numériques.

Ces espoirs se traduisent déjà par des améliorations spectaculaires en termes de performance des algorithmes. Cette performance est liée au tsunami de données observé depuis 2005. Les grandes plateformes ont à la fois les capacités de collecte, de déduction et de stockage d’énormes masses de données mais également les capacités de les traiter et de les exploiter. Par exemple, en matière de reconnaissance d’images, le taux de réussite est maintenant supérieur à 95%. Les performances des algorithmes de traduction se sont également spectaculairement améliorées avec le développement de l’apprentissage machine. Amazon via l’Amazon Web Services propose à ses clients des solutions d’apprentissage machine et d’apprentissage profond. Les premières sont par exemple proposées pour des détections de données aberrantes dans des corpus de données massives (anomalies, fraudes, pertes de clients…). Les secondes sont proposées des services de classifications de contenus, de segmentation, de reconnaissance vocale, de compréhension du langage naturel ou encore de moteurs de recommandations.

Ces espoirs dans le développement de l’IA, de plus en plus confortés par les faits, génèrent également des flux d’investissements massifs de la part des acteurs majeurs de l’Internet. Entre 2010 et le mois de mars 2019, Apple a racheté 16 start-ups dans le domaine, Google 15, Microsoft 10, Amazon 9 et Facebook 8. Au-delà de ces acquisitions, dont les rachats par Microsoft en 2018 de GitHub et Xoxco fournissent de bons exemples, il convient également de souligner la massivité des investissements faits en interne par les grandes firmes du secteur technologique et la croissance des levées de fonds réalisées par les start-ups dans le domaine.

Cependant, si les progrès réalisés dans l’IA faible sont particulièrement marqués pour des tâches de reconnaissance, de détection de problèmes ou d’aide à la décision pour des tâches routinières, les exigences sont bien supérieures dès lors qu’il s’agit de tâches plus complexes. Une intervention humaine est toujours nécessaire pour permettre d’entraîner ces algorithmes voire pour suppléer à ces derniers. Le cas des assistants en ligne est représentatif de la dernière situation dans la mesure où des opérateurs physiques peuvent se substituer à la machine (i.e. au chatbot) un peu à la manière du Turc Mécanique originel…

L’hybridation entre machines et opérateurs humains est incontournable à notre stade de développement de l’IA et le sera encore longtemps pour de nombreuses tâches. Là où la confiance peut être remise en cause, c’est quand des investisseurs peuvent être trompés sur le réel degré de maturité d’une technologie développée par une entreprise levant des fonds, par exemple quant au réel niveau d’automatisation des recommandations logicielles qui sont proposées. Ces risques sont amplifiés par la blackboxisation des algorithmes, lesquels sont souvent très difficilement interprétables (notamment quand ils reposent sur de l’apprentissage machine). Ils peuvent également être accrus par la vague d’investissements dans le domaine qui peut conduire les investisseurs à ne pas suffisamment évaluer ex ante dans quelle mesure des humains se cachent encore durablement derrière les robots.

Cette complémentarité entre hommes et robots peut également soulever des questions pour les parties prenantes des plateformes elles-mêmes. En effet, quelle est la part des décisions automatiques (en matière de classement des offres, de présentation des actualités ou des profils sur des réseaux sociaux, …) et celles pour lesquelles une intervention humaine est intervenue ?

Un premier exemple de cette problématique peut être apportée avec les débats autour des nettoyeurs du net, en d’autres termes, ces petites mains chargées de la tâche peu ragoûtante, si ce n’est possiblement traumatisante, de modérer les échanges et surtout de filtrer les contenus sur les réseaux sociaux. Un deuxième exemple peut tenir au choix des contenus présentés dans les fils d’actualité. Comment est évaluée la pertinence de tel ou tel contenu ? L’algorithme ne risque-t-il pas d’être altéré par une intervention humaine pour favoriser un contenu donné renforçant possiblement la bulle de filtre dans laquelle risque de se voir enfermé l’internaute.

Ces questions soulèvent des problèmes pour les utilisateurs individuels des plateformes. Elles peuvent bien entendu être étendue aux utilisateurs professionnels, qu’il s’agisse de vendeurs indépendants sur des places de marché en ligne ou d’enchérisseurs sur les mots clés dans le secteur de la publicité en ligne liée aux recherches. Le secret des affaires qui couvre l’algorithme et la prise en compte d’indices de qualité déduit de l’observation des comportements passés des internautes créent une opacité qui peut faire craindre à certains acteurs de faire l’objet de pratiques anticoncurrentielles tenant à des abus d’éviction ou à des abus d’exploitation, par exemple au travers de mécanismes de pay for ranking, tels que la Commission européenne a mis en évidence dans son enquête sectorielle sur le commerce en ligne.

L’hybridation entre hommes et machines, en d’autres termes de l’intelligence artificielle artificielle (IAA) conduit à des questionnements spécifiques. Ils ne se limitent pas à ceux désormais classiques posés par l’IA ; à savoir les moyens de garantir une redevabilité sur les résultats et de corriger d’éventuels biais qui peuvent souvent provenir des données mêmes sur lesquelles l’IA est entraînée. L’IAA pose avec encore plus d’acuité la question de la sincérité des résultats et celle des risques de manipulations.

Au-delà même de cette question de confiance dans l’économie numérique, qui est une composante essentielle désormais de la confiance dans le marché, se pose une seconde question liée aux inégalités. La tâcheronnisation peut être vue comme une extension à l’extrême de problématiques déjà soulevées lors de l’émergence de l’économie à la demande. La position de force des plateformes, en matière de capacités à externaliser les tâches, peut conduire pour celles-ci à des gains d’efficacité spectaculaires dont les micro-travailleurs ne profiteront guère, notamment du fait de la modicité de leurs paiements.

Se posent également des questions liées à l’isolement des travailleurs du clic et à leur absence de protection sociale. Pour reprendre les chiffres d’Antonio Casili et de ses collègues, le nombre de ces travailleurs invisibles serait déjà de plus de 200 000 en prenant l’estimation la plus large en France. Un récent rapport de l’Organisation Internationale du Travail, Digital labour platforms and the future of work: Towards decent work in the online world, donne un point de vue encore plus spectaculaire de la diffusion mondiale du phénomène. Les travailleurs du clic seraient entre 45 et 90 millions à l’échelle mondiale. Le salaire horaire médian ressortant de l’enquête réalisé ne dépasse pas 2,16$ et révèle en sus de fortes variations d’un pays à l’autre. La division du travail digital est internationale et les rémunérations varient fortement en fonction des continents. En outre, le rapport met en avant une forte part de diplômés parmi ces travailleurs et met en évidence la dépendance de nombreux d’entre eux à cette source de revenus et le nombre et l’atypicité des heures qui lui sont consacrés.

Ainsi, la question doit être envisagée selon de très nombreuses dimensions. Les travaux menés par Clément Le Ludec, Paola Tubaro et Antonio Casilli constituent donc une pièce essentielle à apporter au débat public et témoigne de l’importance des recherches réalisées dans le champ de la sociologie du numérique et plus généralement des humanités numériques.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !