Google proclame son attachement à une intelligence artificielle éthique. Les équipes concernées en sont moins sûres…<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
La chercheuse Timnit Gebru, en 2018.
La chercheuse Timnit Gebru, en 2018.
©Kimberly White / GETTY IMAGES NORTH AMERICA / Getty Images via AFP

Don't be evil

Google dispose d'un processus d'examen pour déterminer si les nouvelles technologies sont conformes à ses principes en matière d'IA. Le but est de s'assurer que l'entreprise développe cette technologie de manière responsable. Mais des controverses internes jettent le doute sur l'efficacité de cette organisation.

Jean-Paul Pinte

Jean-Paul Pinte

Jean-Paul Pinte est docteur en information scientifique et technique. Maître de conférences à l'Université Catholique de Lille et expert  en cybercriminalité, il intervient en tant qu'expert au Collège Européen de la Police (CEPOL) et dans de nombreux colloques en France et à l'International.

Titulaire d'un DEA en Veille et Intelligence Compétitive, il enseigne la veille stratégique dans plusieurs Masters depuis 2003 et est spécialiste de l'Intelligence économique.

Certifié par l'Edhec et l'Inhesj  en management des risques criminels et terroristes des entreprises en 2010, il a écrit de nombreux articles et ouvrages dans ces domaines.

Il est enfin l'auteur du blog Cybercriminalite.blog créé en 2005, Lieutenant colonel de la réserve citoyenne de la Gendarmerie Nationale et réserviste citoyen de l'Education Nationale.

Voir la bio »

Atlantico : Google dispose d'un processus d'examen pour déterminer si les nouvelles technologies sont conformes à ses principes en matière d'IA, son équipe d'éthique est censée aider l'entreprise à trouver ses propres angles morts et à s'assurer qu'elle développe et applique cette technologie de manière responsable. Mais à la lumière de la controverse sur le départ de Timnit Gebru et du bouleversement de son équipe, se pourrait-il que Google aille de l'avant avec de nouvelles technologies qui changent le monde sans tenir compte adéquatement des commentaires internes ?

Jean-Paul Pinte : Six mois après le départ de Timnit Gebru, l'équipe d'intelligence artificielle éthique de Google est toujours en plein bouleversement.

La chercheuse vedette en éthique de l'IA, Timnit Gebru, a déclaré que Google l'avait licenciée pour un article universitaire examinant une technologie qui alimente certains des produits clés de l'entreprise, l'entreprise affirme qu'elle est toujours profondément engagée dans la recherche éthique en IA. Il a promis de doubler son personnel de recherche étudiant l'IA responsable à 200 personnes, et le PDG Sundar Pichai a promis son soutien pour financer des projets d'IA plus éthiques. Jeff Dean, le responsable de l'IA de la société, a déclaré en mai que même si la controverse entourant le départ de Gebru était un "coup de réputation", il était temps de passer à autre chose.

Mais certains membres actuels du groupe d'IA éthique étroitement lié de Google ont déclaré à Recode que la réalité est différente de celle que les dirigeants de Google présentent publiquement. Le groupe de 10 personnes, qui étudie l'impact de l'intelligence artificielle sur la société, est une subdivision de la nouvelle organisation plus large de Google en matière d'IA responsable. Ils disent que l'équipe est dans les limbes depuis des mois et qu'ils doutent sérieusement que les dirigeants d'entreprise puissent reconstruire leur crédibilité dans la communauté universitaire – ou qu'ils écouteront les idées du groupe. Google n'a pas encore embauché de remplaçants pour les deux anciens dirigeants de l'équipe.

À Lire Aussi

Consulter Google en quête d’auto-diagnostic pourrait en fait se révéler... bénéfique 

De nombreux membres se réunissent quotidiennement dans un groupe de messagerie privé pour se soutenir et discuter du leadership, se gérer de manière ponctuelle et demander conseil à leurs anciens patrons. Certains envisagent de partir pour travailler dans d'autres entreprises technologiques ou de retourner dans le monde universitaire, et disent que leurs collègues envisagent de faire de même. 

Alors malgré toutes ces controverses où en est le projet LaMDA ?

Google a profité de sa conférence I/O annuelle pour dévoiler ses avancées en matière d’intelligence artificielle. LaMDA (Language Model for Dialogue Applications) est une IA capable de comprendre une conversation. Le bot peut se faire passer pour tout et n’importe quoi, et entamer une discussion sur n’importe quel sujet de façon naturelle. L’idée dernière LaMDA est de programmer des chatbots (robots de discussion) qui pourraient se faire passer pour une entreprise, une personne, une entité, ou autre. Pour mieux illustrer le concept de cette IA, Google a pris l’exemple d’une discussion avec la planète Pluton, et ensuite avec un avion en papier. LaMDA est capable d’improviser des réponses en se faisant passer pour Pluton, c’est assez bluffant. Si l’IA arrive à s’engager dans n’importe quelle conversation, sans avoir besoin de script prédéfini, c’est grâce aux nombreux concepts qu’elle aurait emmagasinés et appris. Cela permet de garder le dialogue ouvert sans tourner en rond. Dans l’exemple de Pluton, « aucune réponse n’a été prédéfinie », affirme le patron de Google, Sundar Pichai.  

Au stade embryonnaire

Ce chatbot diffère de ce que l’on connaît déjà avec Alexa, Siri ou le Google Assistant actuel, car le but est d’utiliser LaMDA à l’oral, dans une conversation fluide : « Contrairement à d’autres modèles de langage, LaMDA a été entraîné sur les dialogues. Durant son entraînement, il a repéré différentes nuances qui distinguent les conversations d’autres formes de langage », explique Google sur son blog. Pour l’instant, l’IA n’est encore qu’au stade embryonnaire et ne s’est entraînée que sur du texte. La prochaine étape sera de pouvoir déceler des informations grâce au texte, à l’audio, à la vidéo et à l’image simultanément. Cela permettra de poser des questions à travers différentes sources d’information, comme dans une conversation sur messagerie classique, en somme.

La firme de Mountain View a affirmé être tentée d’ajouter LaMDA à Google Assistant à terme. Le bot sera, par ailleurs, certainement destiné à d’autres services et entreprises. Quoi qu’il en soit, LaMDA n’est encore qu’au stade de projet interne chez Google, et la firme n’a pas encore fourni d’information sur une éventuelle adaptation du logiciel IA pour le grand public.

Loin d'y voir un obstacle au jeu concurrentiel, Sundar Pichai veut faire de l’IA un levier pour les services de Google et bien au-delà.

À Lire Aussi

Les vendeurs de données personnelles sont une menace pour la démocratie

Dans le cadre de l’affaire des licenciements de chercheurs en intelligence artificielle éthique, l’entreprise Google a-t-elle un intérêt commercial à ébruiter  la controverse ?

Google possède une vaste organisation de recherche de milliers de personnes qui s'étend bien au-delà des 10 personnes qu'elle emploie pour étudier spécifiquement l'IA éthique. Il existe d'autres équipes qui se concentrent également sur les impacts sociétaux des nouvelles technologies, mais l'équipe d'IA éthique avait la réputation de publier des articles révolutionnaires sur l'équité algorithmique et les biais dans les ensembles de données qui forment les modèles d'IA. L'équipe a conféré à l'organisation de recherche de Google une crédibilité auprès de la communauté universitaire en démontrant qu'il s'agit d'un endroit où des universitaires chevronnés peuvent effectuer des recherches de pointe - et parfois critiques - sur les technologies développées par l'entreprise. C'est important pour Google, une entreprise sur laquelle des milliards de personnes comptent chaque jour pour naviguer sur Internet, et dont les produits de base, tels que la recherche, s'appuient de plus en plus sur l'IA.

Elle n’a donc pas intérêt à continuer à évoquer la controverse sur le marché dont elle détient depuis un moment un leadership.

Ceci se justifie encore plus alors que l'IA a le potentiel de changer le monde pour aider à diagnostiquer le cancer, détecter les tremblements de terre et reproduire la conversation humaine, la technologie en développement a également la capacité d'amplifier les préjugés contre les femmes et les minorités, de menacer la vie privée et de contribuer aux émissions de carbone. Google a mis en place un processus d'examen pour déterminer si les nouvelles technologies sont conformes à ses principes d'IA, qu'il a introduits en 2018. Et son équipe d'éthique de l'IA est censée aider l'entreprise à trouver ses propres angles morts et à s'assurer qu'elle développe et applique cette technologie de manière responsable. Mais à la lumière de la controverse suscitée par le départ de Gebru et du bouleversement de son équipe d'IA éthique, certains universitaires de la recherche en informatique craignent que Google s'attaque aux nouvelles technologies qui changent le monde sans tenir compte de manière adéquate des commentaires internes.

À Lire Aussi

Dermatologie : peut-on faire confiance à l’intelligence artificielle de Google pour diagnostiquer ses problèmes de peau ?

En mai, par exemple, Google a été critiqué pour avoir annoncé une nouvelle application de dermatologie basée sur l'IA qui présentait une lacune importante : elle sous-représentait largement les tons chair plus foncés dans ses données de test par rapport aux tons clairs. C'est le genre de problème que l'équipe d'IA éthique, si elle avait été consultée – et si elle n'était pas dans son état actuel – aurait pu aider à éviter !

Certains chercheurs de l'équipe d'IA éthique ont déclaré à Recode qu'ils envisageaient de quitter l'entreprise, et que plusieurs de leurs collègues pensaient faire de même. Pourrait-on assister à un mouvement de révolte au sein même de l’entreprise Google de la part des équipes de recherche ?

Au cours des derniers mois, la direction de l'équipe de recherche éthique de Google a été en pleine mutation.

En l'espace de quelques mois seulement, l'équipe – qui a été qualifiée de groupe de « inadaptés amicaux » en raison de ses recherches remettant en cause le statu quo – a perdu deux autres dirigeants après le départ de Gebru. En février, Google a licencié Meg Mitchell, une chercheuse qui a fondé l'équipe d'IA éthique et l'a co-dirigée avec Gebru. Et en avril, l'ancien directeur de Mitchell, le scientifique de pointe en IA Samy Bengio, qui dirigeait auparavant Gebru et s'est dit « abasourdi » par ce qui lui est arrivé, a démissionné. Bengio, qui n'a pas travaillé directement pour l'équipe d'IA éthique mais a supervisé son travail en tant que chef de la plus grande division de recherche Google Brain, dirigera une nouvelle équipe de recherche en IA chez Apple. 

À la mi-février, Google a nommé Marian Croak, ancienne vice-présidente de l'ingénierie, à la tête de son nouveau département IA responsable, dont fait partie l'équipe d'éthique de l'IA. Mais plusieurs sources ont déclaré à Recode qu'elle était de trop haut niveau pour être impliquée dans les opérations quotidiennes de l'équipe.

Cela a laissé l'unité d'IA éthique se diriger de manière ad hoc et se tourner vers ses anciens dirigeants qui ne travaillent plus dans l'entreprise pour obtenir des conseils informels et des conseils de recherche. Les chercheurs de l'équipe ont inventé leur propre structure : ils alternent les responsabilités de gestion des réunions hebdomadaires du personnel. Et ils ont auto-désigné deux chercheurs pour tenir les autres équipes de Google au courant de ce sur quoi ils travaillent, ce qui était un élément clé du travail de Mitchell. Étant donné que Google emploie plus de 130 000 personnes dans le monde, il peut être difficile pour des chercheurs comme l'équipe d'éthique de l'IA de savoir si leur travail sera réellement mis en œuvre dans des produits.

"Mais maintenant, avec Timnit et moi n'étant pas là, je pense que les gens qui enfilent cette aiguille sont partis", a déclaré Mitchell à Recode.
Les six derniers mois ont été particulièrement difficiles pour les nouveaux membres de l'équipe d'IA éthique, qui ne savaient parfois pas à qui demander des informations de base telles que l'endroit où ils peuvent trouver leur salaire ou comment accéder aux outils de recherche internes de Google, selon plusieurs sources.
Et certains chercheurs de l'équipe se sentent en danger après avoir vu les départs difficiles de Gebru et Mitchell. Ils craignent que, si Google décide que leur travail est trop controversé, ils pourraient également être évincés de leur emploi.

Lors de réunions avec l'équipe d'IA éthique, Croak, qui est une chef de file accomplie de la recherche en ingénierie mais qui a peu d'expérience dans le domaine de l'éthique, a tenté de rassurer le personnel qu'elle est l'alliée que l'équipe recherche. Croak est l'un des cadres noirs les mieux classés chez Google, où les femmes noires ne représentent qu'environ 1,2% de la main-d'œuvre. Elle a reconnu le manque de progrès de Google dans l'amélioration de la diversité raciale et de genre de ses employés - un problème dont Gebru s'est exprimé lorsqu'il travaillait chez Google. Et Croak a donné un ton d'excuse lors des réunions avec le personnel, reconnaissant la douleur que traverse l'équipe, selon plusieurs chercheurs. Mais l'exécutif est parti du mauvais pied avec l'équipe, selon plusieurs sources, car ils estiment qu'elle a fait une série de promesses vides.

Pour éviter la discrimination liée à l'intelligence artificielle, Sundar Pichai prévoit d'augmenter le budget de fonctionnement de ce département chez Google.

Plus l'intelligence artificielle se développe, plus un cadre de fonctionnement éthique s'impose. C'est en tout cas l'avis du géant américain Google qui a annoncé dans le cadre du Future of Everything Festival organisé par le Wall Street Journal, que l'équipe chargée de définir le cadre éthique pour l'intelligence artificielle allait s'agrandir.

À Lire Aussi

Nouvelle loi antiterroriste : « Vous ne dites pas à Google, à Facebook ou à Twitter il y a 18 mois vous avez créé une application, pourquoi vous en faites une nouvelle ? » (Gérald Darmanin)

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !