Santé : quand le patron de Google demande que les usages de l’Intelligence artificielle soient régulés<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Santé : quand le patron de Google demande que les usages de l’Intelligence artificielle soient régulés
©LIONEL BONAVENTURE / AFP

IA

Le patron de Google, Sundar Pichai, a expliqué dans un édito du Financial Times que les gouvernements du monde entier devraient réguler l'intelligence artificielle (IA), notamment dans les domaines de la santé et des voitures autonomes.

Jean-Paul Pinte

Jean-Paul Pinte

Jean-Paul Pinte est docteur en information scientifique et technique. Maître de conférences à l'Université Catholique de Lille et expert  en cybercriminalité, il intervient en tant qu'expert au Collège Européen de la Police (CEPOL) et dans de nombreux colloques en France et à l'International.

Titulaire d'un DEA en Veille et Intelligence Compétitive, il enseigne la veille stratégique dans plusieurs Masters depuis 2003 et est spécialiste de l'Intelligence économique.

Certifié par l'Edhec et l'Inhesj  en management des risques criminels et terroristes des entreprises en 2010, il a écrit de nombreux articles et ouvrages dans ces domaines.

Il est enfin l'auteur du blog Cybercriminalite.blog créé en 2005, Lieutenant colonel de la réserve citoyenne de la Gendarmerie Nationale et réserviste citoyen de l'Education Nationale.

Voir la bio »

Atlantico.fr : Cette annonce vous surprend-elle ? Pourquoi ces deux secteurs en particulier sont-ils concernés ?

Jean-Paul Pinte : Dans un colloque à l’Université Paris Descartes en 2018 sur la régulation de l’intelligence artificielle on évoquait qu’au cours de ces dernières années, la société avait profondément évolué sous l’effet du progrès technique et des nouvelles technologies. L’avènement de l’Intelligence Artificielle suscite notamment une révolution numérique dont il est difficile de mesurer toutes les conséquences. De ces nouveaux usages résulte une nouvelle économie, celle de la donnée, au point que l’on ne cesse de parler, à leur endroit, de nouvel or noir. Ces données sont au cœur de nouveaux usages qui ne cessent de croître au rythme de la croissance des échanges numériques.

Le monde de l’Intelligence Artificielle pose ici avec acuité le problème de régulation plus que d’autres innovations que notre monde a vécues car les interactions sont plus nombreuses, les risques aussi et nul ne peut prévoir leur étendue.

Le rapport publié en décembre 2017 par la CNIL proposait des règles éthiques pour le développement des algorithmes et de l'intelligence artificielle, tout en estimant qu'il n'est pas nécessaire de les réguler.

Parcoursup, Spotify, Google, les véhicules autonomes : autant d'algorithmes qui attestent aussi de l'omniprésence de l'intelligence artificielle. Entre progrès et risques, les changements de société nés de l'IA doivent être régulés. Des chercheurs proposent d'y réfléchir collectivement. Et Anne Laude, doyen de la faculté de droit de l'Université Paris Descartes d’ajouter "La question est de savoir si on  peut tout laisser faire ou s'il faut réfléchir à des outils juridiques qui viendraient l'encadrer et éviter des dérives excessives". 

C’est principalement dans les mondes de la santé et du transport que sont nées les principales découvertes de l’Intelligence Artificielle. C’est sûrement parce qu’il en va de l’avenir voire de la survie de l’humain dans ces deux domaines qu’il est urgent de se pencher sur leur régulation dans notre monde.

En ce qui concerne les transports l’intelligence artificielle a déjà trouvé sa place auprès des transporteurs routiers :

  • Au niveau de la maintenance prédictive : l’IA vous permet de mieux anticiper l’entretien et le renouvellement des pièces de vos camions, en prédisant à l’avance les points faibles des véhicules.
  • En matière de sécurité : elle aide à anticiper les risques en fonction des dangers de la route ou des dangers liés aux marchandises transportées, grâce aux capteurs que l’on retrouve désormais sur de nombreux poids lourds.
  • Au niveau de la consommation de carburant : l’IA va effectuer une analyse précise de la conduite et du trajet choisi pour vous proposer des solutions permettant de faire de vraies économies de carburant.
  • Pour la conduite autonome : les aides à la conduite permettent déjà d’épauler les conducteurs dans leur tournée mais un jour, les camions pourront rouler seuls, grâce à l’IA et au développement des camions autonomes.
  • Pour planifier les transports : l’IA aide les gestionnaires à aller encore plus loin, en réalisant des analyses plus poussées des données de transport. Vous gagnez en temps et en précision, tout en gardant la décision finale.

Pour ce qui est de la logistique, l’IA y est déjà aussi bien présente

·       Les objets connectés, les applications ou encore l’informatique embarquée envoient des données à des IA qui les analysent et vous rapportent une information claire pour vous aider dans la prise de décision.

·       Que ce soit au niveau du trajet des véhicules, de l’estimation de l’heure d’arrivée (ETA), ou le calcul des coûts de transport (ex : estimation des tarifs pour un chargeur), l’IA vous aide déjà au quotidien en vous faisant des propositions automatiquement pour améliorer la gestion des transports.

·       Mais l’utilisation de l’IA va sûrement encore s’intensifier, avec le développement d’outils de gestion encore plus sophistiqués comme les camions autonomes par exemple.

Pour la question propre au véhicule autonome, c’est plus problématique puisqu’il exploite un nombre plus important de technologies et d’interactions avec les utilisateurs et l’environnement. Il s’appuie sur les travaux en matière de robotique, systèmes asservis, calculs de parcours, apprentissage, modèles prédictifs, systèmes multi-agents.

Son niveau de complexité est tel que la mise en œuvre de véhicules totalement autonomes en milieu ouvert (c’est-à-dire cohabitant avec des véhicules standards sur des voiespubliques) exige des travaux de recherche menés principalement par les constructeurs automobiles ou les opérateurs de transport.

Toutefois, l’accueil et l’accompagnement des passagers dans un véhicule autonome sera demain une phase différenciante pour les constructeurs, Talan Consulting a accompagné la réalisation d’un prototype d’assistant virtuel combinant Intelligence Artificielle et interface Homme-Machine pour assurer cet accompagnement.

Se posent alors des questions plus juridiques, éthiques à intégrer dès leur conception (Security by design)

Le projet AutoMate de l'institut Vedecom surveille ainsi autant la route que le passager-conducteur. L'enjeu est de mieux impliquer ce dernier dans les choix du système de conduite. C'est la vocation du projet AutoMate de l'Institut pour la transition énergétique (ITE) Vedecom : initier une collaboration entre le véhicule et le conducteur-passager, l'un et l'autre prenant tour à tour la main selon les circonstances, se signalant des informations sur la route et les obstacles, le comportement de l'utilisateur, à bord, étant lui-même sous la surveillance de capteurs. Des limites en termes de vision

En cas de concentration moindre, le système de la voiture le détecte dans les images et propose alors de basculer en mode conduite autonome. A l'inverse, une voiture se pilotant toute seule rencontre parfois ses limites en termes de vision, selon la configuration des lieux. "La voiture peut, là, demander à l'humain, par exemple, de confirmer que personne n'arrive en face et qu'elle peut doubler", continue Guillaume Bresson de l’Institut Vedecom.

Au niveau éthique et juridique il y a aussi de quoi faire.

26 millions de possibilités ont été testées sur des véhicules autonomes. Car, en cas d’accident, que doit décider l’intelligence artificielle d’un futur véhicule autonome durant la fraction de seconde dont elle dispose : heurter un homme en bonne santé ou une femme âgée ? Et qui est tenu pour responsable : le « conducteur » humain qui n’a même pas touché les commandes, le fabricant de la voiture, ou encore l’ingénieur qui a programmé l’intelligence artificielle ? Questions terribles, on en convient. Pourtant, une équipe internationale de chercheurs a décidé de les poser aux internautes du monde entier pour étudier leurs préférences morales.

« Jamais, dans toute l’histoire de l’humanité, nous n’avons permis à une machine de décider seule qui doit vivre et qui doit mourir, sans supervision, rappellent les chercheurs du Massachusetts Institute of Technology (MIT).

C’est la version moderne du dilemme du tramway, une expérience de pensée qui vous place devant un choix impossible. Si vous étiez une voiture autonome, quelle décision prendriez-vous si vous ne pouviez pas éviter un accident mortel inévitable ? Sacrifieriez-vous la ou les personnes se trouvant à bord ? Ou plutôt les piétons ? Baseriez-vous votre décision sur certaines caractéristiques des futures victimes ?

Ce sont ces questions qui ont été soumises au public, à travers la « machine morale » proposée sur le site du MIT. Il s’agit d’un questionnaire vous demandant de vous positionner sur des problématiques éthiques insolubles, mais qui vont se poser aux concepteurs de systèmes de conduite autonome et, donc, à l’industrie automobile. Car ces situations pourraient survenir.

C’est la version moderne du dilemme du tramway, une expérience de pensée qui vous place devant un choix impossible. Si vous étiez une voiture autonome, quelle décision prendriez-vous si vous ne pouviez pas éviter un accident mortel inévitable ? Sacrifieriez-vous la ou les personnes se trouvant à bord ? Ou plutôt les piétons ? Baseriez-vous votre décision sur certaines caractéristiques des futures victimes ?

Ce sont ces questions qui ont été soumises au public, à travers la « machine morale » proposée sur le site du MIT. Il s’agit d’un questionnaire vous demandant de vous positionner sur des problématiques éthiques insolubles, mais qui vont se poser aux concepteurs de systèmes de conduite autonome et, donc, à l’industrie automobile. Car ces situations pourraient survenir.

Le monde de la santé et sa régulation face à l’IA

Chaque jour naisse des innovations dans le monde de la santé. Elles sont pour la plupart liées au monde de l’Intelligence Artificielle. Ces dernières ne sont pas sans risque.

Selon le docteur Jean-Emmanuel Bibault*, l’utilisation des méthodes d’intelligence artificielle sans régulation par les autorités sanitaires peut exposer la population à d’éventuelles erreurs.

L’IA excelle en effet dans les tâches de perception: elle est en train de changer la radiologie diagnostique, l’ophtalmologie et l’anatomopathologie. Les exemples les plus marquants concernent le diagnostic automatisé de tumeurs cérébrales ou cutanées et la détection de la rétinopathie diabétique. Dans chacun de ces domaines, ses performances ont été comparées à celles de médecins. Il a ainsi été démontré que dans certains cas l’IA était capable d’être plus rapide, plus précise et plus fiable que l’humain. Dans ces domaines, l’utilisation de l’IA sera facilement vérifiable et ses résultats pourront être validés par un humain.

Dans d’autres domaines les résultats fournis par une IA ne seront tout simplement pas vérifiables: prédiction de l’apparition d’une maladie cinq ans à l’avance, prédiction du risque de décès, analyse génomique. Dans ces domaines, le médecin et donc le patient n’auront d’autre choix que de «faire confiance à l’IA».

Dans ce contexte, faut-il réguler l’utilisation de l’IA en médecine, comme on contrôle la mise sur le marché des médicaments et des dispositifs médicaux? Si oui, quelles études cliniques faire, quelles méthodes utiliser? Faut-il utiliser les mêmes méthodes que l’on utilise avant de commercialiser un médicament pour vérifier son innocuité et son efficacité, en traitant un groupe de patients selon les recommandations d’une IA et en comparant les résultats à ceux d’un autre groupe traité par un médecin? Ces questions complexes ont fait l’objet d’un article dans le Figaro et restent actuellement ouvertes.

David Gruson Membre du Comité de direction de la Chaire santé de Sciences Po Paris, professeur associé en droit de la génétique à Paris-Descartes parle d’une régulation positive de l’intelligence artificielle en santé comme un enjeu majeur pour permettre une diffusion de l’innovation numérique, dans un esprit d’ouverture et de cohérence et avec des valeurs éthiques. Des principes opérationnels ont été proposés, en particulier autour de la notion de “garantie humaine”

L’avis rendu par le Comité consultatif national d’éthique fin 2018 constitue une avancée importante pour la reconnaissance de ce concept, qui laisse une large capacité d’initiative aux professionnels et aux patients.

Il propose avec sa chaire de philosophie cinq clés de régulation pour le déploiement de l’intelligence artificielle et de la robotisation en santé

Clé 1. Information et consentement du patient. Le patient doit être informé préalablement du recours à un dispositif d’intelligence artificielle (IA) dans son parcours de prise en charge en santé. Le dispositif d’IA ne doit pas se substituer au recueil du consentement du patient. Des modalités particulières – comme le recours à une personne de confiance, à des dispositifs de recueil a priori pour un ensemble d’options de solutions de prise en charge ou à des dispositions de protection renforcée pour les personnes vulnérables – doivent, le cas échéant, être aménagées pour garantir l’effectivité du recueil de ce consentement.

Clé 2. Garantie humaine de l’IA. Le principe de garantie humaine du dispositif d’IA en santé doit être respecté. Cette garantie doit être assurée par, d’une part, des procédés de vérification régulière – ciblée et aléatoire – des options de prise en charge proposées par le dispositif d’IA et, d’autre part, l’aménagement d’une capacité d’exercice d’un deuxième regard médical humain à la demande d’un patient ou d’un professionnel de santé. Ce deuxième regard peut, le cas échéant, être mis en œuvre par l’intermédiaire de dispositifs de télémédecine.

Clé 3. Graduation de la régulation en fonction du niveau de sensibilité des données de santé. La régulation du déploiement d’un dispositif d’IA pour le traitement de données de santé en grand nombre doit être graduée en fonction du niveau de sensibilité de ces données au regard des principes du droit bioéthique. Des normes de bonnes pratiques peuvent être élaborées pour la mise en œuvre de ce principe dans des domaines spécifiques de prise en charge.

Clé 4. Accompagnement de l’adaptation des métiers. La mise en œuvre d’un dispositif d’IA ou de robotisation en santé ne doit pas conduire à écarter l’application des principes et règles déontologiques dans l’exercice des professions de santé utilisant ces dispositifs. Les effets du recours à un dispositif d’IA ou de robotisation sur les conditions de cet exercice doivent, dans toute la mesure du possible, faire l’objet de modalités d’anticipation et d’accompagnement. Une partie des gains d’efficience obtenus par le déploiement de l’IA et de la robotisation en santé doit être mobilisée pour le financement de cet accompagnement, la formation – initiale et continue – des professionnels aux enjeux de l’IA et de la robotisation, et pour le soutien à l’émergence de nouveaux métiers dans le champ sanitaire et médicosocial.

Clé 5. Intervention d’une supervision externe indépendante. Une supervision externe indépendante est mise en œuvre pour examiner les dispositions prises en vue de veiller au respect de ces principes. L’autorité chargée d’assurer le respect de la mise en œuvre de cette supervision externe diligente des études d’évaluation régulière pour apprécier les effets du déploiement de l’IA et de la robotisation en santé. Elle soutient la recherche sur la régulation du déploiement de celles-ci.

La question se pose aussi au niveau éthique (voire juridique) lorsqu'il s'agit de savoir si le médecin devra signaler à son patient s'il a l'intention de procéder à la pratique de l'IA...

Si l'on prend l'Europe et son manque de fermeté quant aux questions des GAFAM, que ce soit sur les taxes ou la protection des données personnelles, comment être sûr de l'efficacité de ces régulations concernant l'IA ?

La complexité de l’IA, l’ignorance de son fonctionnement et la vitesse de ses développements attendus dans toutes les strates de la société risquent de favoriser la lenteur, voire une inertie fatale de nos institutions. Ce fut le cas pendant longtemps pour s’adapter juridiquement à la disruption digitale qu’imposent les domaines du Big Data, de la cybercriminalité, etc.

L’Union européenne s’y attelle à l’aide d’un dispositif réglementaire encore timide, voire inadapté car plus l’IA gagnera du terrain, plus la nécessité de la création d’un cadre juridique et éthique se fera sentir. Le politique et nos institutions vont devoir réagir très vite si elles veulent profiter des bienfaits de l’IA, tout en neutralisant ses dérives annoncées. Aujourd’hui, les inquiétudes sont en effet nombreuses quant aux potentielles dérives liées aux technologies issues de l’intelligence artificielle (IA). Alors que l’utilisation du machine learning et de l’IA se démocratisent, et un an après le RGPD, la Commission Européenne plancherait, selon le Financial Times, sur une nouvelle réglementation.

Il n’a pas fallu attendre une réaction de la Commission Européenne pour que les spécialistes de l’intelligence artificielle s’inquiètent de ses dérives : en 2016, des chercheurs en intelligence artificielle de Google, Microsoft, IBM, Facebook et Amazon se réunissaient au congrès “Partnership for AI” visant à définir les bonnes pratiques en termes d’intelligence artificielle. Néanmoins, et compte tenu de l’ampleur que prend l’intelligence artificielle et des avancées fulgurantes en la matière, le projet de loi de la Commission Européenne constitue une avancée considérable sur les plans juridique et politique.

L’UE a publié le 8/04/19 un ensemble de recommandations élaborées par un panel d’experts indépendants. Elles définissent les valeurs essentielles d’une IA éthique, contiennent des orientations pour leur mise en œuvre opérationnelle ainsi qu’une liste d’évaluation. Non contraignantes, elles paraissent encore théoriques à en croire cet article.

L'IA est-elle devenue trop puissante pour pouvoir être régulée ? Existe-t-il d'autres méthodes - hormis ces régulations - que peuvent prendre comme décisions les gouvernements afin de protéger efficacement leurs citoyens des dérives de l'IA ?

L’IA est redevenu un sujet contemporain et pourtant ses étapes d’évolution ont été tumultueuses passant d’effets de croyance à des réalités sur le terrain comme les systèmes experts dans les années 80 voire encore les agents intelligents avec les premiers moteurs de recherche dans les années 90.

L’intelligence artificielle à la française sera européenne, éthique et centrée sur quatre secteurs prioritaires, d’après le rapport remis le 28 mars 2018par Cédric Villani. Les classements internationaux montrent que "les pays les plus en avance sur le déploiement de l'intelligence artificielle, ce sont les Etats-Unis, la Chine, l'Angleterre, le Canada et Israël, et nous n'y sommes pas", a notamment déclaré le député sur France Inter à la même date.

Pour permettre à la France de faire valoir ses atouts dans ce secteur, le rapport préconise l'émergence d'un écosystème européen de la donnée, qui vise à favoriser son accès, son partage et sa circulation à travers les frontières. Le document identifie quatre domaines économiques où la France doit particulièrement concentrer son effort de développement de l’intelligence artificielle: la santé, les transports, l’environnement et la défense.

L’éthique est au cœur du rapport

Toujours plus présente dans les services que nous utilisons au quotidien, l'intelligence artificielle soulève des questions éthiques, également balayées par le rapport. Parmi les propositions les plus saillantes de la mission Villani sur le sujet, figure la création d’un Comité d’éthique sur les technologies numériques et l'intelligence artificielle, dont les recommandations pourraient servir de standards à l'industrie.

Le document insiste sur la vigilance à l'égard des "boîtes noires", ces systèmes algorithmiques opaques qui ne laissent pas entrevoir leur fonctionnement interne. Il souligne la nécessité d'accroître l'auditabilité de ces mêmes systèmes. "Dans un contexte où l’IA est susceptible de reproduire des biais et des discriminations, et à mesure de son irruption dans nos vies sociales et économiques, être en mesure "d’ouvrir les boîtes noires" tient de l’enjeu démocratique", juge Cédric Villani.

Un ensemble de 12 mesures ont aussi été proposées lors d’un meeting à Bruxelles en octobre 2018. Il mérite que l’on s’y intéresse.

Suite à la proposition de ces mesures à Bruxelles, le groupe américain de protection de la vie privée Electronic Privacy Information Center (EPIC) souhaite que le gouvernement américain les adopte à l’échelle des Etats-Unis.

Ces douze mesures visent à protéger l’humanité des différentes menaces générées par l’IA, à informer et à améliorer sa conception et son usage « . Plus de 200 experts et 50 entreprises ont contribué à l’élaboration de ces recommandations. Il s’agit de droits, d’obligations et d’interdictions. Les voici :

  • Le droit à la transparence : tous les individus doivent avoir le droit de connaître les fondements d’une décision prise par une IA les concernant. Ils doivent pouvoir accéder aux facteurs, à la logique et aux techniques qui ont produit cette décision.
  • Le droit à la détermination humaine : tous les individus doivent avoir le droit à une détermination finale effectuée par une personne. L’IA ne doit donc pas être en mesure de prendre des décisions seule.
  • L’obligation d’identification : toutes les institutions en charge d’un système d’intelligence artificielle doivent être connues publiquement.
  • L’obligation de justice : les institutions doivent s’assurer que les systèmes d’intelligence artificielle ne reflètent pas de préjugés injustes de leurs créateurs et ne prennent pas de décisions discriminatoires.
  • L’obligation de responsabilité : un système IA ne peut être déployé qu’après une évaluation de ses fins, de ses objectifs, de ses risques, et de ses bienfaits. Les institutions doivent être tenues pour responsables des décisions prises par un système IA.
  • L’obligation de de précision, de fiabilité et de validité : les institutions  doivent assurer la précision, la fiabilité et la validé des décisions prises par une IA.
  • L’obligation de qualité des données : les institutions doivent dévoiler la provenance des données et assurer la qualité des données fournies à leurs algorithmes.
  • L’obligation de sécurité publique : les institutions doivent implémenter des mesures de contrôle de sécurité pour faire face aux risques liés au déploiement de systèmes IA qui contrôlent ou dirigent des appareils physiques.
  • L’obligation de cybersécurité : les institutions doivent sécuriser leurs systèmes IA contre les menaces de cybersécurité.
  • L’interdiction du profilage secret : les institutions ne doivent en aucun cas mettre en place ou maintenir un système de profilage secret.
  • L’interdiction au scoring unitaire : aucun gouvernement ne doit mettre en place ou maintenir un système de scoring de ses citoyens ou de ses résidents basé sur l’intelligence artificielle. Cette mesure se présente comme un tacle direct à la Chine qui utilise l’IA et le Big Data pour évaluer ses citoyens et leur accorder ou leur refuser des privilèges en fonction.
  • L’obligation de suppression : si le contrôle d’une IA par un humain n’est plus possible, l’institution qui l’a créé doit avoir pour obligation de la supprimer.

Pour Laetitia Pouliquen, le «guide de l'éthique pour l'Intelligence artificielle» de la Commission européenne est un signe: plus qu'un sujet à la mode, il s'agit d'une véritable urgence éthique et juridique dont le politique doit se saisir. Dans le domaine de la santé, on pourrait dit-elle envisager l'écriture d'un nouveau Serment d'Hippocrate technologique.

Enfin il convient de savoir quel type  d’intelligence artificielle nous voulons. Cette thématique a été au programme du G7 numérique.

La France et le Canada ont lancé en décembre 2018 un groupe international d’experts sur l’intelligence artificielle (G2IA). Sur le même modèle que le GIEC, centré quant à lui sur les questions climatiques, le G2IA sera chargé, sur le long terme, d’analyser l’impact de l’intelligence artificielle et de proposer, au service de la lutte contre les inégalités, des orientations pour le développement d'une IA centrée sur l’humain.

Pour que le G2IA devienne la référence internationale sur la recherche en IA, d’autres pays à la pointe dans ce domaine doivent en reconnaître la légitimité. À cette fin, les ministres du numérique ont discuté du mandat accordé à cette instance ainsi que de son mode de gouvernance.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !