En direct
Best of
Best of du 4 au 10 mai 2019
En direct
© Kay Nietfeld / POOL / AFP
Bonnes feuilles
Le risque bien réel de brider l'innovation en matière d'intelligence artificielle par une réglementation trop forte
Publié le 08 décembre 2018
Ni excessivement alarmiste ni aveuglément enthousiaste, David Gruson dans "La machine, le médecin et moi" publié aux éditions de l'Observatoire s’attache à sortir de la binarité caricaturale qui imprègne les débats sur l'intelligence artificielle appliquée au domaine médical et dresse le tableau réaliste d’un système de santé dans lequel l’association de la machine, du médecin et du patient est indispensable. Extrait 1/2.
David Gruson, ancien directeur d’hôpital, est membre de la Chaire santé de Sciences Po et professeur associé en droit de la génétique à la Faculté de médecine Paris Descartes. Il est le fondateur d’Ethik IA, initiative qui défend une « régulation...
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
David Gruson
Suivre
Vous devez être abonné pour suivre un auteur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
David Gruson, ancien directeur d’hôpital, est membre de la Chaire santé de Sciences Po et professeur associé en droit de la génétique à la Faculté de médecine Paris Descartes. Il est le fondateur d’Ethik IA, initiative qui défend une « régulation...
Voir la bio
Ajouter au classeur
Vous devez être abonné pour ajouter un article à votre classeur.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Lecture Zen
Vous devez être abonné pour voir un article en lecture zen.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Ni excessivement alarmiste ni aveuglément enthousiaste, David Gruson dans "La machine, le médecin et moi" publié aux éditions de l'Observatoire s’attache à sortir de la binarité caricaturale qui imprègne les débats sur l'intelligence artificielle appliquée au domaine médical et dresse le tableau réaliste d’un système de santé dans lequel l’association de la machine, du médecin et du patient est indispensable. Extrait 1/2.

Les Gafam américains et les BATX chinois sont, en 2018, très loin devant la France et l’Europe s’agissant de la production de solutions d’intelligences artificielles en santé « généralistes ». De manière très schématique, on peut distinguer deux grandes catégories d’IA généralistes. Les IA d’aide à la décision comme Watson, d’IBM, ont d’emblée un spectre d’intervention très large (avec comme principales données d’alimentation, en plus des données cliniques, les résultats d’essais cliniques ou les publications scientifiques). Le modus operandi reposera ici sur la proposition de paramètres ou d’options d’aide à la décision en présence d’un cas individuel déterminé. Ces propositions peuvent naturellement avoir un effet relativement dirimant sur la décision elle-même si certaines options de prise en charge possibles ne sont pas proposées par l’algorithme.

Les IA d’appui au pilotage d’un parcours de prise en charge comme DeepMind, de Google, se fondent, à titre principal, sur le processus décrit plus haut de numérisation d’un parcours de prise en charge d’un patient. Cette numérisation peut intégrer des briques de substitution totale ou partielle à la décision humaine. Cette avance industrielle de l’Amérique du Nord et de l’Asie peut être source de conséquences sur les modalités de diffusion de l’IA et de la robotisation en santé. Un scénario de déploiement « à la Netflix » semble, à ce stade, le plus probable : l’expérience concrète est faite de l’efficacité d’une solution d’IA élaborée à l’étranger et les utilisateurs en demandent ensuite l’importation dans leur pays. L’exemple de l’importation en France, à travers le PMSI et la T2A1 , du modèle des DRG (Diagnosis Related Groups) nord-américains de financement des établissements de santé à l’activité montre que le scénario d’importation d’un outil jugé « efficient » de transformation d’ensemble du système de santé n’est pas du tout utopique. De même, les solutions de gestion de systèmes d’information et de dossiers patients informatisés sont aujourd’hui, pour une part significative, de conception étrangère. Si l’on va plus loin dans le raisonnement, on comprend le risque éthique possiblement associé à ce « scénario de l’importation ». Si nous appliquons trop strictement le principe de précaution en France et que nous mettons en œuvre un réflexe instinctif de surréglementation face à l’IA, nous accélérerons l’importation de solutions conçues ailleurs. Et nous risquerons alors de ne disposer que d’un contrôle éthique évanescent de ces intelligences artificielles. Des solutions d’IA en santé seraient ainsi appliquées en France par la force d’entraînement de leur efficacité médicale constatée hors de France. Ce schéma n’est pas théorique. D’ores et déjà, les études se multiplient pour montrer – parfois à grands renforts médiatiques – les meilleurs résultats diagnostiques de certains algorithmes par rapport à des intervenants humains. La situation pratique se rencontrera sans doute très vite d’un patient qui s’étonnera devant son médecin traitant de ne pas pouvoir avoir accès à la dernière intelligence artificielle conçue pour diagnostiquer sa pathologie éventuelle. Et nous risquons assez vite, si l’innovation en IA en santé était bridée en France, d’encourager des comportements de « fuite du système de santé » pour les patients français disposant des moyens matériels d’accéder aux solutions algorithmiques les plus innovantes. Le pacte de solidarité qui fonde notre Sécurité sociale s’en trouverait alors gravement menacé.

Extrait de "La machine, le médecin et moi", de David Gruson, publié aux éditions de l'Observatoire

Les commentaires de cet article sont à lire ci-après
Le sujet vous intéresse ?
Thématiques :
Articles populaires
Période :
24 heures
7 jours
01.
Pôle Emploi n’aime pas qu’on dise qu’il est peu efficace dans son accompagnement des chômeurs mais qu’en est-il concrètement ?
02.
La bombe juridique qui se cache derrière la décision de la Cour d’appel de Paris de sauver Vincent Lambert
03.
Attention danger politique pour Emmanuel Macron : voilà pourquoi l’électorat en marche est à manier avec grande précaution
04.
Burkini à la pisicine municipale : les périlleuses relations de la mairie de Grenoble avec les intégristes musulmans
05.
Le nombre de cancers du côlon chez les jeunes adultes augmente nettement et voilà pourquoi
06.
Un bilan dont il “n’y a pas à rougir” : radioscopie des performances économiques de la France depuis l’élection d’Emmanuel Macron
07.
Cancer : Non, on ne peut pas affamer les cellules malades, mais il est possible d’optimiser son alimentation
01.
Semaine à haut risque pour Emmanuel Macron : les trois erreurs qu’il risque de ne pas avoir le temps de corriger
02.
Pôle Emploi n’aime pas qu’on dise qu’il est peu efficace dans son accompagnement des chômeurs mais qu’en est-il concrètement ?
03.
Immobilier : l’idée folle de la mairie de Grenoble pour protéger les locataires mauvais payeurs
04.
Le nombre de cancers du côlon chez les jeunes adultes augmente nettement et voilà pourquoi
05.
Le Monde a découvert une nouvelle et grave pathologie : la droitisation des ados !
06.
Ce que les experts de l’OMS recommandent pour réduire les risques de démence sénile
01.
Mondialisation, libre-échange et made in France : l’étrange confusion opérée par François-Xavier Bellamy
02.
Appel des personnes en situation de handicap ou familles concernées pour sauver Vincent Lambert d’une mort programmée
03.
Chômage historiquement bas mais travailleurs pauvres : le match Royaume-Uni / Allemagne
04.
De l'art d'utiliser les morts : et Nathalie Loiseau enrôla Simone Veil dans sa campagne
05.
La bombe juridique qui se cache derrière la décision de la Cour d’appel de Paris de sauver Vincent Lambert
06.
Emmanuel Macron, l’Europe, le RN et les Gilets jaunes : un cocktail détonnant de vérités et d’erreurs intellectuelles ou politiques majeures
Commentaires (0)
Ecrire un commentaire
Vous devez être abonné pour rédiger un commentaire.
Abonnez-vous
«Vos abonnements garantissent notre indépendance»
Nos articles sont ouverts aux commentaires sur une période de 7 jours.
Face à certains abus et dérives, nous vous rappelons que cet espace a vocation à partager vos avis sur nos contenus et à débattre mais en aucun cas à proférer des propos calomnieux, violents ou injurieux. Nous vous rappelons également que nous modérons ces commentaires et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à nos conditions d'utilisation.
*Toute validation est définitive, vous ne pourrez pas rééditer votre commentaire.
Pas d'autres commentaires