Le risque bien réel de brider l'innovation en matière d'intelligence artificielle par une réglementation trop forte | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Culture
Le risque bien réel de brider l'innovation en matière d'intelligence artificielle par une réglementation trop forte
©Kay Nietfeld / POOL / AFP

Bonnes feuilles

Le risque bien réel de brider l'innovation en matière d'intelligence artificielle par une réglementation trop forte

Ni excessivement alarmiste ni aveuglément enthousiaste, David Gruson dans "La machine, le médecin et moi" publié aux éditions de l'Observatoire s’attache à sortir de la binarité caricaturale qui imprègne les débats sur l'intelligence artificielle appliquée au domaine médical et dresse le tableau réaliste d’un système de santé dans lequel l’association de la machine, du médecin et du patient est indispensable. Extrait 1/2.

David Gruson

David Gruson

David Gruson, ancien directeur d’hôpital, est membre de la Chaire santé de Sciences Po et professeur associé en droit de la génétique à la Faculté de médecine Paris Descartes. Il est le fondateur d’Ethik IA, initiative qui défend une « régulation positive » de l’intelligence artificielle et de la robotisation en santé.

Voir la bio »

Les Gafam américains et les BATX chinois sont, en 2018, très loin devant la France et l’Europe s’agissant de la production de solutions d’intelligences artificielles en santé « généralistes ». De manière très schématique, on peut distinguer deux grandes catégories d’IA généralistes. Les IA d’aide à la décision comme Watson, d’IBM, ont d’emblée un spectre d’intervention très large (avec comme principales données d’alimentation, en plus des données cliniques, les résultats d’essais cliniques ou les publications scientifiques). Le modus operandi reposera ici sur la proposition de paramètres ou d’options d’aide à la décision en présence d’un cas individuel déterminé. Ces propositions peuvent naturellement avoir un effet relativement dirimant sur la décision elle-même si certaines options de prise en charge possibles ne sont pas proposées par l’algorithme.

Les IA d’appui au pilotage d’un parcours de prise en charge comme DeepMind, de Google, se fondent, à titre principal, sur le processus décrit plus haut de numérisation d’un parcours de prise en charge d’un patient. Cette numérisation peut intégrer des briques de substitution totale ou partielle à la décision humaine. Cette avance industrielle de l’Amérique du Nord et de l’Asie peut être source de conséquences sur les modalités de diffusion de l’IA et de la robotisation en santé. Un scénario de déploiement « à la Netflix » semble, à ce stade, le plus probable : l’expérience concrète est faite de l’efficacité d’une solution d’IA élaborée à l’étranger et les utilisateurs en demandent ensuite l’importation dans leur pays. L’exemple de l’importation en France, à travers le PMSI et la T2A1 , du modèle des DRG (Diagnosis Related Groups) nord-américains de financement des établissements de santé à l’activité montre que le scénario d’importation d’un outil jugé « efficient » de transformation d’ensemble du système de santé n’est pas du tout utopique. De même, les solutions de gestion de systèmes d’information et de dossiers patients informatisés sont aujourd’hui, pour une part significative, de conception étrangère. Si l’on va plus loin dans le raisonnement, on comprend le risque éthique possiblement associé à ce « scénario de l’importation ». Si nous appliquons trop strictement le principe de précaution en France et que nous mettons en œuvre un réflexe instinctif de surréglementation face à l’IA, nous accélérerons l’importation de solutions conçues ailleurs. Et nous risquerons alors de ne disposer que d’un contrôle éthique évanescent de ces intelligences artificielles. Des solutions d’IA en santé seraient ainsi appliquées en France par la force d’entraînement de leur efficacité médicale constatée hors de France. Ce schéma n’est pas théorique. D’ores et déjà, les études se multiplient pour montrer – parfois à grands renforts médiatiques – les meilleurs résultats diagnostiques de certains algorithmes par rapport à des intervenants humains. La situation pratique se rencontrera sans doute très vite d’un patient qui s’étonnera devant son médecin traitant de ne pas pouvoir avoir accès à la dernière intelligence artificielle conçue pour diagnostiquer sa pathologie éventuelle. Et nous risquons assez vite, si l’innovation en IA en santé était bridée en France, d’encourager des comportements de « fuite du système de santé » pour les patients français disposant des moyens matériels d’accéder aux solutions algorithmiques les plus innovantes. Le pacte de solidarité qui fonde notre Sécurité sociale s’en trouverait alors gravement menacé.

Extrait de "La machine, le médecin et moi", de David Gruson, publié aux éditions de l'Observatoire

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !