IA médicale : la question qui se pose de la sécurité après le déploiement

18
IA médicale : la question qui se pose de la sécurité après le déploiement

L’intelligence artificielle (IA) s’intègre rapidement aux flux de travail des hôpitaux, mais la surveillance réglementaire a du mal à suivre le rythme. Le cadre actuel, conçu pour les dispositifs médicaux statiques tels que les stimulateurs cardiaques, a du mal à s’adapter aux logiciels d’IA qui évoluent continuellement grâce aux mises à jour. Cela pose une question cruciale : qui garantit la sécurité des patients une fois que l’IA est déjà utilisée ?

La transition de la FDA vers une surveillance post-commercialisation

Le 29 décembre, la Food and Drug Administration (FDA) des États-Unis a ouvert les commentaires publics sur une pétition citoyenne proposant un changement dans la manière dont certains outils d’IA en radiologie sont réglementés. La proposition suggère de s’éloigner des examens répétés de la FDA avant la commercialisation vers une surveillance continue après le déploiement de l’IA. Cela signifie que les évaluations de sécurité auraient lieu dans des contextes cliniques réels, plutôt que de s’appuyer uniquement sur des approbations initiales.

Ce changement n’est pas sans risque. La question centrale est la responsabilité. Même si les régulateurs peuvent fixer des exigences et que les fabricants peuvent surveiller les performances, les conséquences ultimes pèsent sur les patients, les médecins et les systèmes de santé. À mesure que l’IA élargit son rôle dans les soins aux patients, les lignes de responsabilité s’estompent.

Vitesse contre sécurité : le défi de l’IA adaptative

L’IA clinique moderne est conçue pour changer. Les mises à jour affinent les performances, étendent les capacités et intègrent de nouvelles connaissances médicales. Cette adaptabilité est essentielle à la pertinence, mais elle entre en conflit avec le modèle réglementaire traditionnel des produits fixes.

Le Dr Kei Nakagawa, directeur de l’UC San Diego Health, souligne que la réduction des frictions avant la commercialisation nécessite une surveillance post-commercialisation robuste : « Si nous réduisons les frictions avant la commercialisation, la surveillance après la commercialisation n’est pas facultative… Nous avons affaire à une nouvelle espèce d’IA clinique, et le cadre doit fonctionner au-delà des tours d’ivoire.

Chris Wood, PDG de RevealDx, prévient que les implications de la pétition s’étendent au-delà des simples outils de détection. Il souligne que des changements non contrôlés pourraient avoir des conséquences « désastreuses », dans la mesure où la proposition impacte non seulement le CADe (détection assistée par ordinateur) mais également le CADx (diagnostic assisté par ordinateur).

Surveillance inégale dans les systèmes de santé

Certaines institutions disposent de comités de gouvernance dédiés, de protocoles de validation et d’une infrastructure informatique pour surveiller les performances de l’IA. Cependant, beaucoup d’autres ne le font pas. La décision de la FDA de solliciter les commentaires du public souligne l’incertitude entourant la réglementation adaptative de l’IA.

Andrew Menard, directeur exécutif du Johns Hopkins Health System, note la division entre les experts : certains soutiennent que les voies existantes sont lourdes, tandis que d’autres craignent qu’un changement de surveillance n’introduise de nouveaux risques. La question centrale demeure : qui est responsable ? Les centres universitaires disposent peut-être des ressources nécessaires pour surveiller la sécurité de l’IA, mais les petits hôpitaux n’ont pas la même capacité.

Brenton Hill, responsable des opérations à la Coalition for Health AI (CHAI), souligne qu’une surveillance efficace du cycle de vie doit s’étendre au-delà des grands centres universitaires. « Si nous voulons permettre à l’innovation d’évoluer plus rapidement, nous devons créer des filets de sécurité qui fonctionnent pour les petits hôpitaux, et pas seulement pour les plus grands systèmes. »

Les médecins comme dernière ligne de défense ?

Certains experts estiment que les médecins pourraient devenir la protection ultime à mesure que l’IA s’intègre plus profondément dans les flux de travail cliniques. Le Dr Scott Mahanty, radiologue en exercice, soutient la pétition mais insiste sur le « mordant » des mécanismes d’application : « Des éléments minimum pour les plans post-commercialisation, des attentes explicites concernant la gestion de la dérive des performances, une attention portée aux populations sous-représentées et des exigences claires sur la manière dont les principales conclusions du monde réel sont communiquées aux utilisateurs. »

Cependant, toutes les IA ne comportent pas le même risque. La Dre Lauren Nicola, PDG de Triad Radiology, souligne que certains outils permettent aux médecins de vérifier les résultats de manière indépendante, tandis que d’autres ne le font pas. Les radiologues manquent également de temps ou de ressources pour agir eux-mêmes en tant que régulateurs.

L’avenir de la réglementation de l’IA clinique

L’invitation à commentaires du public lancée par la FDA signale que les outils réglementaires existants pourraient s’avérer insuffisants pour les logiciels qui évoluent après leur déploiement. La surveillance du cycle de vie est probablement inévitable, transférant la responsabilité aux fabricants et aux cliniciens.

La question cruciale n’est pas seulement comment l’IA médicale est réglementée, mais à qui appartient la sécurité une fois qu’elle fait partie des soins aux patients. Des règles claires sont nécessaires pour les contrôles de performance et la gestion des problèmes, afin de garantir que les systèmes de santé de toutes tailles puissent maintenir la sécurité des patients au fil du temps. Cette pétition souligne le besoin urgent d’une collaboration entre les fabricants, les systèmes de santé, les cliniciens et les régulateurs pour garantir l’intégration sûre de l’IA dans les soins quotidiens.