IA medica: l’incombente questione della sicurezza dopo l’implementazione

17
IA medica: l’incombente questione della sicurezza dopo l’implementazione

L’intelligenza artificiale (AI) si sta rapidamente integrando nei flussi di lavoro ospedalieri, ma la supervisione normativa fatica a tenere il passo. L’attuale struttura, creata per dispositivi medici statici come i pacemaker, fatica ad adattarsi al software di intelligenza artificiale che si evolve continuamente attraverso gli aggiornamenti. Ciò pone una domanda fondamentale: chi garantisce la sicurezza dei pazienti una volta che l’intelligenza artificiale è già in uso?

Il passaggio della FDA verso la supervisione post-commercializzazione

Il 29 dicembre, la Food and Drug Administration (FDA) statunitense ha aperto un commento pubblico su una petizione dei cittadini che proponeva un cambiamento nel modo in cui sono regolamentati alcuni strumenti di intelligenza artificiale in radiologia. La proposta suggerisce di abbandonare le ripetute revisioni della FDA pre-immissione sul mercato verso una supervisione continua dopo l’implementazione dell’intelligenza artificiale. Ciò significa che le valutazioni sulla sicurezza avverrebbero in contesti clinici reali, anziché fare affidamento esclusivamente su approvazioni anticipate.

Questo cambiamento non è privo di rischi. La questione centrale è la responsabilità. Sebbene i regolatori possano stabilire requisiti e i produttori possano monitorare le prestazioni, le conseguenze ultime ricadono sui pazienti, sui medici e sui sistemi sanitari. Mentre l’intelligenza artificiale espande il suo ruolo nella cura dei pazienti, i confini delle responsabilità si confondono.

Velocità contro sicurezza: la sfida dell’intelligenza artificiale adattiva

La moderna intelligenza artificiale clinica è progettata per cambiare. Gli aggiornamenti perfezionano le prestazioni, espandono le capacità e incorporano nuove conoscenze mediche. Questa adattabilità è essenziale per la rilevanza, ma si scontra con il modello normativo tradizionale dei prodotti fissi.

Il dottor Kei Nakagawa, direttore della UC San Diego Health, sottolinea che la riduzione degli attriti pre-market richiede una solida sorveglianza post-market: “Se riduciamo gli attriti pre-market, la sorveglianza post-market non è facoltativa… Abbiamo a che fare con una nuova specie di IA clinica e il quadro deve funzionare oltre le torri d’avorio”.

Chris Wood, CEO di RevealDx, avverte che le implicazioni della petizione vanno oltre i semplici strumenti di rilevamento. Sottolinea che i cambiamenti incontrollati potrebbero avere conseguenze “terribili”, poiché la proposta ha un impatto non solo su CADe (rilevamento assistito da computer) ma anche su CADx (diagnosi assistita da computer).

Controllo disomogeneo tra i sistemi sanitari

Alcune istituzioni dispongono di comitati di governance, protocolli di validazione e infrastrutture informatiche dedicati per monitorare le prestazioni dell’intelligenza artificiale. Tuttavia, molti altri no. La decisione della FDA di sollecitare un commento pubblico sottolinea l’incertezza che circonda la regolamentazione dell’IA adattiva.

Andrew Menard, direttore esecutivo del Johns Hopkins Health System, nota il divario tra gli esperti: alcuni sostengono che i percorsi esistenti siano onerosi, mentre altri temono che uno spostamento della supervisione possa introdurre nuovi rischi. La domanda centrale resta: chi è responsabile? I centri accademici possono avere le risorse per monitorare la sicurezza dell’IA, ma gli ospedali più piccoli non hanno la stessa capacità.

Brenton Hill, capo delle operazioni presso la Coalition for Health AI (CHAI), sottolinea che un controllo efficace del ciclo di vita deve estendersi oltre i principali centri accademici. “Se vogliamo consentire all’innovazione di muoversi più velocemente, dobbiamo costruire reti di sicurezza che funzionino per i piccoli ospedali, non solo per i sistemi più grandi”.

Medici come ultima linea di difesa?

Alcuni esperti ritengono che i medici possano diventare la salvaguardia definitiva man mano che l’intelligenza artificiale si integra più profondamente nei flussi di lavoro clinici. Il dottor Scott Mahanty, un radiologo praticante, sostiene la petizione ma insiste sui “denti” nei meccanismi di applicazione: “Elementi minimi per i piani post-commercializzazione, aspettative esplicite sulla gestione della deriva delle prestazioni, attenzione alle popolazioni sottorappresentate e requisiti chiari su come i risultati chiave del mondo reale vengono comunicati agli utenti”.

Tuttavia, non tutta l’intelligenza artificiale comporta lo stesso rischio. La dottoressa Lauren Nicola, CEO di Triad Radiology, sottolinea che alcuni strumenti consentono ai medici di verificare in modo indipendente i risultati, mentre altri no. I radiologi inoltre non hanno il tempo o le risorse per agire essi stessi come regolatori.

Il futuro della regolamentazione dell’IA clinica

L’invito della FDA a fornire commenti pubblici segnala che gli strumenti normativi esistenti potrebbero essere insufficienti per il software che si evolve dopo la distribuzione. La supervisione del ciclo di vita è probabilmente inevitabile, spostando la responsabilità sui produttori e sui medici.

La questione critica non è solo come viene regolamentata l’intelligenza artificiale medica, ma chi detiene la sicurezza una volta che diventa parte della cura del paziente. Sono necessarie regole chiare per i controlli delle prestazioni e la gestione dei problemi, garantendo che i sistemi sanitari di tutte le dimensioni possano mantenere la sicurezza dei pazienti nel tempo. Questa petizione evidenzia l’urgente necessità di collaborazione tra produttori, sistemi sanitari, medici e regolatori per garantire l’integrazione sicura dell’IA nell’assistenza quotidiana.