IA médica: la inminente cuestión de la seguridad después del despliegue

21
IA médica: la inminente cuestión de la seguridad después del despliegue

La inteligencia artificial (IA) se está integrando rápidamente en los flujos de trabajo de los hospitales, pero la supervisión regulatoria tiene dificultades para seguir el ritmo. El marco actual, creado para dispositivos médicos estáticos como marcapasos, lucha por adaptarse al software de inteligencia artificial que evoluciona continuamente a través de actualizaciones. Esto plantea una pregunta fundamental: ¿quién garantiza la seguridad del paciente una vez que la IA ya está en uso?

El cambio de la FDA hacia la supervisión posterior a la comercialización

El 29 de diciembre, la Administración de Alimentos y Medicamentos de EE. UU. (FDA) abrió comentarios públicos sobre una petición ciudadana que proponía un cambio en la forma en que se regulan ciertas herramientas de IA de radiología. La propuesta sugiere alejarse de las repetidas revisiones previas a la comercialización de la FDA hacia una supervisión continua después de que se implemente la IA. Esto significa que las evaluaciones de seguridad se realizarían en entornos clínicos del mundo real, en lugar de depender únicamente de aprobaciones iniciales.

Este cambio no está exento de riesgos. La cuestión central es la rendición de cuentas. Si bien los reguladores pueden establecer requisitos y los fabricantes pueden monitorear el desempeño, las consecuencias finales recaen en los pacientes, los médicos y los sistemas de atención médica. A medida que la IA amplía su papel en la atención al paciente, las líneas de responsabilidad se difuminan.

Velocidad versus seguridad: el desafío de la IA adaptativa

La IA clínica moderna está diseñada para cambiar. Las actualizaciones perfeccionan el rendimiento, amplían las capacidades e incorporan nuevos conocimientos médicos. Esta adaptabilidad es esencial para la relevancia, pero choca con el modelo regulatorio tradicional de productos fijos.

El Dr. Kei Nakagawa, director de UC San Diego Health, enfatiza que reducir la fricción previa a la comercialización requiere una sólida vigilancia posterior a la comercialización: “Si reducimos la fricción previa a la comercialización, la vigilancia posterior a la comercialización no es opcional… Estamos tratando con una nueva especie de IA clínica, y el marco tiene que funcionar más allá de las torres de marfil”.

Chris Wood, director ejecutivo de RevealDx, advierte que las implicaciones de la petición van más allá de las simples herramientas de detección. Señala que los cambios no controlados podrían tener consecuencias “nefastas”, ya que la propuesta afecta no sólo a CADe (detección asistida por computadora) sino también a CADx (diagnóstico asistido por computadora).

Supervisión desigual entre los sistemas sanitarios

Algunas instituciones cuentan con comités de gobernanza, protocolos de validación e infraestructura informática dedicados para monitorear el desempeño de la IA. Sin embargo, muchos otros no lo hacen. La decisión de la FDA de solicitar comentarios del público subraya la incertidumbre que rodea a la regulación adaptativa de la IA.

Andrew Menard, director ejecutivo del Sistema de Salud Johns Hopkins, señala la división entre los expertos: algunos argumentan que las vías existentes son engorrosas, mientras que otros temen que cambiar la supervisión podría introducir nuevos riesgos. La pregunta central sigue siendo: ¿quién es responsable? Los centros académicos pueden tener los recursos para monitorear la seguridad de la IA, pero los hospitales más pequeños carecen de la misma capacidad.

Brenton Hill, jefe de operaciones de la Coalición para la IA en Salud (CHAI), subraya que una supervisión eficaz del ciclo de vida debe extenderse más allá de los principales centros académicos. “Si vamos a permitir que la innovación avance más rápido, tenemos que crear redes de seguridad que funcionen para los hospitales pequeños, no sólo para los sistemas más grandes”.

¿Los médicos como última línea de defensa?

Algunos expertos creen que los médicos pueden convertirse en la máxima protección a medida que la IA se integre más profundamente en los flujos de trabajo clínicos. El Dr. Scott Mahanty, radiólogo en ejercicio, apoya la petición, pero insiste en que los mecanismos de aplicación sean “dientes”: “Elementos mínimos para los planes posteriores a la comercialización, expectativas explícitas en torno al manejo de la variación del desempeño, atención a las poblaciones subrepresentadas y requisitos claros sobre cómo se comunican a los usuarios los hallazgos clave del mundo real”.

Sin embargo, no toda la IA conlleva el mismo riesgo. La Dra. Lauren Nicola, directora ejecutiva de Triad Radiology, señala que algunas herramientas permiten a los médicos verificar los resultados de forma independiente, mientras que otras no. Los radiólogos también carecen de tiempo o recursos para actuar ellos mismos como reguladores.

El futuro de la regulación clínica de la IA

La invitación de la FDA a comentarios públicos indica que las herramientas regulatorias existentes pueden ser insuficientes para el software que evoluciona después de su implementación. La supervisión del ciclo de vida probablemente sea inevitable, lo que trasladará la responsabilidad a los fabricantes y médicos.

La cuestión crítica no es sólo cómo se regula la IA médica, sino quién es el dueño de la seguridad una vez que se convierte en parte de la atención al paciente. Se necesitan reglas claras para los controles de desempeño y el manejo de problemas, garantizando que los sistemas de salud de todos los tamaños puedan mantener la seguridad del paciente a lo largo del tiempo. Esta petición destaca la urgente necesidad de colaboración entre fabricantes, sistemas sanitarios, médicos y reguladores para garantizar la integración segura de la IA en la atención diaria.