A inteligência artificial (IA) está a integrar-se rapidamente nos fluxos de trabalho hospitalares, mas a supervisão regulamentar tem dificuldade em acompanhar o ritmo. A estrutura atual, construída para dispositivos médicos estáticos, como marca-passos, luta para se adaptar ao software de IA que evolui continuamente por meio de atualizações. Isto levanta uma questão crítica: quem garante a segurança do paciente quando a IA já está em uso?
A mudança da FDA em direção à supervisão pós-mercado
Em 29 de dezembro, a Food and Drug Administration (FDA) dos EUA abriu comentários públicos sobre uma petição de cidadãos propondo uma mudança na forma como certas ferramentas de IA de radiologia são regulamentadas. A proposta sugere mudar das repetidas revisões pré-comercialização da FDA para uma supervisão contínua após a implantação da IA. Isto significa que as avaliações de segurança aconteceriam em ambientes clínicos reais, em vez de depender apenas de aprovações iniciais.
Esta mudança não é isenta de riscos. A questão central é a responsabilização. Embora os reguladores possam definir requisitos e os fabricantes possam monitorizar o desempenho, as consequências finais recaem sobre os pacientes, os médicos e os sistemas de saúde. À medida que a IA expande o seu papel no atendimento ao paciente, os limites de responsabilidade ficam confusos.
Velocidade versus segurança: o desafio da IA adaptativa
A IA clínica moderna foi projetada para mudar. As atualizações refinam o desempenho, expandem capacidades e incorporam novos conhecimentos médicos. Esta adaptabilidade é essencial para a relevância, mas entra em conflito com o modelo regulatório tradicional de produtos fixos.
Kei Nakagawa, diretor da UC San Diego Health, enfatiza que a redução do atrito pré-comercialização requer uma vigilância pós-comercialização robusta: “Se reduzirmos o atrito pré-comercialização, a vigilância pós-comercialização não é opcional… Estamos lidando com uma nova espécie de IA clínica, e a estrutura tem que funcionar além das torres de marfim”.
Chris Wood, CEO da RevealDx, alerta que as implicações da petição vão além de simples ferramentas de detecção. Ele ressalta que mudanças não controladas podem ter consequências “terríveis”, já que a proposta impacta não apenas o CADe (detecção auxiliada por computador), mas também o CADx (diagnóstico auxiliado por computador).
Supervisão desigual nos sistemas de saúde
Algumas instituições têm comitês de governança, protocolos de validação e infraestrutura informática dedicados para monitorar o desempenho da IA. No entanto, muitos outros não. A decisão da FDA de solicitar comentários públicos sublinha a incerteza em torno da regulamentação adaptativa da IA.
Andrew Menard, diretor executivo do Johns Hopkins Health System, observa a divisão entre os especialistas: alguns argumentam que os caminhos existentes são onerosos, enquanto outros temem que a mudança na supervisão possa introduzir novos riscos. A questão central permanece: quem é responsável? Os centros académicos podem ter os recursos para monitorizar a segurança da IA, mas hospitais mais pequenos não têm a mesma capacidade.
Brenton Hill, chefe de operações da Coalition for Health AI (CHAI), sublinha que a supervisão eficaz do ciclo de vida deve estender-se para além dos grandes centros académicos. “Se quisermos permitir que a inovação avance mais rapidamente, temos de construir redes de segurança que funcionem para os pequenos hospitais e não apenas para os maiores sistemas.”
Médicos como última linha de defesa?
Alguns especialistas acreditam que os médicos podem se tornar a proteção definitiva à medida que a IA se integra mais profundamente aos fluxos de trabalho clínicos. Scott Mahanty, um radiologista praticante, apoia a petição, mas insiste em “dentes” nos mecanismos de aplicação: “Elementos mínimos para planos pós-comercialização, expectativas explícitas sobre como lidar com desvios de desempenho, atenção às populações sub-representadas e requisitos claros sobre como as principais descobertas do mundo real são comunicadas aos usuários”.
No entanto, nem toda IA apresenta o mesmo risco. Dra. Lauren Nicola, CEO da Triad Radiology, ressalta que algumas ferramentas permitem que os médicos verifiquem os resultados de forma independente, enquanto outras não. Os radiologistas também carecem de tempo ou recursos para atuarem eles próprios como reguladores.
O futuro da regulação clínica da IA
O convite da FDA para comentários públicos sinaliza que as ferramentas regulatórias existentes podem ser insuficientes para software que evolui após a implantação. A supervisão do ciclo de vida é provavelmente inevitável, transferindo a responsabilidade para fabricantes e médicos.
A questão crítica não é apenas como a IA médica é regulamentada, mas quem é o dono da segurança quando ela se torna parte do atendimento ao paciente. São necessárias regras claras para verificações de desempenho e tratamento de problemas, garantindo que os sistemas de saúde de todas as dimensões possam manter a segurança dos pacientes ao longo do tempo. Esta petição destaca a necessidade urgente de colaboração entre fabricantes, sistemas de saúde, médicos e reguladores para garantir a integração segura da IA nos cuidados diários.































