Искусственный интеллект (ИИ) стремительно интегрируется в больничные рабочие процессы, но регуляторный надзор едва успевает за этими изменениями. Существующая система, разработанная для статических медицинских устройств, таких как кардиостимуляторы, с трудом адаптируется к программному обеспечению ИИ, которое непрерывно эволюционирует через обновления. Это поднимает критический вопрос: кто гарантирует безопасность пациентов, когда ИИ уже используется?
Сдвиг FDA к пострыночному надзору
29 декабря Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) открыло публичное обсуждение петиции, предлагающей изменить подход к регулированию некоторых инструментов ИИ в радиологии. Предложение предполагает отход от многократных предварительных проверок FDA в пользу постоянного надзора после внедрения ИИ. Это означает, что оценка безопасности будет проводиться в реальных клинических условиях, а не только на основе предварительных одобрений.
Этот сдвиг не лишен рисков. Основная проблема – подотчетность. Хотя регуляторы могут устанавливать требования, а производители могут отслеживать производительность, конечные последствия ложатся на плечи пациентов, врачей и системы здравоохранения. По мере расширения роли ИИ в уходе за пациентами границы ответственности размываются.
Скорость против безопасности: вызов адаптивного ИИ
Современный клинический ИИ разработан для изменений. Обновления улучшают производительность, расширяют возможности и включают в себя новые медицинские знания. Эта адаптивность необходима для актуальности, но противоречит традиционной регуляторной модели фиксированных продуктов.
Доктор Кей Накагава, директор UC San Diego Health, подчеркивает, что снижение предварительных препятствий требует надежного пострыночного наблюдения: «Если мы снизим предварительные препятствия, пострыночный контроль не является необязательным… Мы имеем дело с новым видом клинического ИИ, и система должна работать за пределами академических башен».
Крис Вуд, генеральный директор RevealDx, предупреждает, что последствия петиции выходят за рамки простых инструментов обнаружения. Он отмечает, что бесконтрольные изменения могут иметь «катастрофические» последствия, поскольку предложение затрагивает не только CADe (компьютерно-вспомогательное обнаружение), но и CADx (компьютерно-вспомогательную диагностику).
Неравномерный надзор в системах здравоохранения
Некоторые учреждения имеют специальные комитеты по управлению, протоколы проверки и информационную инфраструктуру для мониторинга производительности ИИ. Однако многие другие не имеют этого. Решение FDA обратиться за публичными комментариями подчеркивает неопределенность в отношении регулирования адаптивного ИИ.
Эндрю Менард, исполнительный директор Johns Hopkins Health System, отмечает разногласия среди экспертов: некоторые утверждают, что существующие пути слишком обременительны, в то время как другие опасаются, что смещение надзора может создать новые риски. Основной вопрос остается прежним: кто несет ответственность? Академические центры могут иметь ресурсы для мониторинга безопасности ИИ, но небольшие больницы не располагают такими же возможностями.
Брентон Хилл, глава операций в Coalition for Health AI (CHAI), подчеркивает, что эффективный надзор за жизненным циклом должен распространяться за пределы крупных академических центров. «Если мы хотим, чтобы инновации двигались быстрее, мы должны создать системы безопасности, которые работают для небольших больниц, а не только для крупнейших».
Врачи как последняя линия обороны?
Некоторые эксперты считают, что врачи могут стать конечным гарантом безопасности по мере того, как ИИ глубже интегрируется в клинические рабочие процессы. Доктор Скотт Маханти, практикующий радиолог, поддерживает петицию, но настаивает на «зубах» в механизмах правоприменения: «Минимальные элементы для пострыночных планов, четкие ожидания в отношении устранения отклонений в производительности, внимание к недостаточно представленным группам населения и четкие требования к тому, как ключевые реальные данные передаются пользователям».
Однако не весь ИИ несет одинаковый риск. Доктор Лорен Никола, генеральный директор Triad Radiology, отмечает, что некоторые инструменты позволяют врачам самостоятельно проверять результаты, в то время как другие нет. У радиологов также нет времени или ресурсов, чтобы выступать в качестве регуляторов.
Будущее регулирования клинического ИИ
Приглашение FDA к публичным комментариям сигнализирует о том, что существующие регуляторные инструменты могут быть недостаточными для программного обеспечения, которое развивается после внедрения. Надзор за жизненным циклом, вероятно, неизбежен, перенося ответственность на производителей и клиницистов.
Критический вопрос заключается не только в том, как регулируется медицинский ИИ, но и в том, кто несет ответственность за безопасность, когда он становится частью ухода за пациентами. Необходимы четкие правила для проверки производительности и устранения проблем, чтобы системы здравоохранения всех размеров могли поддерживать безопасность пациентов с течением времени. Эта петиция подчеркивает острую необходимость сотрудничества между производителями, системами здравоохранения, клиницистами и регуляторами, чтобы обеспечить безопасную интеграцию ИИ в повседневную практику.
































