Kecerdasan buatan (AI) dengan cepat diintegrasikan ke dalam alur kerja rumah sakit, namun pengawasan peraturan masih kesulitan untuk mengimbanginya. Kerangka kerja saat ini, yang dibuat untuk perangkat medis statis seperti alat pacu jantung, kesulitan beradaptasi dengan perangkat lunak AI yang terus berkembang melalui pembaruan. Hal ini menimbulkan pertanyaan penting: siapa yang menjamin keselamatan pasien setelah AI digunakan?
Pergeseran FDA Menuju Pengawasan Pasca Pasar
Pada tanggal 29 Desember, Badan Pengawas Obat dan Makanan AS (FDA) membuka komentar publik terhadap petisi warga yang mengusulkan perubahan dalam pengaturan alat AI radiologi tertentu. Proposal tersebut menyarankan peralihan dari tinjauan berulang FDA sebelum pasar ke pengawasan berkelanjutan setelah AI diterapkan. Ini berarti evaluasi keselamatan akan dilakukan di lingkungan klinis dunia nyata, dan tidak hanya mengandalkan persetujuan di awal.
Pergeseran ini bukannya tanpa risiko. Isu intinya adalah akuntabilitas. Meskipun regulator dapat menetapkan persyaratan dan produsen dapat memantau kinerjanya, konsekuensi utamanya akan ditanggung oleh pasien, dokter, dan sistem layanan kesehatan. Saat AI memperluas perannya dalam perawatan pasien, garis tanggung jawab menjadi kabur.
Kecepatan versus Keamanan: Tantangan AI Adaptif
AI klinis modern dirancang untuk berubah. Pembaruan menyempurnakan kinerja, memperluas kemampuan, dan menggabungkan pengetahuan medis baru. Kemampuan beradaptasi ini penting untuk relevansi, namun hal ini bertentangan dengan model peraturan tradisional mengenai produk tetap.
Kei Nakagawa, direktur UC San Diego Health, menekankan bahwa pengurangan gesekan pra-pasar membutuhkan pengawasan pasca-pasar yang kuat: “Jika kita mengurangi gesekan pra-pasar, pengawasan pasca-pasar bukanlah suatu pilihan… Kita sedang berhadapan dengan spesies baru AI klinis, dan kerangka kerjanya harus bekerja lebih dari sekadar menara gading.”
Chris Wood, CEO RevealDx, memperingatkan bahwa implikasi petisi ini lebih dari sekadar alat deteksi sederhana. Dia menunjukkan bahwa perubahan yang tidak terkendali dapat menimbulkan konsekuensi yang “mengerikan”, karena usulan tersebut tidak hanya berdampak pada CADe (deteksi dengan bantuan komputer) tetapi juga CADx (diagnosis dengan bantuan komputer).
Pengawasan yang Tidak Merata di Seluruh Sistem Layanan Kesehatan
Beberapa institusi telah mendedikasikan komite tata kelola, protokol validasi, dan infrastruktur informatika untuk memantau kinerja AI. Namun, banyak pula yang tidak. Keputusan FDA untuk meminta komentar publik menggarisbawahi ketidakpastian seputar regulasi AI adaptif.
Andrew Menard, direktur eksekutif di Johns Hopkins Health System, mencatat adanya kesenjangan di antara para ahli: beberapa berpendapat bahwa jalur yang ada saat ini memberatkan, sementara yang lain khawatir bahwa pergeseran pengawasan dapat menimbulkan risiko baru. Pertanyaan intinya adalah: siapa yang bertanggung jawab? Pusat akademik mungkin memiliki sumber daya untuk memantau keamanan AI, namun rumah sakit yang lebih kecil tidak memiliki kapasitas yang sama.
Brenton Hill, kepala operasi di Coalition for Health AI (CHAI), menekankan bahwa pengawasan siklus hidup yang efektif harus mencakup lebih dari sekadar pusat akademik utama. “Jika kita ingin inovasi bergerak lebih cepat, kita harus membangun jaring pengaman yang dapat diterapkan pada rumah sakit kecil, bukan hanya pada sistem yang terbesar.”
Dokter sebagai Garis Pertahanan Terakhir?
Beberapa ahli percaya bahwa dokter dapat menjadi pelindung utama karena AI terintegrasi lebih dalam ke dalam alur kerja klinis. Scott Mahanty, seorang ahli radiologi, mendukung petisi tersebut namun tetap menekankan “kegigihan” dalam mekanisme penegakan hukum: “Elemen minimum untuk rencana pasca-pasar, ekspektasi eksplisit dalam menangani penyimpangan kinerja, perhatian terhadap populasi yang kurang terwakili, dan persyaratan yang jelas tentang bagaimana temuan-temuan penting di dunia nyata dikomunikasikan kembali kepada pengguna.”
Namun, tidak semua AI memiliki risiko yang sama. Lauren Nicola, CEO Triad Radiology, menyatakan bahwa beberapa alat memungkinkan dokter memverifikasi hasil secara independen, sementara alat lainnya tidak. Ahli radiologi juga kekurangan waktu atau sumber daya untuk bertindak sebagai pengatur.
Masa Depan Regulasi AI Klinis
Undangan FDA untuk memberikan komentar publik menandakan bahwa perangkat peraturan yang ada mungkin tidak cukup untuk perangkat lunak yang berkembang setelah penerapannya. Pengawasan siklus hidup sepertinya tidak bisa dihindari, sehingga mengalihkan tanggung jawab ke produsen dan dokter.
Persoalan krusialnya bukan hanya bagaimana AI medis diatur, namun siapa yang memiliki keselamatan ketika AI tersebut menjadi bagian dari perawatan pasien. Aturan yang jelas diperlukan untuk pemeriksaan kinerja dan penanganan masalah, memastikan bahwa sistem kesehatan dari semua ukuran dapat menjaga keselamatan pasien dari waktu ke waktu. Petisi ini menyoroti kebutuhan mendesak akan kolaborasi antara produsen, sistem layanan kesehatan, dokter, dan regulator untuk memastikan integrasi AI yang aman ke dalam perawatan sehari-hari.
