sejawat indonesia

Ketika AI Menghasilkan Medical Error, Siapa yang akan Disalahkan?

Tren implementasi AI pada pelayanan kesehatan saat ini, justru dapat memperburuk tantangan yang terkait dengan pencegahan kesalahan serta kelelahan dokter. Organisasi perawatan kesehatan mengadopsi AI pada kecepatan yang jauh lebih cepat daripada hukum dan peraturan yang mengatur penggunaannya. 

 

Akibatnya, meskipun para akademisi telah mengusulkan rekomendasi untuk membentuk regulasi terkait AI, tetap tidak menghadirkan regulasi atau standar hukum yang jelas. Sehingga, beban tanggung jawab sebagian besar akan menjadi milik dokter: mereka diharapkan bergantung pada AI untuk meminimalkan kesalahan medis, namun memikul tanggung jawab untuk menentukan kapan harus mengesampingkan atau menunda penggunaannya.

 

Penelitian yang muncul tentang persepsi kesalahan dalam pengambilan keputusan dengan bantuan AI, menyoroti tanggung jawab moral yang tidak proporsional yang dibebankan pada dokter. Misalnya, sebuah studi tentang pengambilan keputusan medis kolaboratif menemukan bahwa orang awam memberikan tanggung jawab moral yang lebih besar kepada dokter ketika mereka disarankan oleh sistem AI daripada ketika dipandu oleh manusia. 

 

Karena operator manusia dianggap memiliki kendali atas penggunaan teknologi, tanggung jawab secara tidak semestinya beralih ke operator manusia, bahkan ketika bukti yang jelas menunjukkan bahwa sistem AI menghasilkan keluaran yang salah. Lebih jauh lagi, ketika membandingkan skenario pengambilan keputusan dokter-AI, para peneliti menemukan bahwa di tengah hasil yang merugikan, dokter secara konsisten dipandang sebagai pihak yang paling bertanggung jawab—lebih dari vendor AI, organisasi perawatan kesehatan yang mengadopsi, atau badan regulasi.

 

Dokter telah lama menjadi sasaran superhumanisasi, sebuah fenomena di mana dokter dianggap memiliki kapasitas mental, fisik, dan moral yang luar biasa yang melampaui manusia biasa; sehingga mereka seringkali dituntut untuk memenuhi standar yang tidak realistis untuk pengambilan keputusan yang bebas dari kesalahan. Dengan memaksakan harapan-harapan ini untuk mengkalibrasi ketergantungan pada masukan AI secara sempurna, maka itu berisiko mengintensifkan superhumanisasi ini, meningkatkan potensi peningkatan kelelahan dan kesalahan, berujung merusak tujuan yang ingin dicapai oleh penggunaan AI.

 

Kompleksitas relasi Dokter-AI

Belajar mengkalibrasi ketergantungan AI sangat menantang karena dokter harus menavigasi 2 risiko kesalahan yang berlawanan: False positive (ketergantungan berlebihan pada panduan AI yang salah) dan False negative (kurang bergantung pada rekomendasi AI yang akurat).

 

Mitigasi risiko tersebut membutuhkan lebih dari sekadar pilihan biner sederhana "ya, setujui" atau "tidak, tolak." Sebaliknya, dokter terlibat dalam proses negosiasi yang dinamis, menyeimbangkan tekanan yang saling bertentangan. 

 

Di satu sisi, mereka didorong untuk melihat sistem AI sebagai penafsir objektif dari data yang dapat diukur yang mengarah pada potensi ketergantungan berlebihan pada alat yang cacat atau bias, terutama dalam organisasi yang memprioritaskan pengambilan keputusan berbasis bukti. Namun, dokter juga menghadapi tekanan yang berlawanan untuk tidak mempercayai sistem AI, bahkan ketika sistem ini mengungguli pengambilan keputusan manusia.

 

Dokter sering menafsirkan keluaran algoritmik terhadap pengetahuan pengalaman mereka sendiri, pemahaman intuitif, dan praktik yang mapan. Meskipun kecenderungan ini mungkin mencerminkan pertimbangan yang cermat, hal itu juga dapat mengakibatkan kurangnya ketergantungan pada rekomendasi AI demi penilaian pribadi. Bersama-sama, tekanan ganda tersebut, ditambah dengan norma-norma organisasi dan bias kognitif, membuat kalibrasi yang efektif menjadi luar biasa sulit, memerlukan keseimbangan yang rumit antara kepercayaan dan skeptisisme.

 

Tantangannya semakin berat karena sifat kotak hitam dari banyak sistem AI, yang mengaburkan cara rekomendasi dihasilkan. Dokter seringkali mengungkapkan kekhawatiran tentang kurangnya interpretabilitas dan transparansi dalam keluaran AI. Namun, meskipun interpretabilitas dan transparansi membaik, masih ada ketidakselarasan yang lebih dalam antara pendekatan pengambilan keputusan AI dan dokter. 

 

AI menghasilkan rekomendasi dengan mengidentifikasi korelasi dan pola statistik dari kumpulan data besar, sedangkan dokter mengandalkan penalaran deduktif, pengalaman, dan intuisi, seringkali memprioritaskan koherensi naratif dan konteks khusus pasien yang dapat berkembang seiring waktu. Perbedaan mendasar dalam proses penalaran ini berarti bahwa bahkan sistem AI yang paling dapat diinterpretasikan mengharuskan dokter untuk merekonsiliasi kerangka kerja pengambilan keputusan yang kontras untuk secara efektif mengurangi risiko False positive dan False negative.

 

Ekspektasi sebagai Manusia Super

Harapan-harapan berlebihan yang dibebankan kepada para dokter untuk mengkalibrasi kepercayaan pada sistem AI menimbulkan risiko yang signifikan bagi kesalahan medis dan kesejahteraan dokter itu sendiri. 

 

Penelitian tentang harapan-harapan yang tidak realistis dalam profesi-profesi lain, seperti penegakan hukum, mengungkapkan bahwa karyawan yang berada di bawah tekanan seperti itu sering ragu untuk bertindak, takut akan konsekuensi dan kritik yang tidak diinginkan. 

 

Demikian pula, para dokter mungkin mengadopsi pendekatan yang terlalu konservatif, mengandalkan rekomendasi-rekomendasi AI hanya ketika mereka selaras dengan standar-standar perawatan yang ditetapkan dan menolaknya ketika menurutnya tidak sesuai. Namun, ketika sistem-sistem AI terus meningkat, kehati-hatian seperti itu menjadi semakin sulit untuk dibenarkan, khususnya ketika mengabaikan rekomendasi-rekomendasi AI yang baik dan berguna bagi pasien-pasien yang memerlukan perawatan-perawatan yang tidak standar. Kemungkinan ini dapat meningkatkan keraguan-keraguan di antara para dokter yang dapat memperparah risiko-risiko kesalahan medis.

 

Selain kesalahan, tekanan dalam menghadapi ekspektasi yang tidak realistis dapat menyebabkan ketidakterikatan. Penelitian menunjukkan bahwa bahkan individu yang dimotivasi oleh altruisme (seperti banyak dokter) mungkin kesulitan untuk mempertahankan keterlibatan dan proaktivitas di bawah tekanan yang tidak realistis dan berkelanjutan. Hal tersebut dapat merusak kualitas perawatan dan tujuan dokter.

 

Langkah dukungan untuk dokter dalam mengkalibrasi bantuan AI

Bagaimana beban yang sangat berat yang dibebankan kepada dokter dapat dikurangi? Baru-baru ini, berbagai upaya difokuskan pada peningkatan kepercayaan menyeluruh terhadap sistem AI dan kepercayaan pengguna terhadap alat-alat ini. Akan tetapi, perhatian yang diberikan untuk membekali dokter dengan keterampilan dan strategi yang dibutuhkan untuk mengukur kepercayaan mereka secara efektif masih kurang. 

 

Meskipun upaya membangun kepercayaan secara luas sangat penting, hal terpenting berikutnya adalah memahami praktik yang dapat diadopsi oleh organisasi perawatan kesehatan untuk mendukung dan meningkatkan upaya kalibrasi dokter dan memahami secara tepat bagaimana dan kapan memanfaatkan alat-alat AI untuk menghindari masalah tanggung jawab hukum.

 

Penelitian yang muncul tentang kalibrasi kepercayaan terhadap AI menunjukkan bahwa organisasi dapat memikul sebagian tanggung jawab dengan menerapkan praktik standar, seperti daftar periksa dan pedoman, untuk mengevaluasi masukan AI. Pedoman ini dapat mencakup langkah-langkah untuk menimbang keluaran AI terhadap data khusus pasien, menilai kebaruan rekomendasi berdasarkan literatur biomedis, menyelidiki alat AI untuk informasi lebih lanjut, dan mempertimbangkan kekuatan dan keterbatasan AI dalam situasi tertentu. 

 

Praktik standar mengurangi beban kognitif dan stres yang terkait dengan teknologi baru dengan mengalihkan fokus dokter dari ekspektasi kinerja dan menuju peluang untuk pembelajaran kolektif dalam kemitraan dengan organisasi perawatan kesehatan. Lebih jauh, standardisasi membantu organisasi mendokumentasikan penggunaan AI secara sistematis, melacak hasil klinis, dan mengidentifikasi pola aplikasi AI yang efektif dan tidak efektif. Wawasan tersebut kemudian dapat dibagikan dengan dokter sebagai umpan balik, memungkinkan mereka untuk menyempurnakan pendekatan mereka dan fokus pada area yang memerlukan pengawasan tambahan atau kepercayaan pada keluaran algoritmik. 

 

Seiring berjalannya waktu, pedoman tersebut dapat berkembang dengan masukan dari tim interdisipliner yang melibatkan dokter, administrator, ilmuwan data, pakar AI, dan pakar hukum.

 

Terkait dengan itu, organisasi perawatan kesehatan dapat menjajaki integrasi pelatihan simulasi AI untuk menyediakan lingkungan berisiko rendah untuk eksperimen. Melalui simulasi, dokter dapat berlatih menafsirkan keluaran algoritmik, menyeimbangkan rekomendasi AI dengan penilaian klinis, dan mengenali potensi jebakan. 

 

Latihan-latihan tersebut dapat menumbuhkan rasa percaya diri dan keakraban dengan sistem AI sekaligus mengurangi risiko yang terkait dengan pengambilan keputusan klinis. Meskipun implementasi AI yang efektif merupakan upaya jangka panjang dan kompleks, upaya-upaya untuk meningkatkan kalibrasi tersebut dapat membantu menciptakan lingkungan tempat dokter didukung, bukan diperlakukan seperti manusia super, saat menggabungkan AI ke dalam pengambilan keputusan mereka.

Tags :
Artikel sebelumnya5 Vitamin Terbaik Penghilang Stres
Artikel selanjutnyaAntibiotik Baru untuk Infeksi Saluran Kemih tanpa Komplikasi

Event Mendatang

Komentar (0)
Komentar

Log in untuk komentar