Chatbot dan Saran Medis: Sebuah Evaluasi
Pasien atau setiap orang yang membutuhkan informasi dari seorang dokter, pastilah mengharapkan jawaban terbaik dan sebenar-benarnya, informasi minimal seputar saran medis terkait kondisi yang mereka alami. Kalau pun akhirnya seorang dokter memberi informasi yang keliru, diharapkan akan ada konsekuensi dari badan etika atau hukum.
Namun, bagaimana jika saran medis yang menyesatkan tersebut tidak datang dari dokter?
Saat ini, kebanyakan orang telah mendengar tentang ChatGPT, chatbot yang sangat lengkap. Chatbot adalah antarmuka bertenaga algoritme yang dapat meniru interaksi manusia. Penggunaan chatbots semakin meluas, termasuk untuk saran medis.
Misalnya, ada layanan chatbot AI bernama Wysa, yang menanyakan pertanyaan seperti, “Apa yang mengganggu Anda?” kemudian menganalisis tanggapan penggunanya. Alat ini akan memberikan pesan dan saran tentang penanganan masalah seperti kesedihan, depresi, dan nyeri kronis.
Dalam koleksi Springer tahun 2021, Multiple Perspectives on Artificial Intelligence in Healthcare, para peneliti menulis bahwa chatbot telah menunjukkan manfaat dalam pendidikan psiko-edukasi serta kepatuhan terhadapnya. Namun, para penulis juga memperingatkan bahwa chatbots dapat mengganggu hubungan pasien-terapis dan dapat menyebabkan pengguna terlalu bergantung pada chatbots yang telah menunjukkan kecerdasan emosional yang terbatas.
Hal yang membuat ChatGPT terbatas
Masalahnya terletaka pada ChatGPT yang bukanlah kecerdasan buatan dalam arti mengenali apa yang kita tanyakan, memikirkannya, memeriksa bukti yang tersedia, lalu memberikan respon yang sesuai. Sebaliknya, ia menilai kata-kata yang kita berikan, memprediksi respon yang terdengar masuk akal dan mengatakannya kepada kita.
Hal tersebut agak mirip dengan fungsi teks prediktif yang mungkin kita gunakan pada ponsel, namun jauh lebih kuat. Memang, itu dapat memberikan kesesatan informasi yang sangat persuasif: seringkali akurat, namun terkadang tidak. Tidak apa-apa jika kita mendapat saran buruk tentang sebuah restoran, tetapi akan sangat buruk jika kita yakin bahwa tahi lalat yang tampak aneh tidak berpotensi kanker.
Cara lain untuk melihat hal ini adalah dari perspektif logika dan retorika. Kita ingin nasihat medis kita bersifat ilmiah dan logis, berdasarkan bukti hingga rekomendasi yang dipersonalisasi mengenai kesehatan kita. Sebaliknya, ChatGPT ingin terdengar persuasif meskipun memberi kita sebuah omong kosong.
Misalnya, ketika diminta memberikan kutipan untuk klaimnya, ChatGPT sering kali membuat referensi ke literatur yang tidak ada–meskipun teks yang diberikan terlihat sah. Apakah kita akan mempercayai jika dokter yang melakukan hal tersebut?
dr. ChatGPT vs dr. Google
Sekarang, kita mungkin berpikir bahwa dr. ChatGPT setidaknya lebih baik daripada dr. Google, yang juga digunakan orang untuk mencoba melakukan self-diagnose.
Berbeda dengan banyaknya informasi yang diberikan oleh dr. Google, chatbots seperti ChatGPT memberikan jawaban singkat dengan sangat cepat.
Menggunakan Google atau mesin pencari lainnya untuk mengidentifikasi informasi kesehatan yang terverifikasi dan dapat dipercaya (misalnya, dari Organisasi Kesehatan Dunia) bisa sangat bermanfaat bagi masyarakat. Meskipun Google dikenal karena menangkap dan mencatat data pengguna, seperti istilah yang digunakan dalam penelusuran, penggunaan chatbot mungkin lebih buruk.
Selain berpotensi menyesatkan, chatbots dapat mencatat data tentang kondisi medis orang-orang dan secara aktif meminta lebih banyak informasi pribadi, sehingga menghasilkan omong kosong yang lebih personal – dan mungkin lebih akurat. Di sinilah letak dilemanya. Memberikan lebih banyak informasi ke chatbot dapat menghasilkan jawaban yang lebih akurat. Namun, tidak semua chatbot seperti ChatGPT. Beberapa mungkin dirancang lebih khusus untuk digunakan dalam lingkungan medis, dan keuntungan dari penggunaannya mungkin lebih besar daripada potensi kerugiannya.
BACA JUGA:
- Benarkah AI Dapat Mengurangi Burnout Dokter?
- AI dalam Onkologi, Sudah Sejauh Mana?
- ChatGPT Jadi Pengganti Terapis Kesehatan Mental, Apa Kata Para Pakar?
Apa yang harus dilakukan?
Jadi apa yang harus dilakukan jika tergoda untuk menggunakan ChatGPT dalam memberi atau mendapatkan saran medis?
Aturan pertama adalah: jangan!
Namun jika kita terpaksa melakukannya, aturan kedua adalah kita harus memeriksa keakuratan respon chatbot–saran medis yang diberikan mungkin benar atau mungkin tidak. dr. Google, misalnya, dapat mengarahkan kita ke sumber yang dapat dipercaya. Namun, jika kita tetap akan melakukan hal tersebut, mengapa harus mengambil risiko menerima sebuah omong kosong?
Aturan ketiga adalah memberikan informasi kepada chatbots secara hemat. Tentu saja, semakin banyak data personal yang kita berikan, semakin baik pula saran medis yang didapatkan. Dan, mungkin sulit untuk menyembunyikan informasi karena sebagian besar dari kita dengan penuh kemauan dan sukarela memberikan informasi melalui ponsel dan berbagai situs web.
Selain itu, chatbots juga dapat meminta lebih banyak. Namun, lebih banyak data untuk chatbot seperti ChatGPT juga dapat menghasilkan nasihat medis yang lebih persuasif dan bahkan tidak akurat dan hanya bersifat personal.
Hal etis dan peran terapis
Dalam makalah yang terbit baru-baru ini, kita mulai banyak melihat perspektif etika dalam penggunaan chatbots untuk saran medis. Sekarang, meskipun ChatGPT, atau platform serupa, mungkin berguna dan dapat diandalkan untuk menemukan tempat terbaik dalam melihat pemandangan di Dakar, belajar tentang satwa liar, atau mendapatkan rangkuman singkat tentang topik menarik lainnya. Menempatkan kesehatan kita bergantung padanya, hanyalah menjadi sesuatu yang serupa Russian Roulette: Kita mungkin beruntung, tetapi mungkin juga tidak.
Hal ini karena chatbots seperti ChatGPT mencoba membujuk kita tanpa memperhatikan kebenaran. Retorikanya begitu persuasif sehingga kesenjangan logika dan fakta menjadi kabur. Artinya, ChatGPT mengandung kesesatan informasi.
Penulis makalah tahun 2021 yang diterbitkan di SSM Mental Health berpendapat bahwa interaksi manusia, bukan chatbot, harus tetap menjadi lini pertama pengobatan. Hal tersebut terutama berlaku bagi kelompok masyarakat yang paling rentan.
Para peneliti memperingatkan bahwa harus ada pagar pengaman untuk mencegah penyalahgunaan sebelum AI digunakan secara luas dalam perawatan kesehatan.
Dalam sebuah artikel tentang implikasi etis AI dalam perawatan kesehatan mental yang diterbitkan dalam Journal of Medical Internet Research, penulis menyarankan untuk membuat dan menerapkan pedoman standar AI di bidang ini.
Para penulis ini juga percaya bahwa penggunaan alat AI dalam layanan kesehatan mental harus transparan, dan profesional kesehatan mental terus mengawasi penggunaan alat dan algoritma AI.
Meskipun ada harapan bahwa AI dapat memberikan bantuan besar bagi perawatan kesehatan, hal ini memerlukan penelitian lebih lanjut. Seperti halnya perangkat AI yang mengklaim dapat mendeteksi emosi di wajah, banyak alat AI di bidang kesehatan masih belum dipelajari.
AI dalam perawatan kesehatan secara perlahan dan berkembang pesat. Orang-orang yang tidak mampu membayar terapis mungkin akan merasa nyaman jika membicarakan masalah mereka kepada chatbot, namun mereka perlu menyadari bahwa kemanjurannya masih dalam penelitian.
Dokter mungkin berharap AI akan digunakan secara lebih luas di bidang layanan kesehatan, terutama untuk menemukan tren dan diagnosis melalui big data.
Referensi:
- AI Chatbots Can Diagnose Medical Conditions at Home. How Good Are They?, Sara Reardon, Scientific American, March 2023
- Brave (in a) new world: an ethical perspective on chatbots for medical advice, Thomas C. Erren, frontiers, August 2023
- Noguchi Y. Therapy by chatbot? The promise and challenges in using AI for mental health. NPR. January 19, 2023.
- Denecke K, Abd-Alrazaq AA, Househ MS. Artificial Intelligence for Chatbots in Mental Health: Opportunities and Challenges. In: Househ M, Borycki E, Kushniruk A (eds). Multiple Perspectives on Artificial Intelligence in Healthcare. Opportunities and Challenges. Cham, Switzerland: Springer; 2021.
- Brown JEH, Halpern J. AI chatbots cannot replace human interactions in the pursuit of more inclusive mental healthcare. SSM - Mental Health. 2021;1:100017.
- Crawford K. Time to regulate AI that interprets human emotions. Nature. 2021;592(7853):167.
Log in untuk komentar