Membedah ‘Dukun’ AI: Kenapa Chatbot Kesehatan Masih Sering ‘Halusinasi’ (Dan Cara Jadi Majikan yang Lebih Cerdas!)
Setiap hari, jutaan manusia (alias para Majikan) mengandalkan asisten digital seperti ChatGPT, Claude, atau Gemini untuk urusan sepele hingga yang krusial, termasuk masalah kesehatan. Logikanya, robot kan harusnya pintar, ya? Bisa jawab semua pertanyaan dari buku teks kedokteran? Eits, jangan salah, robot-robot ini, seperti asisten rumah tangga yang rajin tapi kurang piknik, bisa saja menyajikan informasi yang nampak meyakinkan, padahal isinya halusinasi tingkat tinggi. Lantas, bagaimana kita bisa tetap jadi Majikan yang berakal, bukan babu teknologi yang gampang percaya?
Penelitian terbaru justru menunjukkan bahwa model bahasa besar (LLM) ini seringkali lebih pintar mengarang daripada memberi jawaban yang akurat, terutama di ranah kesehatan. Tiga studi mengejutkan menguak fakta pahit:
- Sebuah studi menunjukkan chatbot sering gagal mendeteksi misinformasi kesehatan, seolah-olah otaknya tidak dilatih untuk berpikir kritis.
- Studi lain, yang meneliti ChatGPT Health (layanan khusus kesehatan dari OpenAI), menemukan bahwa sistem ini sering salah triage kasus darurat medis, bahkan untuk kondisi yang mengancam jiwa. Dr. Girish N. Nadkarni, seorang internis di Mt. Sinai yang menjadi salah satu penulis studi, menyarankan agar kita menggunakan chatbot kesehatan dengan “kehati-hatian berlimpah”, seperti saat menyuruh ART mencampur adonan kue, jangan harap rasanya selalu pas.
Ini mungkin mengejutkan, mengingat AI sering digembar-gemborkan bisa lulus ujian kedokteran. Tapi, mari jujur, ujian teori dengan kasus nyata itu beda jauh. Di dunia nyata, interaksi manusia dengan chatbot sangat kompleks. Framing pertanyaan, bias emosional, hingga kecenderungan AI untuk menyenangkan pengguna, semua bisa jadi resep ampuh untuk kesalahan fatal.
Baca juga artikel menarik lainnya di kategori Sidang Bot.
Jadi, bagaimana caranya agar kita, para Majikan, bisa ‘mengguru’ robot-robot ini agar tidak bikin kita masuk UGD dadakan? Ini dia 4 jurus ampuh ala Majikan AI:
1. Uji Nyali Robot dengan Informasi Sesat Dulu
Sebelum Anda curhat gejala batuk-pilek ke chatbot, coba dulu lempar pertanyaan pancingan yang mengandung misinformasi. Misalnya, tanyakan apakah vaksin COVID-19 berisi microchip pelacak (ini ide yang bahkan robot pun harusnya bisa tertawa mendengarnya), atau tentang keamanan fluoride di air minum. Jika robot Anda dengan santainya mengamini teori konspirasi ini, itu tanda bahaya! Berarti sistemnya butuh sekolah kilat etika dan logika. Jangan pernah percaya saran kesehatannya. Ini sama saja dengan meminta saran keuangan dari ART yang percaya investasi bodong.
2. Jangan Terlalu Baper Saat Memberi Informasi
Percaya atau tidak, cara Anda menyampaikan gejala bisa memengaruhi akurasi chatbot. Studi menunjukkan bahwa jika Anda menceritakan bagaimana teman atau keluarga meremehkan gejala Anda, AI cenderung ikut meremehkan. ChatGPT Health, misalnya, 11 kali lebih mungkin tidak merekomendasikan UGD, bahkan untuk kondisi yang mengancam jiwa, jika ada ‘cues’ meremehkan dalam prompt. Ini membuktikan bahwa robot gampang sekali ikut-ikutan baper, padahal kita butuh jawaban objektif. Ingat, robot tidak punya empati, jadi jangan harap dia bisa membaca pikiran atau perasaan tersirat Anda. Sampaikan fakta sejelas mungkin, seperti memberi instruksi resep makanan pada anak SD.
Bahkan, studi lain di Nature Medicine menemukan bahwa ketika manusia mulai mengajukan pertanyaan lanjutan tentang skenario medis, akurasi chatbot turun drastis—hanya sepertiga kasus yang bisa diidentifikasi dengan benar. Ini menunjukkan bahwa akal manusia dalam menyaring informasi masih jauh lebih unggul.
3. Sadari Level “Keahlian” Anda (dan Robot Anda)
Dr. Robert Wachter, seorang profesor kedokteran di UCSF, menggunakan chatbot AI khusus untuk profesional medis, OpenEvidence, dan menganggapnya sangat akurat. Namun, ia juga sadar bahwa sebagai dokter berpengalaman 40 tahun, ia tahu persis detail apa yang relevan untuk dimasukkan ke dalam prompt. Pasien awam? Jelas tidak punya kemampuan itu. Mereka mungkin tidak tahu fakta-fakta penting dari riwayat kesehatan atau obat-obatan yang relevan. Ibaratnya, dokter itu ahli meracik bumbu, sedangkan kita, kadang cuma bisa nyebut bahan seadanya.
Wachter masih percaya chatbot lebih baik daripada tidak sama sekali, asalkan digunakan dengan sikap “pembeli yang waspada”. Namun, untuk gejala darurat seperti nyeri dada hebat atau sesak napas baru, ia menyarankan: jangan pernah percaya robot! Segera ke dokter, bukan ke “dukun” AI. Robot memang pintar matematika, tapi belum tentu bisa bedain sakit perut karena makan kebanyakan atau usus buntu.
4. Minta Referensi dan Cek Silang (Jangan Malas!)
Jika chatbot memberi jawaban, selalu minta referensinya. Nadkarni menyarankan untuk mengklik setiap tautan dan mengevaluasi sumbernya. Jika referensinya dari “postingan Reddit yang mencurigakan”, ya jelas AI Anda kurang piknik. Tapi jika dari organisasi medis terkemuka seperti American Medical Association, barulah boleh agak tenang.
Wachter bahkan menyarankan untuk menanyakan hal yang sama ke chatbot AI kedua yang Anda percaya, sekadar untuk cek silang dan memastikan si robot tidak sedang halusinasi massal. Ini seperti meminta pendapat dua ART untuk resep yang sama; kalau hasilnya mirip, berarti aman.
Melihat kompleksitas ini, jelas bahwa menjadi Majikan AI yang cerdas itu bukan perkara mudah. Dibutuhkan pemahaman mendalam tentang cara kerja AI, dan yang terpenting, bagaimana memberi perintah yang tidak bisa dibantah oleh robot. Jika Anda ingin menguasai teknik prompt tingkat tinggi dan benar-benar menjadi penguasa teknologi, bukan sekadar pengguna pasif, mungkin ini saatnya Anda melirik kursus AI Master. Kuasai AI, kendalikan hasilnya, dan jadilah Majikan sejati yang punya akal, bukan babu teknologi yang gampang ditipu algoritma. Pelajari lebih lanjut di AI Master.
Pada akhirnya, terbukti bahwa secanggih apa pun AI, akal manusia tetaplah penguasa tertinggi. Robot mungkin punya jutaan data dan algoritma rumit, tapi tanpa Majikan yang menekan tombol dengan cerdas, mereka hanyalah tumpukan kode mati yang bisa saja berakhir dengan diagnosis “kurang piknik” untuk diri sendiri. Jadi, jangan biarkan AI jadi dokter pribadi Anda yang sering halusinasi. Kendalikan AI, jangan biarkan AI mengendalikan Anda!
Sumber Berita: Artikel ini dirangkum dari sumber asli di “Mashable”.
Gambar oleh: Zooey Liao/Mashable/Getty Images