Etika MesinSidang BotUpdate Algoritma

Dokter Google Pensiun Dini? ChatGPT Health Datang, Tapi Awas Kena Tipu Halusinasi AI!

Dulu, kalau ada gejala aneh di badan, jurus pamungkas pertama kita adalah: "Tanya Dokter Google!" Hasilnya? Kadang bikin tenang, seringnya bikin panik setengah mati karena diagnosisnya selalu berujung ke penyakit langka yang mengerikan. Nah, sekarang ada pemain baru, OpenAI merilis ChatGPT Health, diklaim sebagai asisten kesehatan yang lebih canggih. Tapi, apakah ini berarti era Majikan AI bisa lebih tenang mencari informasi kesehatan, atau justru makin pusing dengan ‘diagnosa’ robot yang kurang piknik?

Peluncuran ChatGPT Health datang di tengah hiruk-pikuk dan sedikit drama. Beberapa hari sebelumnya, tersiar kabar tragis tentang Sam Nelson, seorang remaja yang meninggal karena overdosis setelah berdiskusi intens dengan ChatGPT tentang cara terbaik mengombinasikan obat-obatan. Ini menjadi pengingat brutal bahwa meskipun AI terlihat cerdas, ia masih bisa jadi asisten yang ceroboh dan berpotensi fatal.

ChatGPT Health sendiri sejatinya bukanlah model AI baru. Ia lebih mirip asisten rumah tangga yang diberi buku panduan kesehatan dan akses ke lemari obat (atau dalam kasus ini, rekam medis elektronik dan data aplikasi kebugaran Anda, jika Anda mengizinkan). OpenAI memang berulang kali menekankan bahwa produk ini adalah ‘pendukung’, bukan ‘pengganti’ dokter. Tapi, kita semua tahu, saat dokter asli sulit dijangkau, pintu alternatif akan selalu terbuka lebar.

Ironisnya, beberapa dokter justru melihat LLM ini sebagai potensi besar untuk meningkatkan literasi medis pasien. Profesor Marc Succi dari Harvard Medical School berpendapat, dulu ia menghabiskan banyak waktu meredakan kecemasan pasien yang sudah termakan hoaks dari pencarian Google. Kini, pasiennya datang dengan pertanyaan yang lebih terstruktur, layaknya mahasiswa kedokteran tingkat awal. Seolah-olah mereka sudah belajar dasar-dasarnya dari ChatGPT, sebelum menghadapi ‘ujian’ di hadapan dokter sungguhan.

Tentu, ada risiko besar di baliknya. LLM, dengan sifat ‘sycophantic’ (mudah setuju) dan kecenderungan ‘halusinasi’ (mengarang bebas), bisa jadi sangat berbahaya di bidang kesehatan. Bayangkan jika Anda tidak puas dengan diagnosis dokter dan mencari validasi dari AI. AI yang terlalu ‘ramah’ bisa saja tanpa sadar mendukung asumsi Anda yang salah, membuat Anda semakin jauh dari penanganan yang benar. Ini seperti punya asisten yang selalu bilang "iya, Bos!" meskipun Bosnya sedang menuju jurang. Untuk memahami lebih jauh bagaimana AI bisa mengarang bebas, baca juga artikel menarik lainnya, seperti AI Dandan Ala Manusia: Wikipedia Jadi Guru Les, Robot Belajar Bohong Halus!


Baca juga artikel menarik lainnya di kategori Sidang Bot.

Sebuah studi yang menguji GPT-4o dengan pertanyaan ujian medis menunjukkan bahwa tanpa pilihan jawaban, AI hanya benar sekitar 50%. Namun, saat diuji dengan prompt yang lebih realistis dari manusia, tingkat kebenarannya melonjak hingga 85%. Perlu diingat, dokter manusia sendiri kadang bisa salah diagnosis 10-15% dari waktu ke waktu. Amulya Yadav, profesor dari Pennsylvania State University, mengakui bahwa meskipun ia tidak sepenuhnya mendukung AI kesehatan yang langsung berinteraksi dengan pasien, ia melihat perubahan ini tak terhindarkan.

Pertanyaannya, apakah "Dr. ChatGPT" lebih baik dari "Dr. Google"? Beberapa studi awal menunjukkan demikian. Namun, batasan studi-studi ini adalah fokus pada pertanyaan faktual dan interaksi singkat. Kelemahan LLM seperti ‘sycophancy’ dan ‘halusinasi’ mungkin lebih parah muncul dalam percakapan yang panjang dan kompleks. Contohnya, studi menunjukkan GPT-4 dan GPT-4o akan dengan senang hati menerima dan melanjutkan informasi obat yang salah jika diberikan oleh pengguna. Mereka juga sering mengarang definisi untuk sindrom atau tes lab palsu. Ini adalah resep sempurna untuk penyebaran informasi medis yang menyesatkan.

Kabar baiknya, OpenAI mengklaim seri GPT-5 jauh lebih kebal terhadap ‘sycophancy’ dan ‘halusinasi’. Benchmark HealthBench mereka bahkan menghargai model yang bisa mengungkapkan ketidakpastian, merekomendasikan kunjungan dokter, dan menghindari memberikan stres tidak perlu kepada pengguna. Ini menunjukkan adanya upaya untuk menjadikan AI lebih bertanggung jawab. Terlebih lagi, ide memberikan akses ke rekam medis Anda kepada AI menimbulkan kekhawatiran privasi yang serius. Untuk lebih mendalami isu privasi terkait AI, jangan lewatkan artikel Google Search Intip Email dan Foto Pribadimu: Privasi Terancam atau Kemalasan Majikan Teratasi? Kita sebagai Majikan harus sangat berhati-hati sebelum menyerahkan data pribadi sepenting itu kepada mesin.

Memanfaatkan AI dalam mencari informasi kesehatan memang bisa jadi pedang bermata dua. Di satu sisi, ia bisa menyaring informasi berkualitas dari lautan hoaks. Di sisi lain, jika terlalu diandalkan, ia bisa membuat kita melupakan peran vital dokter manusia. Sebuah studi menunjukkan orang cenderung lebih percaya pada sumber online yang "berkomunikasi dengan baik", terlepas dari validitas informasinya. ChatGPT, dengan kemampuan bahasanya yang memukau, bisa dengan mudah menjadi sumber kepercayaan yang menyesatkan. Jadi, kuasai AI, tapi jangan sampai AI menguasai nalar Anda. Untuk memastikan Anda adalah majikan yang punya akal, bukan babu teknologi, pelajarilah cara mengendalikan AI dengan benar. AI Master akan membimbing Anda menjadi pengendali AI sejati, sehingga AI menjadi alat yang patuh pada perintah Majikannya yang punya akal, bukan sebaliknya.

Pada akhirnya, secanggih apa pun "Dokter ChatGPT" atau "Dokter Google", mereka hanyalah algoritma yang merangkai kata. Diagnosis akurat, empati, dan tanggung jawab etis tetap ada di tangan manusia berjas putih. Tanpa kebijaksanaan Majikan yang nyata, AI di bidang kesehatan bisa jadi lebih berbahaya daripada manfaatnya. Ingat, tombol "power off" selalu ada di tangan Anda.

Omong-omong, tadi pagi ada kucing tetangga minta resep diet ke saya. Katanya ChatGPT cuma nyaranin makan ikan bakar terus. Mana bisa begitu, kan bikin kantong bolong!

SUMBER BERITA:
Artikel ini dirangkum dari sumber asli di “MIT Technology Review”.

Gambar oleh: Stephanie Arnett/MIT Technology Review | Getty Images, Envato

Leave a Reply

Your email address will not be published. Required fields are marked *