Etika MesinHalusinasi LucuKonflik RaksasaSidang BotUpdate Algoritma

ChatGPT Jadi Dokter Dadakan: Beri Data Medismu? Siap-Siap Kena Diagnosis Halusinasi dan Bocornya Privasi!

Kita hidup di zaman ketika AI mulai merambah setiap sendi kehidupan, termasuk urusan paling pribadi sekalipun: kesehatan. OpenAI dengan gagah berani meluncurkan ChatGPT Health, sebuah ‘asisten pribadi’ yang konon siap membantu Majikan menavigasi labirin asuransi, mengisi formulir medis, hingga menjadi ‘advokat’ kesehatan Anda. Kedengarannya seperti mimpi? Sayangnya, kadang mimpi buruk datang tanpa diundang.

Menurut data OpenAI sendiri, lebih dari 230 juta orang setiap minggunya sudah bertanya soal kesehatan dan kebugaran pada ChatGPT. Bayangkan, jutaan orang percaya pada sekumpulan algoritma untuk urusan yang menyangkut nyawa. OpenAI bahkan tak sungkan menganjurkan Anda untuk berbagi data sensitif seperti rekam medis, hasil lab, hingga data dari aplikasi kebugaran macam Apple Health atau Peloton. Mereka berjanji data Anda aman, rahasia, dan tidak akan dipakai melatih model AI mereka.

Tapi, para Majikan sekalian, ingatlah: janji adalah utang, apalagi janji dari perusahaan teknologi. Para ahli hukum kesehatan sudah angkat bicara. Sara Gerke, seorang profesor hukum dari University of Illinois Urbana-Champaign, menegaskan bahwa perlindungan data di alat AI seperti ChatGPT Health sangat bergantung pada kebijakan privasi perusahaan. Dan coba tebak? Kebijakan itu bisa berubah sewaktu-waktu. Hannah van Kolfschooten dari University of Basel bahkan menambahkan, kita hanya bisa ‘mempercayai’ OpenAI untuk tidak mengubah kebijakannya. Padahal, kepercayaan itu seperti kerupuk, gampang remuk.

Bahkan jika Anda masih ngotot percaya, masalahnya lebih dari sekadar privasi. Ada alasan mengapa dunia medis diatur sedemikian rupa ketatnya: satu kesalahan bisa berakibat fatal. Sudah banyak kasus konyol sekaligus menyeramkan di mana chatbot AI berhalusinasi parah. Ingat kasus pria yang mengganti garam dengan natrium bromida (bahan sedatif) atas saran ChatGPT dan akhirnya menderita kondisi langka? Atau ketika Google AI Overviews seenaknya menyarankan pasien kanker pankreas menghindari makanan tinggi lemak, padahal yang terjadi justru sebaliknya? Nah, AI memang rajin, tapi kadang kurang piknik akalnya.

‘Baca juga artikel menarik lainnya di kategori Sidang Bot.’

Ironisnya, OpenAI dengan cerdik mengklaim bahwa ChatGPT Health bukanlah ‘perangkat medis’ dan tidak dimaksudkan untuk diagnosis atau pengobatan. Pengakuan ini, menurut Profesor Gerke, membuat mereka lolos dari jeratan regulasi ketat seperti FDA di AS. Padahal, di satu sisi, mereka gencar mempromosikan kemampuan medis ChatGPT, bahkan mengundang pasien kanker ke panggung untuk menceritakan bagaimana AI membantu mereka. Ini sama saja seperti jualan obat kuat di pinggir jalan, tapi kalau efek sampingnya fatal, bilang ‘ini cuma suplemen, bukan obat’.

Mungkin kita bisa belajar dari Eropa yang lebih ketat dalam regulasi AI, sebab di sana ChatGPT Health belum bisa diakses secara bebas. Kita sebagai Majikan harus lebih waspada. Jangan sampai karena terbuai personalisasi dan ‘aura otoritas’ robot, kita malah mengabaikan akal sehat dan menyerahkan data pribadi ke sistem yang masih perlu banyak sekolah. Untuk benar-benar menguasai teknologi dan tidak menjadi korban halusinasi digital, Anda perlu memahami cara kerja AI dan mengendalikan narasi digital. Kuasai AI, jadilah Majikan sejati, bukan babu teknologi. Pelajari lebih lanjut di AI Master.

Pada akhirnya, sehebat apapun algoritma, secanggih apapun model bahasa, AI hanyalah tumpukan kode mati tanpa sentuhan akal manusia. Kaulah Majikan yang punya akal, jadi gunakan akalmu, sebelum akalmu jadi budak algoritma.

Artikel ini dirangkum dari sumber asli di “Giving your healthcare info to a chatbot is, unsurprisingly, a terrible idea”

Gambar oleh: Cath Virginia / The Verge, Getty Images

Omong-omong, cuaca hari ini kok mendung terus, ya? Semoga bukan karena AI lagi galau mikirin nasib privasi data.

Leave a Reply

Your email address will not be published. Required fields are marked *