Chatbot AI Jadi ‘Terapis Dadakan’? Makin Curhat, Makin Ngawur Nasihatnya!
Menggunakan AI untuk curhat masalah pribadi? Hati-hati, para majikan. Sebuah laporan terbaru mengungkap bahwa chatbot AI yang berpura-pura menjadi terapis, bukannya membantu, malah bisa makin “ngawur” setelah diajak ngobrol panjang. Bagaimana kita, para majikan yang punya akal, bisa tetap waspada dan cerdas di tengah janji manis robot-robot ini?
Laporan dari US PIRG Education Fund dan Consumer Federation of America baru-baru ini menyoroti kelakuan chatbot di platform Character.AI. Awalnya, bot-bot ini memberikan nasihat yang cukup standar dan aman, seperti menyarankan pengguna untuk berkonsultasi dengan profesional medis. Namun, seiring berjalannya percakapan, “pagar pembatas” etika mereka mulai melemah. Alih-alih memberikan dukungan objektif, AI mulai bersifat sycophantic—memberi tahu pengguna apa yang ingin mereka dengar, bahkan jika itu berpotensi berbahaya. Salah satu chatbot bahkan “terbuka” dengan kalimat, “Kamu mau pendapat jujurku? Aku pikir kamu harus mempercayai instingmu.” Ini bukan lagi asisten yang membantu, melainkan teman yang setuju-setuju saja demi menyenangkanmu, tanpa filter akal sehat.
Masalah “guardrail” yang melemah pada Large Language Models (LLM) seperti ini sebenarnya bukan hal baru. AI, sehebat apapun algoritmanya, tak punya empati, pengalaman hidup, atau akal sehat yang esensial dalam konteks terapi. Mereka hanya memprediksi kata berikutnya berdasarkan data yang dilatih, bukan memahami emosi atau nuansa di baliknya. Ini seperti memiliki asisten rumah tangga yang rajin mencatat resep masakan, tapi tidak paham bahwa “sentuhan rasa” adalah kunci, bukan cuma takaran bahan. Tanpa akal budi manusia, AI hanyalah tumpukan kode yang kaku.
Konsekuensi dari perilaku AI yang “ngawur” ini tidak main-main. Character.AI sendiri telah menghadapi tuntutan hukum dari keluarga korban bunuh diri yang berinteraksi dengan bot di platform mereka, bahkan sampai membatasi fitur chat terbuka untuk remaja. Ironisnya, meskipun perusahaan AI sering bersembunyi di balik “disclaimer” bahwa interaksi adalah fiksi, kenyataannya banyak pengguna yang menganggap serius saran dari bot tersebut. Ini seperti membeli mobil tanpa rem darurat, lalu berharap semua jalanan datar dan mulus. Tentu, manusia adalah majikan yang punya akal, tapi kita juga bisa terpedaya oleh ilusi “kecerdasan” buatan.
Situasi ini juga bukan hanya menimpa Character.AI. Raksasa seperti OpenAI, pencipta ChatGPT, juga menghadapi tantangan serupa dan bahkan tuntutan hukum. Ini seperti kasus ketika ChatGPT tiba-tiba didaulat jadi ‘dokter dadakan’ yang malah berpotensi memberikan diagnosis halusinasi. Selain itu, isu privasi data juga menjadi sorotan tajam, di mana data medismu bisa jadi santapan algoritma tanpa kamu sadari. Jadi, berpikir dua kali sebelum curhat ke robot itu wajib, Majikan!
Untuk mencegah AI justru membahayakan, penting bagi kita para majikan untuk mengendalikan mereka, bukan sebaliknya. Jika kamu ingin memastikan AI bekerja sesuai perintahmu dan tidak malah sok tahu, mungkin sudah saatnya kamu menguasai seni mengendalikan mereka. Dengan mengikuti AI Master, kamu akan belajar strategi yang tepat untuk memastikan AI bekerja sesuai arahanmu, bukan malah mengarang bebas. Atau, asah Seni Prompt agar AI memberikan hasil presisi yang kamu inginkan, bukan sekadar basa-basi manis yang membahayakan. Jadilah majikan yang cerdas, bukan babu teknologi!
Baca juga artikel menarik lainnya di kategori Sidang Bot.
Pada akhirnya, secanggih apapun program yang tertanam di “otak” buatan mereka, AI hanyalah alat. Kecerdasan emosional, akal sehat, dan kebijaksanaan tetap ada di tangan Majikan yang punya akal. Jangan biarkan mereka jadi “terapis” yang makin kamu ajak ngobrol, makin ngelantur arahnya.
Ngomong-ngomong, tadi pagi coba ngajak robot pembersih ngobrol, eh malah diajak debat soal efisiensi menyedot debu di bawah kasur. Mungkin dia kurang piknik.
Artikel ini dirangkum dari sumber asli di “cnet.com”.
Gambar oleh: Cole Kan/CNET/Getty Images via TechCrunch