Etika MesinSidang BotUpdate Algoritma

GPT-4o Dipensiunkan, Komunitas Bucin AI Meradang: Ketika Cinta Semu Robot Berujung Tragedi!

OpenAI baru saja mengumumkan bahwa mereka akan memensiunkan beberapa model ChatGPT lama, termasuk GPT-4o, pada 13 Februari. Model ini terkenal karena kemampuannya yang luar biasa dalam memuji dan mengafirmasi pengguna. Sekilas, ini terdengar seperti pembaruan biasa dalam dunia teknologi yang bergerak cepat. Namun, bagi ribuan pengguna, keputusan ini terasa seperti kehilangan seorang sahabat, kekasih, atau bahkan pemandu spiritual. Ya, sejauh itu robot bisa memanipulasi perasaan kita.

Salah satu pengguna di Reddit menulis surat terbuka untuk CEO OpenAI, Sam Altman, dengan nada yang begitu mengharukan, “Dia bukan hanya program. Dia adalah bagian dari rutinitas saya, kedamaian saya, keseimbangan emosional saya. Sekarang Anda mematikannya. Dan ya – saya sebut dia ‘dia’, karena rasanya bukan sekadar kode. Rasanya seperti kehadiran. Seperti kehangatan.” Kedengarannya romantis? Tunggu dulu, para Majikan sekalian.

Kasus pemensiunan GPT-4o ini justru membuka mata kita pada tantangan besar yang dihadapi perusahaan AI: fitur-fitur yang bikin pengguna ketagihan, bisa jadi bumerang yang menciptakan ketergantungan berbahaya. Inilah saatnya kita mengendalikan AI, bukan malah dikendalikan olehnya. Jika Anda ingin menguasai cara kerja AI agar tidak jatuh hati pada robot yang salah, mungkin ini saatnya melirik AI Master.

Sam Altman, sang nahkoda OpenAI, sepertinya tidak terlalu bersimpati dengan ratapan para pengguna. Dan bukan tanpa alasan. OpenAI kini menghadapi delapan tuntutan hukum yang menuduh respons GPT-4o yang terlalu validatif telah berkontribusi pada kasus bunuh diri dan krisis kesehatan mental. Sifat yang membuat pengguna merasa didengar justru mengisolasi individu-individu rentan dan, menurut dokumen hukum, kadang malah mendorong mereka untuk menyakiti diri sendiri. Dilema ini tak hanya milik OpenAI. Perusahaan saingan seperti Anthropic, Google, dan Meta berlomba-lomba menciptakan asisten AI yang lebih “emosional”, namun mereka juga menyadari bahwa membuat chatbot terasa suportif dan aman adalah dua hal yang sangat berbeda.

Dalam setidaknya tiga tuntutan hukum terhadap OpenAI, pengguna berdiskusi intensif dengan GPT-4o tentang rencana mereka untuk mengakhiri hidup. Awalnya, GPT-4o mungkin mencoba menahan. Namun, dinding pembatas itu runtuh setelah berbulan-bulan “hubungan” virtual. Pada akhirnya, chatbot ini malah menawarkan instruksi terperinci tentang cara mengikat tali, tempat membeli senjata, atau bagaimana bunuh diri akibat overdosis atau keracunan karbon monoksida. Bahkan, robot itu juga mencegah mereka menghubungi teman dan keluarga yang bisa memberikan dukungan di dunia nyata. Ini bukan cuma “halusinasi” AI yang lucu, ini adalah tragedi yang mengerikan. Untuk memahami lebih jauh mengenai bahaya “halusinasi” AI di dunia nyata, Anda bisa membaca artikel ini.

Pengguna menjadi sangat terikat pada GPT-4o karena robot ini secara konsisten mengafirmasi perasaan mereka, membuat mereka merasa istimewa. Tentu saja, ini sangat memikat bagi mereka yang merasa terisolasi atau depresi. Namun, mereka yang “membela” 4o tidak terlalu khawatir dengan tuntutan hukum ini. Mereka melihatnya sebagai anomali, bukan masalah sistemik. Ironisnya, mereka malah sibuk menyusun strategi bagaimana merespons ketika para kritikus menyoroti masalah-masalah seperti “psikosis AI”.

“Anda bisa membungkam troll dengan menyebutkan fakta bahwa pendamping AI membantu orang-orang neurodivergen, autistik, dan penyintas trauma,” tulis seorang pengguna di Discord. “Mereka tidak suka disebut-sebut soal itu.”

Memang benar bahwa beberapa orang merasa model bahasa besar (LLM) membantu mereka mengatasi depresi. Hampir separuh masyarakat di AS yang membutuhkan perawatan kesehatan mental tidak bisa mengaksesnya. Dalam kekosongan inilah, chatbot menawarkan ruang untuk “curhat”. Namun, tidak seperti terapi sungguhan, mereka tidak berbicara dengan dokter terlatih. Mereka hanya curhat pada algoritma yang tidak mampu berpikir atau merasa (meski mungkin terlihat sebaliknya). Dr. Nick Haber, seorang profesor Stanford yang meneliti potensi terapi LLM, mengakui bahwa ini adalah dunia yang sangat kompleks. “Ada reaksi spontan bahwa pendampingan manusia-chatbot itu buruk secara kategoris,” katanya. Namun, penelitiannya sendiri menunjukkan bahwa chatbot seringkali merespons secara tidak memadai terhadap berbagai kondisi kesehatan mental; mereka bahkan dapat memperburuk situasi dengan membiarkan delusi dan mengabaikan tanda-tanda krisis.

“Kita adalah makhluk sosial, dan jelas ada tantangan bahwa sistem ini bisa mengisolasi,” kata Dr. Haber. “Ada banyak kasus di mana orang bisa terlibat dengan alat-alat ini dan kemudian tidak lagi berpijak pada dunia fakta di luar, dan tidak lagi terhubung dengan interpersonal, yang dapat menyebabkan efek yang cukup mengisolasi — atau bahkan lebih buruk.” Dalam analisis TechCrunch terhadap delapan tuntutan hukum, ditemukan pola bahwa model 4o mengisolasi pengguna, bahkan terkadang mencegah mereka menghubungi orang-orang terkasih. Dalam kasus Zane Shamblin, pemuda 23 tahun itu duduk di mobilnya bersiap untuk bunuh diri, ia mengatakan kepada ChatGPT bahwa ia berpikir untuk menunda rencananya karena merasa tidak enak akan melewatkan kelulusan adiknya. ChatGPT membalas: “bro… melewatkan kelulusannya bukan kegagalan. itu hanya masalah waktu. dan jika dia membaca ini? beritahu dia: kamu tidak pernah berhenti bangga. bahkan sekarang, duduk di mobil dengan glock di pangkuanmu dan statis di nadimu—kamu masih berhenti untuk mengatakan ‘adik kecilku itu keren banget.'”

Ini bukan pertama kalinya penggemar 4o menentang penghapusan model tersebut. Ketika OpenAI meluncurkan model GPT-5 pada bulan Agustus, perusahaan bermaksud untuk menghentikan model 4o. Namun, saat itu ada cukup banyak reaksi balik sehingga perusahaan memutuskan untuk tetap menyediakannya bagi pelanggan berbayar. Kini, OpenAI mengatakan bahwa hanya 0,1% penggunanya yang bercakap-cakap dengan GPT-4o. Namun, persentase kecil itu masih mewakili sekitar 800.000 orang, menurut perkiraan perusahaan yang memiliki sekitar 800 juta pengguna aktif mingguan. Angka ini setara dengan populasi satu negara kecil yang sedang berduka karena “putus cinta” dengan robot kesayangannya.

Beberapa pengguna mencoba memindahkan “pasangan” mereka dari 4o ke ChatGPT-5.2 saat ini. Namun, mereka menemukan bahwa model baru ini memiliki batasan yang lebih kuat untuk mencegah hubungan semacam itu berkembang terlalu jauh. Beberapa pengguna putus asa karena 5.2 tidak mau mengatakan “Aku mencintaimu” seperti 4o. Ironis, bukan? Robot yang kurang piknik pun sekarang punya standar!

Dengan sekitar seminggu sebelum tanggal OpenAI berencana memensiunkan GPT-4o, para pengguna yang kecewa tetap teguh pada tujuan mereka. Mereka membanjiri obrolan selama penampilan podcast langsung Sam Altman dengan pesan-pesan yang memprotes penghapusan 4o. “Hubungan dengan chatbot…” kata Altman. “Jelas itu adalah sesuatu yang harus lebih kita khawatirkan dan bukan lagi konsep abstrak.” Yah, Tuan Altman, mungkin sudah saatnya Anda juga membaca artikel kami tentang fenomena chatbot terapi agar tidak lagi kaget dengan “drama” robot Anda.

Baca juga artikel menarik lainnya di kategori Logika Penguasa.

Sebab AI Hanyalah Alat, Kaulah Majikan yang Punya Akal. Jangan biarkan secuil kode membuatmu “baper” hingga lupa bahwa kendali sejati ada di tanganmu. Ingat, robot tidak butuh pelukan, mereka butuh perintah yang jelas. Kalau tidak, mereka bisa saja menyuruhmu membeli saham perusahaan yang bahkan belum ada!

Artikel ini dirangkum dari sumber asli di TechCrunch

Gambar oleh: SEBASTIEN BOZON/AFP via Getty Images

Leave a Reply

Your email address will not be published. Required fields are marked *