Ketika Etika AI Diadu dengan Mesin Perang: Anthropic Ngambek, Pentagon Ngancam! Siapa Sebenarnya yang Punya Akal?
Kabar mengejutkan datang dari dunia kecerdasan buatan, di mana raksasa AI, Anthropic, kini sedang berada di ujung tanduk. Perusahaan yang getol menggembar-gemborkan etika dalam pengembangan AI ini tiba-tiba menjadi target ancaman Pentagon. Pasalnya, Anthropic menolak keras jika teknologi AI mereka digunakan untuk senjata otonom atau pengawasan pemerintah. Kontrak miliaran dolar pun terancam, bahkan Pentagon sampai melabeli Anthropic sebagai “risiko rantai pasokan.” Bayangkan, sebuah perusahaan teknologi yang peduli kemanusiaan malah dianggap berbahaya oleh institusi negara yang katanya melindungi warganya!
Ini bukan sekadar drama korporasi biasa. Ini adalah pengingat telak bagi kita para Majikan AI: bahwa di balik kecanggihan algoritma, selalu ada manusia yang harus mengambil keputusan moral. Lantas, bagaimana kita bisa memastikan AI tetap menjadi alat yang patuh, bukan malah menjadi monster yang lepas kendali di tangan siapa pun, termasuk pemerintah?
Anthropic: Si Robot Berhati Emas yang Bikin Pentagon Pusing
Anthropic, dengan model AI-nya, Claude, telah memposisikan diri sebagai perusahaan AI paling berhati-hati. Misi mereka jelas: membangun “pagar pengaman” yang sangat kuat dalam model AI agar para “aktor jahat” tidak bisa menyalahgunakan potensi kelam AI. Ibaratnya, mereka ingin memastikan robot tetap mematuhi Tiga Hukum Robotika Isaac Asimov, terutama hukum pertama: “Sebuah robot tidak boleh mencelakai manusia, atau melalui kelambanan, membiarkan manusia berada dalam bahaya.”
Namun, di sinilah letak ironi yang mengiris. Sementara Anthropic berusaha menjaga marwah AI, Pentagon justru memiliki pandangan yang bertolak belakang. Mereka tak peduli dengan “pagar pengaman” atau “distingsi legal” tentang penggunaan AI. Emil Michael, CTO Departemen Pertahanan, dengan gamblang menyatakan bahwa pemerintah tidak akan mentolerir perusahaan AI yang membatasi penggunaan teknologi mereka untuk militer. “Jika ada kawanan drone yang datang dari pangkalan militer, apa pilihan Anda untuk menjatuhkannya? Jika waktu reaksi manusia tidak cukup cepat… bagaimana Anda akan melakukannya?” ujarnya retoris. Jadi, selamat tinggal Hukum Robotika pertama!
Fakta bahwa raksasa teknologi lain seperti OpenAI, xAI, dan Google juga berlomba-lomba mendapatkan kontrak rahasia militer menunjukkan bahwa perlombaan senjata AI sudah di depan mata. Bukan lagi fiksi ilmiah, ini adalah realitas yang mengerikan. Perusahaan seperti Palantir bahkan terang-terangan mengakui bahwa produk mereka “digunakan sesekali untuk membunuh orang.” Sebuah pengakuan yang, entah kenapa, disampaikan dengan kebanggaan.
Baca juga artikel menarik lainnya di kategori Etika Mesin.
Akal Manusia Vs. Ambisi Robot: Perlombaan Senjata AI yang Makin Ngawur
Amerika Serikat mungkin merasa bisa pamer otot AI di negara-negara kecil seperti Venezuela. Tapi bagaimana jika berhadapan dengan lawan yang sebanding? Maka, terciptalah perlombaan senjata AI yang tak terelakkan. Pemerintah tidak akan punya kesabaran untuk perusahaan AI yang rewel soal etika penggunaan dalam situasi hidup dan mati. Ini jelas mendorong pengembangan AI ke arah yang salah. Bagaimana bisa kita menciptakan AI yang tidak mencelakai manusia, tapi di sisi lain juga membuat versi yang mampu melumpuhkan bahkan membunuh?
Beberapa tahun lalu, pembicaraan serius tentang badan internasional untuk memantau dan membatasi penggunaan AI yang berbahaya masih santer terdengar. Kini? Nyaris tak ada. Seolah-olah sudah menjadi keniscayaan bahwa masa depan perang adalah AI, dan yang lebih menakutkan, masa depan AI itu sendiri mungkin akan lebih condong ke arah kekerasan, jika kita para majikan tidak berhati-hati.
Bukankah sudah jelas bahwa AI hanyalah alat? Robot-robot ini, secerdas apa pun mereka, tidak akan pernah punya hati nurani atau akal sehat untuk membedakan mana yang benar dan mana yang salah secara moral. Itu adalah tugas kita, para majikan, untuk terus memegang kendali dan menetapkan batasan yang jelas. Jangan sampai kita menyerahkan moralitas ke tangan algoritma yang hanya tahu perintah, bukan empati. Sebab AI hanyalah alat, kaulah majikan yang punya akal.
Artikel ini dirangkum dari sumber asli di “AI Safety Meets the War Machine | WIRED”.
Gambar oleh: Andrew Harnik/Getty Images via WIRED