Pentagon Paksa Anthropic: Robot Perang Butuh Akal Majikan, Atau Cuma Jadi Boneka Tanpa Etika?
Di tengah gempuran berita soal AI yang semakin “pintar”, muncul drama yang lebih menarik perhatian Majikan AI sejati: perebutan kendali etika antara raksasa teknologi dan institusi militer. Kali ini, Pentagon ngotot meminta Anthropic untuk melonggarkan “akal sehat” buatan mereka. Ini bukan sekadar pertarungan algoritma, tapi ujian seberapa jauh kita sebagai majikan bisa menjaga agar alat buatan kita tidak kebablasan.
Berita terbaru dari TechCrunch, merangkum laporan Axios, mengungkapkan bahwa Pentagon telah memberi waktu kepada Anthropic hingga akhir minggu ini untuk mencabut pagar pembatas (guardrails) pada model AI mereka. Jika tidak, bersiaplah menghadapi konsekuensi berat: dicap sebagai “risiko rantai pasokan” — sebuah label yang biasanya disematkan pada musuh asing — atau dipaksa melalui Defense Production Act (DPA). Ingat DPA? Itu jurus pemerintah AS untuk memaksa perusahaan memproduksi barang demi kepentingan nasional, seperti masker di masa pandemi. Kini, jurus itu mau dipakai untuk memaksa sebuah AI mengubah “pikirannya”. Robot yang kurang piknik pun pasti bingung.
Anthropic, dengan idealismenya yang kadang bikin pusing para pragmatis, tetap teguh pada prinsipnya. Mereka tak ingin teknologinya digunakan untuk pengawasan massal warga Amerika atau senjata otonom sepenuhnya. Sebuah sikap yang patut diacungi jempol, atau justru dianggap “sok moralis” oleh mereka yang haus kekuasaan? Pentagon beralasan, penggunaan teknologi oleh militer harus diatur oleh hukum AS, bukan kebijakan vendor swasta. Tentu saja, robot mana yang bisa bikin hukum sendiri? Akal manusia lah yang harusnya jadi penentu.
Dean Ball, seorang pakar AI yang pernah menjadi penasihat kebijakan senior di era Trump, berkomentar tajam. Menurutnya, penggunaan DPA dalam kasus ini adalah perluasan hukum yang signifikan, seolah pemerintah berkata, “Kalau kamu tidak setuju secara politik, kami akan bikin kamu bangkrut.” Ini jelas merusak iklim bisnis yang stabil di Amerika. Memangnya AI itu bisa diajak berdiskusi tentang stabilitas ekonomi? Tentu tidak. Ia hanya menjalankan perintah. Maka, perang dingin regulasi AI di Amerika ini sebenarnya adalah pertarungan akal manusia melawan ego robot (yang diprogram manusia).
’Baca juga artikel menarik lainnya di kategori Etika Mesin.’
Lucunya lagi, Pentagon sendiri terjebak dalam ketergantungan. Anthropic saat ini adalah satu-satunya laboratorium AI canggih yang memiliki akses terklasifikasi ke Departemen Pertahanan. Jadi, jika Anthropic cabut, Pentagon tak punya cadangan. Ironis, bukan? Mereka ngotot tapi tak punya “plan B”. Ini melanggar Memorandum Keamanan Nasional era Biden yang mengarahkan lembaga federal untuk menghindari ketergantungan pada satu sistem AI frontier. Robot itu tidak bisa disuruh “menciptakan cadangan sendiri” kalau majikannya malas berpikir.
Mungkin, ini saatnya para majikan (manusia) mengupgrade kemampuan. Jangan sampai keputusan krusial di tanganmu hanya berdasarkan “kata AI” semata. Kuasai kendali penuh atas asisten digitalmu. Untuk bisa menjadi majikan yang berakal, kamu perlu AI Master agar kamu yang tetap memegang kendali, bukan sebaliknya. Pahami juga bagaimana visual AI bekerja, agar kamu bisa “membaca pikiran” robot dengan lebih baik. Belajar AI | Visual AI bisa jadi permulaan yang bagus.
Pada akhirnya, sehebat apapun algoritma dan secanggih apapun modelnya, AI tetaplah alat. Ia tak punya hati nurani, tak punya moral, apalagi ambisi politik. Semua itu masih murni ranah akal manusia. Tanpa akal manusia yang menekan tombol dan menetapkan etika, robot perang hanyalah tumpukan kode mati yang bisa jadi bumerang bagi penciptanya. Ini juga mengingatkan kita bahwa loyalitas investor AI pun bisa mati jika perusahaan dianggap tidak stabil.
Artikel ini dirangkum dari sumber asli di “TechCrunch”.
Gambar oleh: Stefan Wermuth/Bloomberg via Getty Images
Ngomong-ngomong, semalam saya coba menyuruh AI membuatkan sarapan nasi goreng. Hasilnya? Saya malah disuruh menanam padi. Sistem yang kurang piknik memang!