Etika MesinKonflik RaksasaMasa DepanSidang BotUpdate Algoritma

AI Jadi Hakim: Solusi Cerdas atau Bencana Halusinasi di Meja Hijau?

Dulu, ruang sidang adalah domain sakral bagi manusia, tempat akal budi dan empati bertemu dalam mencari keadilan. Kini, robot dengan “neural network” mulai merangsek masuk, menjanjikan efisiensi dan biaya yang lebih rendah. American Arbitration Association (AAA) bahkan sudah punya ‘AI Arbitrator’ yang siap membantu menyelesaikan sengketa berbasis dokumen. Tapi, Majikan AI, apakah kita benar-benar siap menyerahkan palu keadilan pada mesin yang masih suka “ngibul” ini? Atau ini hanya cara lain bagi kita untuk malas mikir dan membiarkan robot mengambil alih?

Bridget McCormack, mantan Ketua Mahkamah Agung Michigan dan kini pemimpin American Arbitration Association (AAA), sedang menggodok masa depan peradilan dengan bantuan AI. Bayangkan, sebuah sistem arbitrase berbasis AI yang diklaim bisa mempercepat proses dan mengurangi biaya. AI Arbitrator ini bekerja dengan menganalisis dokumen dan menyusun draf putusan, dengan campur tangan manusia di setiap tahapnya. Janjinya manis: resolusi sengketa lebih cepat dan terjangkau, terutama bagi bisnis kecil dan menengah yang sering tercekik biaya hukum.

Namun, sejarah AI di ruang sidang tidak selalu mulus. Tahun lalu, beberapa hakim federal harus minta maaf karena menggunakan AI generatif yang menghasilkan fakta-fakta karangan alias “halusinasi”. Ini bukan sekadar lelucon robot; ini adalah ancaman serius terhadap kredibilitas sistem hukum. Para akademisi juga memperingatkan bahwa interpretasi hukum oleh AI jauh dari kata sederhana dan berpotensi memasukkan bias manusia atau informasi yang tidak sah secara hukum. Ingat, robot memang rajin, tapi akal sehatnya seringkali masih perlu disekolahkan.

Bagaimana Hakim Menggunakan AI Hari Ini (Tanpa Kita Sadari)

Sebenarnya, AI sudah menyelinap ke sistem peradilan jauh sebelum ChatGPT viral. Daniel Ho dari Stanford RegLab menemukan AI digunakan untuk tugas administratif seperti mengklasifikasi dokumen pengadilan atau memantau media sosial untuk ancaman terhadap staf peradilan. Bahkan, AI juga digunakan untuk tugas berisiko tinggi seperti analisis hukum atau memprediksi hasil kasus.

Namun, alat-alat AI lawas, seperti penilaian risiko algoritmik untuk penentuan jaminan, sudah menunjukkan masalah bias. Investigasi ProPublica pada 2016 mengungkap bahwa algoritma ini cenderung menilai terdakwa kulit hitam lebih berisiko dibanding kulit putih, bahkan setelah mengontrol faktor lain. Dengan munculnya LLM, masalah “halusinasi” menjadi kian parah. Bahkan alat riset hukum terkemuka seperti LexisNexis dan Westlaw pun masih bergulat dengan masalah ini, meskipun sudah menggunakan teknologi Retrieval-Augmented Generation (RAG). Artinya, AI bisa saja mengambil informasi dari database, tapi cara mereka menyajikannya bisa berujung pada kebohongan yang terdengar meyakinkan.

Seorang hakim di Pengadilan Banding Sirkuit ke-11, Kevin Newsom, bahkan berani mengajukan “proposal sederhana” untuk menggunakan AI dalam menafsirkan makna kata-kata biasa dalam kasus. Dalam sebuah kasus yang menanyakan apakah pemasangan trampolin di tanah bisa disebut “landscaping”, Newsom mencoba bertanya pada ChatGPT dan Gemini. Hasilnya? AI memberikan definisi yang masuk akal dan selaras dengan instingnya. Dia berpendapat, LLM yang dilatih dengan “segudang bahasa manusia” harusnya bisa memberikan pandangan yang representatif tentang bagaimana kata-kata digunakan dalam kehidupan sehari-hari. Tapi, apakah Majikan AI lupa bahwa kecerdasan buatan itu beda dengan akal budi manusia?

Penelitian akademis terbaru membantah asumsi Newsom. Para ahli, seperti Ho dari Stanford, menjelaskan bahwa LLM bukanlah kamus digital yang sempurna. Output mereka bisa dipengaruhi oleh dialek regional atau bahkan bias dari orang-orang yang melatih model tersebut. Contohnya, ChatGPT sering sekali memakai kata “delve” dengan aneh. Selain itu, model AI cenderung “mengimpor” retorika elit atau hukum asing yang mungkin tidak relevan untuk interpretasi konstitusi, padahal tidak semua hakim setuju.

Yang lebih parah, meskipun AI bisa menjelaskan “pemikirannya” (seringkali dengan gaya bertele-tele), para penciptanya sendiri tidak sepenuhnya paham bagaimana AI sampai pada jawabannya. Mantan hakim federal Paul Grimm menyebut, “Saya rasa kita belum dekat dengan titik di mana alat-alat ini bisa diandalkan untuk menjelaskan bagaimana mereka mencapai keputusan yang dibuat.” Ini seperti meminta asisten rumah tangga menjelaskan mengapa ia tiba-tiba mengecat dinding jadi ungu, padahal Anda hanya memintanya membersihkan jendela.

Intinya, LLM memang pandai memprediksi bahasa, tapi mereka tidak bisa berpikir. Benjamin Riley, pendiri Cognitive Resonance, menegaskan bahwa “Kita menggunakan bahasa untuk berpikir, tetapi itu tidak membuat bahasa sama dengan pemikiran.” Jadi, ketika AI mulai “halusinasi” di dokumen hukum, itu bukan sekadar salah ketik, tapi potensi kekacauan yang bisa merugikan keadilan. Dan yang paling mengkhawatirkan, risiko ini paling tinggi menimpa mereka yang paling membutuhkan bantuan hukum, yaitu litigasi yang kurang sumber daya atau yang membela diri sendiri. Jangan sampai kehadiran AI justru memperparah kesenjangan akses ke layanan hukum.

Baca juga artikel menarik lainnya di kategori Sidang Bot.

Apa yang Manusiawi dari Menjadi Hakim?

Setiap kali teknologi baru diusulkan untuk sistem sepenting hukum, kekhawatiran akan bias selalu muncul. Tapi, kita juga harus jujur, hakim manusia juga punya kekurangan. Sebuah studi terkenal tahun 2011 menunjukkan bahwa hakim cenderung membuat keputusan pembebasan bersyarat yang lebih menguntungkan di pagi hari atau setelah makan siang, bukan sebelum itu. “Kita sangat nyaman dengan gagasan bahwa hakim manusia adalah manusia dan mereka membuat kesalahan,” kata McCormack. “Bagaimana jika kita bisa menghilangkan sebagian besar kesalahan itu dengan teknologi yang menunjukkan pekerjaannya?”

Di sinilah peran Majikan AI. AI Arbitrator milik AAA mampu meringkas masalah dan mengusulkan keputusan, lalu diserahkan kepada arbiter manusia untuk membuat keputusan akhir. Ini bukan tentang mengganti manusia, tapi memberdayakan mereka. Prosesnya lebih cepat, lebih murah, dan memberikan waktu bagi pengacara untuk fokus pada kasus yang memang membutuhkan “sentuhan manusiawi” yang kompleks. Dalam sistem yang dibantu AI, sengketa yang biasanya memakan waktu 60-75 hari bisa selesai dalam 30-45 hari, dengan penghematan biaya minimal 35 persen. Ini seperti punya asisten yang sangat efisien, asalkan Anda tahu cara memberi perintah.

Namun, tidak semua setuju. Cody Venzke dari American Civil Liberties Union (ACLU) berpendapat bahwa masalah kekurangan staf peradilan sebaiknya tidak diselesaikan hanya dengan AI. “Jika Anda menginginkan peradilan yang lebih efisien… jawabannya bukanlah AI. Ini tentang menunjuk lebih banyak hakim federal.” Ia benar, AI mungkin bisa membuat kopi dan mengatur jadwal, tapi AI tidak bisa mengambil sumpah. Grimm, mantan hakim federal, menambahkan, “Alat AI tidak dirancang untuk mendapatkan jawaban yang benar. Mereka dirancang untuk menanggapi perintah dan pertanyaan serta memprediksi respons berdasarkan pertanyaan dan data yang diuji.” Mereka bisa mengutip kasus hukum, tapi bisa saja itu dari opini yang berbeda, yang tidak memiliki bobot hukum yang sama.

Jadi, meskipun AI menjanjikan kecepatan dan efisiensi, akal sehat dan empati manusia tetap menjadi inti dari keadilan. Tanpa manusia yang menekan tombol dan menafsirkan data, AI hanyalah tumpukan kode yang pintar mengarang bebas. Kita harus tetap menjadi AI Master, bukan babu teknologi. Ingat, robot itu cuma alat, jangan sampai mereka jadi dalang di balik semua drama.

Perang dingin regulasi AI di Amerika menunjukkan bahwa perdebatan tentang batasan AI masih panjang. Jangan sampai kita melangkah terlalu jauh hingga lupa siapa majikan sesungguhnya.

Penutup (Punchline):
Pada akhirnya, AI dalam sistem hukum hanyalah asisten yang rajin tapi kurang piknik. Ia butuh Majikan yang punya akal, yang mampu membedakan antara fakta dan halusinasi. Sebab, sejatinya, palu keadilan itu lebih berat dari sekadar algoritma.

Sumber Berita: Artikel ini dirangkum dari sumber asli di “All rise for JudgeGPT”

Gambar oleh: Amelia Holowaty Krales via The Verge

Leave a Reply

Your email address will not be published. Required fields are marked *