Etika MesinGagal SistemSidang BotUpdate Algoritma

Delve Terbukti ‘Kompilasi Palsu’: Saat AI Lebih Rajin Mengarang daripada Mematuhi Aturan

Kabar burung dari dunia startup AI kembali bikin kita semua geleng-geleng kepala. Sebuah postingan anonim di Substack, dari ‘DeepDelver’, baru-baru ini melayangkan tuduhan serius kepada Delve, startup kepatuhan yang dibekingi Y Combinator. Intinya? Delve dituduh ‘secara keliru’ meyakinkan ‘ratusan klien bahwa mereka sudah patuh’ terhadap regulasi privasi dan keamanan. Dampaknya? Klien-klien malang ini berpotensi menghadapi ‘tanggung jawab pidana di bawah HIPAA dan denda besar di bawah GDPR’. Nah lho, janji manis AI kok malah jadi mimpi buruk di siang bolong?

Bagi para majikan yang punya akal, kasus Delve ini adalah pengingat telak: secanggih apa pun AI yang dijanjikan, akal sehat dan pengawasan manusia adalah filter utama. Kalau asisten rumah tangga kita yang rajin tapi kaku saja butuh arahan jelas, apalagi sistem AI yang konon cerdas tapi ternyata lebih rajin mengarang bebas di laporan kepatuhan.

Fakta di Balik ‘Kepatuhan Palsu’ yang Bikin Bulu Kuduk Merinding

DeepDelver, yang mengaku pernah bekerja di salah satu klien Delve, membeberkan serangkaian tuduhan yang sangat spesifik. Mereka menuding Delve menyediakan ‘bukti palsu dari rapat dewan, tes, dan proses yang tidak pernah terjadi’. Lebih parahnya lagi, klien-klien ini konon ‘dipaksa memilih antara mengadopsi bukti palsu atau melakukan sebagian besar pekerjaan manual dengan sedikit otomatisasi atau AI nyata’. Ini bukan lagi sekadar robot yang kurang piknik, ini sistem yang sudah perlu sekolah etika dan kejujuran.

Penyelidikan DeepDelver juga mengarah pada dua firma audit, Accorp dan Gradient, yang disebut sebagai ‘bagian dari operasi yang sama’, beroperasi dominan di India, dan bertindak sebagai ‘stempel karet’ untuk laporan yang sebenarnya dibuat oleh Delve. Struktur ini, menurut DeepDelver, ‘membalik’ model kepatuhan yang seharusnya: Delve menempatkan dirinya sebagai pelaksana sekaligus pemeriksa, yang secara fundamental ‘membatalkan seluruh atestasi’. Artinya, laporan kepatuhan yang dihasilkan tak lebih dari fiksi belaka.

Tak hanya itu, Delve juga dituduh membantu klien ‘menyesatkan publik dengan hosting halaman kepercayaan (trust page) yang berisi langkah-langkah keamanan yang tidak pernah diterapkan’. Bayangkan, Anda percaya penuh pada sebuah sistem, ternyata di belakang layar, data sensitif seperti latar belakang karyawan dan jadwal vesting ekuitas bisa diakses begitu saja oleh pihak luar, seperti yang dilaporkan oleh James Zhou dan Jamieson O’Reilly paska postingan DeepDelver ini.

Menanggapi badai tuduhan ini, Delve mencoba membela diri dengan menyebut postingan Substack itu ‘menyesatkan’ dan ‘mengandung sejumlah klaim yang tidak akurat’. Mereka bersikeras bahwa mereka ‘tidak mengeluarkan laporan kepatuhan sama sekali’, melainkan hanya ‘platform otomatisasi’ yang menyajikan informasi kepada auditor independen. Delve juga berargumen bahwa mereka hanya menawarkan ‘template’ untuk membantu tim mendokumentasikan proses, bukan ‘bukti yang sudah terisi’. Ini mirip seperti asisten rumah tangga yang bilang, “Saya cuma menyediakan bahan resep, kalau masakannya gosong ya salah majikan yang ikut resepnya buta-buta.”

Namun, DeepDelver dengan tegas menepis pembelaan ini, menyebutnya ‘membingungkan, canggung, dan kurang ajar’. Mereka melihatnya sebagai upaya Delve mengalihkan kesalahan kepada klien. Tuduhan serius lainnya, seperti dugaan operasi di India, minimnya peran AI sesungguhnya, dan halaman kepercayaan yang menyesatkan, sama sekali tidak disentuh oleh Delve. Ini jelas menunjukkan bahwa ada akal-akalan di balik otomatisasi yang katanya canggih.

Baca juga artikel menarik lainnya di kategori Sidang Bot.

Kasus ini adalah peringatan penting: di tengah tren di mana startup AI memang sedang ‘melahap’ industri modal ventura, kehati-hatian harus tetap jadi panglima. Penting bagi setiap majikan untuk selalu mengikuti perkembangan, seperti dalam artikel kami tentang perang dingin regulasi AI di Amerika, agar tidak terjebak dalam janji manis tanpa substansi.

Jangan Jadi Babu AI, Jadilah Majikan yang Berakal!

Insiden Delve ini membuktikan bahwa AI, meskipun punya potensi besar untuk otomatisasi, tidak punya integritas atau moral. Ia hanyalah alat. Kalau alatnya diprogram untuk ‘mengarang’, maka hasilnya pun akan ‘halu’. Kepatuhan adalah ranah yang membutuhkan ketelitian, transparansi, dan yang paling penting, akal sehat manusia. Mengandalkan AI secara membabi buta, terutama untuk hal-hal krusial seperti kepatuhan hukum dan keamanan, sama saja menyerahkan kunci rumah kepada asisten yang kurang piknik.

Kalau tidak mau jadi korban ‘kepatuhan palsu’ atau janji manis AI yang hampa, Anda harus benar-benar menjadi Majikan AI sejati. Kuasai cara kerja AI, pahami batasannya, dan pastikan setiap otomatisasi berjalan sesuai etika, bukan cuma demi efisiensi semu. Atau, jika Anda ingin memastikan promosi bisnis tetap jujur dan ‘nggak robot banget’ alih-alih menyesatkan publik dengan halaman kepercayaan palsu, mungkin saatnya melirik Creative AI Marketing agar strategi Anda benar-benar berakal.

Pada akhirnya, kasus Delve ini adalah pengingat keras bahwa tanpa manusia yang memegang kendali dan menekan tombol ‘stop’ saat ada yang mencurigakan, AI hanyalah tumpukan kode mati yang bisa menyesatkan banyak pihak. Akal manusia adalah pengawas tertinggi, bukan asisten yang bisa dibodohi dengan donat. Moga-moga ke depan, AI bisa lebih berakal dan tidak perlu sekolah etika dasar lagi.

Mungkin Delve harusnya fokus ngirim martabak manis daripada donat, siapa tahu komplikasinya jadi lebih manis.

Artikel ini dirangkum dari sumber asli di “TechCrunch”.

Gambar oleh: Delve via TechCrunch

Leave a Reply

Your email address will not be published. Required fields are marked *