Ekonomi AIHardware & ChipKonflik RaksasaMasa DepanSidang BotUpdate Algoritma

Google Bikin AI Lebih “Kurus”, NVIDIA Auto Galau? Masa Depan Data Center di Tangan Algoritma Hemat Energi!

Kita sudah melihat masa depan AI melalui Model Bahasa Besar (LLM), dan ternyata, ukurannya lebih mungil dari yang Anda bayangkan. Ini bukan tentang diet ketat ala robot, melainkan tentang efisiensi yang bakal bikin raksasa teknologi seperti NVIDIA gigit jari.

Ingat tahun 2025 ketika DeepSeek dari China muncul? LLM yang lebih ramping, hemat energi data center, dan performanya mengejutkan di benchmark. Sebuah ironi, karena ia dibangun di atas model open-source AS, Meta’s Llama. Meskipun DeepSeek sempat tersandung isu privasi, tren AI yang lebih kecil dan cerdas ini tidak akan pudar. Dan kini, Google mempersembahkan jagoan baru: TurboQuant, algoritma kompresi yang diumumkan secara ‘diam-diam’ melalui Google Research paper.

Jujur saja, paper-nya sendiri lebih ‘menjelimet’ dari urusan birokrasi pemerintahan jika Anda bukan seorang nerd AI yang akrab dengan token dan vektor dimensi tinggi. Tapi begini intinya: Algoritma TurboQuant bisa membuat penggunaan memori LLM enam kali lebih kecil. Enam kali, Majikan! Bayangkan, asisten rumah tangga Anda yang biasanya butuh satu truk kontainer untuk belanja bulanan, kini cukup membawa tas belanja ramah lingkungan.

Apa artinya ini bagi kita para Majikan?
Pertama, penggunaan energi yang lebih rendah. Mungkin, model AI sekuat Gemini nanti bisa jalan mulus di ponsel pintar Anda tanpa bikin baterai bocor kayak ember. Kedua, penggunaan RAM yang lebih sedikit. Kabar baik di tengah krisis RAM yang tak kunjung usai. Algoritma seperti ini jelas membantu LLM memanfaatkan pusat data lebih efisien. Bayangkan, server yang tadinya cuma bisa menampung satu robot, kini bisa menampung enam robot sekaligus tanpa perlu membangun ‘kos-kosan’ baru.

Baca juga artikel menarik lainnya di kategori Update Algoritma.

Secara paradoks, efisiensi ini bisa jadi masalah bagi ekonomi AI, setidaknya dalam strukturnya saat ini.

NVIDIA: Dari Raja Chip ke Raja Galau?

Selama tiga tahun terakhir, saham teknologi melambung tinggi berkat satu nama: NVIDIA. Perusahaan ini jaya karena asumsi bahwa kita sedang berada di tengah-tengah ‘pembangunan infrastruktur terbesar dalam sejarah’, seperti kata CEO Jensen Huang. Sebuah ledakan pusat data, di mana NVIDIA akan menjadi pemasok chip utama.

Tapi, pembangunan infrastruktur ini, jika kita lihat data pusat data yang benar-benar dibangun versus yang cuma ‘janji manis’ belaka, sudah mulai tersendat. Investigasi New York Times baru-baru ini memperjelasnya. Apa hambatannya? Bukan cuma penolakan dari warga yang khawatir, termasuk NAACP, tapi juga urusan perizinan, aplikasi, inspeksi, dan tetek bengek birokrasi lokal yang tidak seksi tapi seringkali merepotkan. Belum lagi masalah kekurangan pembangkit dan transmisi listrik, yang tidak sejalan dengan kemampuan industri AI yang bak ‘vampir’ menyedot listrik dan air.

Ketika hasrat untuk AI yang lebih banyak berbenturan dengan kenyataan infrastruktur yang pas-pasan, muncullah pepatah lama: kebutuhan adalah ibu dari penemuan. Kita belajar melakukan lebih banyak dengan lebih sedikit. Dan inilah yang dilakukan oleh TurboQuant.

Mungkin Anda perlu upgrade ‘akal’ Anda dalam menguasai AI. Jangan sampai robot-robot ini terlalu cerdas sementara Anda masih berkutat dengan hal-hal dasar. Ikuti program AI Master agar Anda tetap menjadi Majikan, bukan babu teknologi yang cuma bisa mengagumi tanpa memahami.

Penemuan Google ini adalah tamparan keras bagi narasi ‘boros’ yang selama ini mendominasi industri AI. Bos NVIDIA mungkin perlu kembali ke meja gambar, karena masa depan chip mungkin bukan lagi tentang yang paling besar, melainkan yang paling ‘kurus’ dan cerdik.

Kompresi Ala ‘Silicon Valley’ (Tapi Versi Google yang Halal)

Penjelasan teknisnya: TurboQuant ini seperti juru masak handal yang tahu cara menghemat bahan baku. Ada dua ‘kemacetan’ energi ketika model AI mencari informasi yang sering digunakan. Yang satu disebut key-value cache, ibarat perpustakaan super panas yang menyimpan informasi paling sering dicari. Yang lain adalah vector search, yang mencocokkan hal-hal yang terlihat sama.

TurboQuant secara efektif melumasi keduanya sekaligus, membuat pengambilan memori lebih cepat, lebih lancar, dan tidak terlalu membebani. Dokumen Google mengatakan TurboQuant ‘membantu menghilangkan kemacetan cache key-value dengan mengurangi ukuran pasangan key-value’, sebagian dengan langkah ‘cerdik’ ‘memutar vektor data secara acak’.

Sudah paham? Kalau tidak, ya tidak apa-apa. Yang penting Anda tahu bahwa ada bidang matematika komputasi yang sangat kompleks dan menjanjikan ini, yang bekerja seperti algoritma kompresi zaman dulu. Dulu ada file ZIP yang bikin ukuran dokumen jadi mini, lalu kompresi video yang melahirkan revolusi streaming, dan sekarang giliran AI. Hasilnya? LLM yang lebih powerful bisa berjalan sepenuhnya di ponsel Anda, atau bisa juga menyebabkan ekonomi global hancur, atau bahkan keduanya sekaligus. Hidup di tahun 2026 memang liar, ya?

Artikel ini dirangkum dari sumber asli di “Mashable.com”.
Gambar oleh: Thomas Fuller/NurPhoto via TechCrunch

Leave a Reply

Your email address will not be published. Required fields are marked *