Ringkasan Inti: Melatih model besar memerlukan pembangunan atau peningkatan pusat data. Namun, infrastruktur terpusat kini menghadapi batas fisik yang keras. Untuk meningkatkan kemampuan infrastruktur, AI digunakan untuk menciptakan skala dan hasil kecerdasan yang lebih besar. Namun, kontrol atas daya komputasi menjadi simpul kekuatan kunci dalam industri AI. Saat itulah, Gonka hadir. Protokol Gonka adalah jaringan global tanpa izin yang dapat diikuti oleh siapa saja, meminta perutean secara terprogram antara peserta terdistribusi. Dalam dialog eksklusif dengan Analytics Insight, Pendiri Bersama dan Manajer Produk Senior Gonka, Anastasia Matveeva, membahas bagaimana mereka berinovasi dalam cara memperoleh daya komputasi untuk membangun ekosistem AI yang lebih terkendali dan aman.
T: Diskusi publik tentang AI banyak berfokus pada sentralisasi model, tetapi sedikit perhatian diberikan pada sentralisasi daya komputasi. Mengapa kontrol atas daya komputasi menjadi simpul kekuatan kunci dalam industri AI? Risiko apa yang dibawa oleh sentralisasi ini terhadap inovasi dan pasar secara keseluruhan?
J: Diskusi publik sering berfokus pada model karena model terlihat. Namun, inti kekuatan sebenarnya berada di lapisan yang lebih mendasar—daya komputasi, yang merupakan lapisan dasar yang menentukan siapa yang dapat membangun, menerapkan, dan memperluas sistem AI.
Kontrol daya komputasi menjadi kritis karena alasan ekonomi dan fisik. Hambatan utama AI modern bukan lagi algoritma, tetapi kemampuan memperoleh GPU, listrik, dan kapasitas pusat data.
Melatih model besar semakin memerlukan pembangunan atau peningkatan pusat data. Namun, infrastruktur terpusat sedang menghadapi batas fisik: kepadatan energi, kendala pendinginan, dan kapasitas pasokan listrik maksimum yang dapat ditangani di satu lokasi. Industri sedang mencoba solusi ekstrem—mendesain ulang chip, sistem pendingin, dan sumber energi baru.
Sentralisasi ini membawa konsekuensi sistemik.
Pertama, ini membangun hambatan inovasi struktural. Akses daya komputasi menjadi hak istimewa infrastruktur, bukan kompetisi berbasis kemampuan. Tim kecil, peneliti independen, bahkan seluruh wilayah tersingkir karena harga, ruang eksperimen menyempit, dan inovasi cenderung konservatif.
Kedua, sentralisasi daya komputasi memperkuat model “pengambilan sewa”. AI berpotensi menciptakan “kelimpahan”—kecerdasan pada dasarnya dapat direplikasi—tetapi ketika infrastruktur dasar langka dan dikendalikan, kelimpahan ini ditekan secara artifisial. Pasar beralih ke model berlangganan, efek penguncian, dan kekuatan penetapan harga, bukan penurunan biaya dan akses luas.
Ketiga, ini membawa kerapuhan sistemik. Ketika daya komputasi canggih terkonsentrasi di sedikit operator dan lokasi geografis, gangguan regulasi, politik, atau fisik akan memengaruhi seluruh ekosistem AI. Ketergantungan menjadi struktural, bukan opsional.
Yang lebih penting, daya komputasi tidak netral. Siapa yang mengendalikan daya komputasi, secara tidak langsung menentukan apa yang layak, diizinkan, dan berkelanjutan secara ekonomi. Ketika kontrol ini terpusat, tata kelola AI akan terbentuk secara default, bukan melalui desain.
Risikonya bukan hanya monopoli, tetapi distorsi jangka panjang dari trajectory AI: lebih sedikit pembangun, keragaman aplikasi yang lebih rendah, inovasi perangkat keras yang lebih lambat, dan infrastruktur yang tidak dapat memenuhi ambisi model generasi berikutnya.
Oleh karena itu, daya komputasi harus dipandang sebagai infrastruktur dasar—arsitektur yang dapat diperluas secara ekonomi dan fisik, sangat penting untuk masa depan AI.
T: Banyak platform daya komputasi AI—baik terpusat maupun terdesentralisasi—mengklaim efisien. Metrik apa yang benar-benar penting saat mengevaluasi efisiensi sistem daya komputasi AI? Di mana biasanya model-model ini menghadapi batasan praktis?
J: Efisiensi daya komputasi sering dianggap sebagai konsep pemasaran. Sebenarnya, hanya sedikit metrik spesifik yang benar-benar penting, mencakup kinerja sisi pengguna, efisiensi operasional penyedia, dan struktur insentif yang mengatur keduanya.
Bagi pengguna, efisiensi berarti kecepatan dan transparansi biaya.
Kecepatan mengacu pada latensi di bawah permintaan nyata. Hub terpusat biasanya memiliki keunggulan karena lokasi fisik bersama. Tetapi jika blockchain hanya berfungsi sebagai lapisan keamanan dan tidak berpartisipasi dalam jalur eksekusi waktu nyata, arsitektur terdesentralisasi dapat mencapai kinerja yang mirip. Selama permintaan diproses di luar rantai (off-chain), protokol itu sendiri tidak menambah latensi.
Transparansi biaya juga penting. Meskipun “biaya per token” adalah KPI umum, transparansi integritas model sering kali tidak ada. Dalam lingkungan terpusat, produk mungkin adalah kotak hitam. Pada puncak permintaan, penyedia dapat menyesuaikan konfigurasi model untuk mempertahankan keuntungan, perubahan ini biasanya tidak terlihat, tetapi dapat memengaruhi kualitas output. Efisiensi sejati memerlukan harga yang mencerminkan akurasi komputasi yang konsisten.
Bagi penyedia, efisiensi adalah keseimbangan antara utilisasi GPU dan elastisitas.
Operator terpusat unggul dalam utilisasi, dalam lingkungan lokasi bersama GPU dapat beroperasi mendekati kapasitas penuh, tetapi kurang elastis, menanggung biaya menganggur selama masa permintaan rendah.
Jaringan terdesentralisasi mengorbankan utilisasi sampai batas tertentu untuk mendapatkan elastisitas, tetapi harus meminimalkan overhead konsensus dan verifikasi, memungkinkan daya komputasi didistribusikan ulang di antara berbagai beban kerja sesuai permintaan.
Yang paling penting adalah desain insentif.
Ketika penghasilan dikaitkan dengan beban kerja AI yang lebih cepat, lebih murah, dan dapat diverifikasi, optimasi menjadi struktural. Peserta didorong untuk meningkatkan efisiensi perangkat keras, mengurangi latensi, mencoba chip khusus.
Sebaliknya, jika hadiah atau bobot tata kelola terutama dikaitkan dengan kepemilikan modal, arah optimasi akan menyimpang dari kinerja infrastruktur, dan inefisiensi akan dikukuhkan.
Di Gonka, efisiensi tertanam di lapisan protokol: hampir 100% daya komputasi digunakan untuk beban kerja AI nyata (terutama inferensi). Penghasilan dan bobot tata kelola didasarkan pada kontribusi daya komputasi yang terukur, bukan kepemilikan modal.
Efisiensi sejati hanya muncul ketika sebagian besar daya komputasi digunakan untuk tugas nyata, insentif memberi hadiah untuk kontribusi yang terverifikasi, dan overhead internal tidak tumbuh tak terkendali dengan skala jaringan.
T: Apakah jaringan daya komputasi AI terdesentralisasi mungkin menggunakan sebagian besar daya komputasi untuk beban kerja AI nyata, bukan untuk memelihara jaringan itu sendiri? Apa pilihan arsitektur kuncinya?
J: Ini mungkin—tetapi dengan syarat menganggap overhead sebagai batasan arsitektur inti, bukan sebagai produk sampingan yang tak terhindarkan dari desentralisasi.
Sebagian besar jaringan daya komputasi terdesentralisasi menggunakan banyak sumber daya untuk memelihara konsensus dan keamanan, bukan untuk beban kerja AI. Ini karena pekerjaan produktif dan mekanisme keamanan dipisahkan, menyebabkan komputasi berulang.
Untuk menggunakan sebagian besar daya komputasi untuk tugas AI nyata, diperlukan beberapa prinsip kunci:
Pertama, mekanisme keamanan dan pengukuran harus “dibatasi waktu”, bukan berjalan terus-menerus. Mekanisme pembuktian harus dipusatkan pada siklus pendek yang jelas, bukan terus-menerus mengonsumsi sumber daya. Di Gonka, ini dicapai melalui Sprint (siklus terstruktur dan terbatas waktu). Di luar siklus, sumber daya perangkat keras dapat digunakan untuk beban kerja AI nyata.
Kedua, mengurangi duplikasi melalui verifikasi selektif dan dinamis berdasarkan reputasi, bukan verifikasi replikasi penuh untuk setiap tugas. Pekerjaan peserta baru mungkin 100% diverifikasi; seiring dengan pembangunan reputasi, proporsi verifikasi dapat dikurangi hingga sekitar 1%. Total daya komputasi verifikasi dapat dikontrol di bawah sekitar 10%, sambil menjaga keamanan.
Peserta yang mencoba curang tidak akan mendapatkan hadiah, sehingga curang menjadi tidak masuk akal secara ekonomi.
Ketiga, hadiah dan bobot tata kelola harus dikaitkan dengan kontribusi daya komputasi yang terverifikasi, bukan kepemilikan modal.
Ketika konsensus ringan, verifikasi adaptif, dan insentif selaras dengan komputasi produktif, daya komputasi terdesentralisasi dapat benar-benar melayani beban kerja aktual.
T: Jaringan daya komputasi AI terdesentralisasi sering menekankan partisipasi terbuka, tetapi persyaratan infrastruktur dapat menciptakan hambatan masuk yang tinggi. Bagaimana sistem seperti itu dapat berskala sambil tetap dapat diakses oleh peserta dengan tingkat daya komputasi yang sangat berbeda?
J: Meskipun jaringan terdesentralisasi bertujuan untuk menurunkan hambatan masuk infrastruktur AI, kelangsungan hidup jangka panjang juga memerlukan persaingan dengan penyedia terpusat dan memenuhi permintaan dunia nyata. Kendala perangkat keras pada akhirnya bermuara pada satu persyaratan inti: kemampuan untuk menjalankan model yang benar-benar memiliki permintaan pasar.
Untuk mencapai skalabilitas sambil menjaga aksesibilitas, beberapa prinsip sangat penting.
Pertama, adalah akses infrastruktur tanpa izin. Pemilik GPU mana pun—baik operator perangkat tunggal, maupun pusat data besar—harus dapat bergabung dengan jaringan tanpa proses persetujuan atau mekanisme penjaga gerbang terpusat. Ini menghilangkan hambatan masuk struktural.
Kedua, adalah hadiah dan pengaruh proporsional berdasarkan daya komputasi yang terverifikasi. Dalam model berbasis bobot daya komputasi, kontribusi komputasi yang lebih tinggi secara alami akan membawa bagian tugas, bagian hadiah, dan bobot tata kelola yang lebih besar. Ini tidak membuat peserta kecil sepenuhnya setara dengan peserta besar—dan juga tidak seharusnya. Kuncinya adalah aturan seragam: pengaruh ditentukan oleh kontribusi komputasi aktual, bukan oleh modal, mekanisme delegasi, atau leverage keuangan.
Ketiga, adalah peran Kumpulan Daya Komputasi (Pools). Dalam sistem dengan persyaratan infrastruktur aktual, agregasi sumber daya akan muncul secara alami. Kumpulan daya komputasi memungkinkan peserta yang lebih kecil mengkonsolidasikan sumber daya, mengurangi volatilitas, dan berpartisipasi dalam beban kerja yang lebih besar.
Namun, arsitektur harus menghindari memberikan keunggulan struktural kepada kumpulan daya komputasi besar, atau mendorong konsentrasi pengaruh yang berlebihan. Kumpulan daya komputasi harus ada sebagai alat koordinasi, bukan menjadi mekanisme recentralisasi.
Pada akhirnya, penskalaan jaringan daya komputasi AI terdesentralisasi tidak boleh berarti meningkatkan hambatan masuk. Itu harus berarti meningkatkan kapasitas daya komputasi keseluruhan sambil mempertahankan aturan partisipasi yang netral, transparan, dan konsisten, sekaligus mempertahankan nilai ekonomi nyata yang diciptakan jaringan bagi pengguna. Akses terbuka, mekanisme ekonomi proporsional, dan tingkat konsentrasi yang terkendali, menentukan apakah suatu sistem tetap terdesentralisasi saat berkembang.
T: Mengapa pada saat ini, masalah daya komputasi AI terdesentralisasi menjadi sangat mendesak? Jika masalah ini tidak diselesaikan dalam beberapa tahun ke depan, apa menurut Anda konsekuensi jangka panjang bagi industri?
J: Kebutuhan mendesak ini mencerminkan AI yang beralih dari fase eksperimen ke fase infrastruktur.
Seperti disebutkan sebelumnya, daya komputasi telah menjadi hambatan fisik. Kemampuan ekspansi semakin tidak hanya dibatasi oleh modal, tetapi juga oleh energi, kepadatan daya, dan batasan pusat data. Secara bersamaan, akses ke GPU canggih dan infrastruktur skala sangat besar dipengaruhi oleh kontrak jangka panjang, konsentrasi perusahaan, dan prioritas strategis nasional.
Kombinasi ini memperdalam asimetri struktural. Mereka yang mengendalikan infrastruktur skala besar terus mengukuhkan keunggulan mereka, sementara hambatan masuk untuk tim kecil dan wilayah berkembang terus meningkat. Risikonya bukan hanya konsentrasi pasar, tetapi juga perluasan kesenjangan daya komputasi global.
Jika tren ini berlanjut, inovasi akan lebih bergantung pada kemampuan memperoleh infrastruktur, bukan pada ide itu sendiri. Pasar AI dapat mengeras menjadi model berbasis sewa, di mana kecerdasan diakses dalam kondisi yang ditetapkan oleh sedikit penyedia dominan.
Oleh karena itu, daya komputasi terdesentralisasi bukanlah debat ideologis. Ini adalah tanggapan terhadap batasan struktural yang terlihat—dan juga pilihan yang akan membentuk arsitektur jangka panjang industri AI.
T: Agen AI (AI agents) semakin banyak memesan sumber daya GPU secara mandiri. Bagaimana arsitektur Gonka mendukung integrasi mulus untuk ekonomi daya komputasi AI yang mengatur diri sendiri?
J: Kebangkitan AI yang diagenkan berarti sistem semakin banyak membuat keputusan otonom—termasuk memperoleh sumber daya komputasi. Dalam model seperti ini, daya komputasi menjadi aset inti dalam interaksi ekonomi antara agen.
Ekosistem seperti itu memerlukan akses terprogram, mekanisme ekonomi transparan, dan keandalan.
Pertama, integrasi harus mulus. Gonka menyediakan API yang kompatibel dengan OpenAI, memungkinkan sebagian besar agen AI terhubung tanpa mengubah arsitektur atau alur kerja mereka.
Kedua, ekonomi daya komputasi harus transparan dan digerakkan oleh sistem. Harga disesuaikan secara dinamis sesuai beban jaringan, bukan ditetapkan melalui kontrak. Pada tahap awal jaringan, biaya inferensi dirancang secara signifikan lebih rendah dari penyedia terpusat, karena peserta tidak hanya dikompensasi melalui biaya pengguna, tetapi juga melalui hadiah yang mirip dengan mekanisme penerbitan Bitcoin, yang proporsional dengan kapasitas daya komputasi yang tersedia.
Struktur ini memungkinkan agen AI yang beroperasi dalam anggaran untuk menjalankan beban kerja secara efisien. Seiring perkembangan jaringan, parameter penetapan harga akan tetap menerima tata kelola komunitas.
Ketiga, keandalan ditingkatkan pada tingkat protokol. Dalam lingkungan terpusat, keandalan berasal dari sertifikasi dan perjanjian tingkat layanan. Dalam infrastruktur terdesentralisasi, keandalan didukung oleh kode sumber terbuka, audit pihak ketiga, serta bukti penyelesaian komputasi yang terukur di rantai dan bukti kinerja jaringan.
Unsur-unsur ini bersama-sama memungkinkan agen AI meminta daya komputasi dan mengalokasikan anggaran dalam kerangka kerja yang transparan. Dengan cara ini, Gonka menyediakan dasar infrastruktur untuk ekonomi daya komputasi AI yang mengatur diri sendiri, memungkinkan agen tidak hanya menjalankan tugas tetapi juga secara dinamis mengoptimalkan sumber daya yang mereka andalkan.
T: Ketidakpastian regulasi seputar teknologi terdesentralisasi semakin meningkat. Bagaimana Gonka secara proaktif menangani masalah kedaulatan data dan kepatuhan tata kelola AI di pasar global yang terfragmentasi?
J: Dalam konteks daya komputasi terdesentralisasi, tantangan utamanya adalah menyeimbangkan keterbukaan jaringan dengan persyaratan yurisdiksi yang beragam dan terus berkembang.
Gonka adalah jaringan global tanpa izin—siapa pun dapat bergabung, permintaan akan dirutekan secara terprogram antara peserta terdistribusi. Pada tahap saat ini, pengguna tidak dapat mengontrol secara deterministik lokasi geografis tempat permintaan mereka diproses. Untuk kasus penggunaan dengan persyaratan residensi data atau pemrosesan regional yang ketat, ini saat ini mungkin merupakan batasan.
Namun, dari sudut pandang privasi, arsitektur ini mengurangi sentralisasi data. Setiap permintaan diproses oleh peserta yang dipilih secara acak dan dirutekan secara independen, sehingga mencegah akumulasi riwayat pengguna lengkap. Sejauh ini, model ini telah mencakup sebagian besar kasus penggunaan praktis, sambil memungkinkan jaringan untuk berskala.
Seiring pertumbuhan jaringan dan permintaan pasar menjadi lebih jelas, mekanisme tata kelola memungkinkan peserta untuk mengusulkan dan memilih perubahan arsitektur untuk mendukung persyaratan regulasi tertentu. Perubahan ini mungkin termasuk: subnet khusus dengan kriteria partisipasi tambahan, batasan operasional untuk yurisdiksi tertentu, atau jaminan tingkat perangkat keras untuk beban kerja perusahaan, seperti Trusted Execution Environments (TEE).
Desentralisasi tidak menghilangkan kewajiban kepatuhan. Ini menyediakan fleksibilitas arsitektur. Desain Gonka memungkinkan jaringan berevolusi sesuai dengan permintaan regulasi dan pasar, bukan terkunci sejak awal dalam model kepatuhan tunggal.







