Penulis: Nancy, PANews
Media sosial saat ini, meskipun terlihat ramai, "rasa keberadaan manusia" perlahan menghilang. Ketika banyak sampah AI (AI slop) membanjiri platform-platform utama, konten palsu dan pencarian klik berlebihan merajalela, semakin banyak pengguna nyata kehilangan keinginan untuk berbagi, bahkan mulai meninggalkan platform.
Menghadapi banjirnya sampah AI, pemeriksaan algoritma sederhana sudah tidak memadai. Baru-baru ini, firma venture capital ternama a16z mengusulkan konsep Staked Media, menggunakan uang sungguhan untuk menyaring noise AI, menarik perhatian pasar.
Ketika AI Mulai Mereplikasi Diri, Internet Tenggelam dalam "Konten Prakarya"
"AI mulai meniru AI."
Baru-baru ini, moderator "Reddit Amerika" kewalahan, mereka berjuang melawan banjir konten yang dihasilkan AI. Moderator subreddit r/AmItheAsshole yang memiliki 24 juta pengguna bahkan mengeluh bahwa lebih dari setengah konten ternyata dihasilkan oleh AI.
Hanya dalam paruh pertama tahun 2025, Reddit telah menghapus lebih dari 40 juta konten sampah dan palsu. Fenomena ini juga menyebar seperti virus ke platform seperti Facebook, Instagram, X, YouTube, Xiaohongshu, dan TikTok.
Saat ini, di era di mana informasi terlihat meledak tetapi suara nyata semakin sedikit, sampah konten produksi AI hampir memenuhi seluruh internet, secara diam-diam menggerogoti pemikiran orang. Sebenarnya, dengan meluasnya alat generatif seperti ChatGPT dan Gemini, pembuatan konten manual sedang digantikan oleh AI, berubah menjadi "pabrik lini perakitan".
Menurut penelitian terbaru dari perusahaan optimisasi mesin pencari Graphite, sejak ChatGPT dirilis secara publik pada akhir 2022, proporsi artikel yang dihasilkan AI melonjak drastis, dari sekitar 10% pada tahun itu menjadi lebih dari 40% pada tahun 2024. Hingga Mei tahun ini, proporsi ini naik menjadi 52%.
Namun, sebagian besar konten yang dihasilkan AI ini seperti "makanan prakarya", memiliki resep tetap dan proses produksi standar, tetapi kurang jiwa, membosankan. Tidak hanya itu, AI sekarang tidak canggung lagi, mereka tidak hanya bisa meniru nada bicara manusia, bahkan bisa mereplikasi emosi. Dari panduan perjalanan hingga konflik emosional, bahkan provokasi perpecahan sosial yang disengaja untuk mencari流量 (liúliàng - traffic), AI bisa melakukannya dengan mudah.
Yang lebih fatal adalah, ketika AI berhalusinasi, ia akan berbicara omong kosong dengan serius, tidak hanya menghasilkan sampah informasi, tetapi juga memicu krisis kepercayaan.
Di Era Banjir AI, Gunakan Uang Sungguhan untuk Membangun Kepercayaan Media
Menghadapi konten sampah AI yang merajalela di internet, bahkan jika platform memperbarui mekanisme pemeriksaan dan memperkenalkan bantuan AI, efektivitas tata kelola masih terbatas. Dalam laporan tahunan penting yang dirilis oleh a16z crypto, Robert Hackett mengusulkan konsep "Staked Media". (Bacaan terkait: a16z: 17 Arah Baru Kripto yang Menarik untuk 2026)
Laporan tersebut menunjukkan bahwa model media konvensional mengklaim objektivitas, tetapi kelemahannya telah lama terlihat. Internet memberi setiap orang saluran untuk bersuara, sekarang semakin banyak praktisi, pelaku, dan pembangun yang menyampaikan pandangan langsung ke publik, perspektif mereka mencerminkan kepentingan mereka di dunia. Ironisnya, audiens menghormati mereka, seringkali bukan "meskipun mereka memiliki kepentingan", tetapi "justru karena mereka memiliki kepentingan".
Perubahan baru dalam tren ini bukanlah kebangkitan media sosial, tetapi "munculnya alat kripto", alat-alat ini memungkinkan orang membuat komitmen yang dapat diverifikasi secara publik. Ketika AI membuat biaya menghasilkan konten massal turun drastis dan prosesnya lebih mudah (dapat menghasilkan konten berdasarkan perspektif atau identitas apa pun tentang benar atau salah), hanya mengandalkan perkataan manusia (atau bot) sudah tidak cukup meyakinkan. Aset tokenisasi, programmable lock-up (penguncian terprogram), prediction market (pasar prediksi), dan catatan sejarah on-chain memberikan dasar yang lebih kuat untuk kepercayaan: komentator dapat membuktikan bahwa mereka berjalan sesuai ucapan saat menyampaikan pendapat (mendukung pandangan dengan dana); podcaster dapat mengunci token, membuktikan bahwa mereka tidak akan berubah posisi secara oportunis atau pump and dump; analis dapat mengikat prediksi dengan pasar yang menyelesaikan secara publik, membentuk catatan yang dapat diaudit.
Inilah bentuk awal dari apa yang disebut "Staked Media": jenis media yang tidak hanya mengakui gagasan kepentingan terkait, tetapi juga dapat memberikan bukti nyata. Dalam model ini, kredibilitas tidak berasal dari pura-pura netral, bukan dari klaim tanpa dasar, tetapi dari komitmen kepentingan yang transparan, publik, dan terverifikasi. Staked Media tidak akan menggantikan bentuk media lain, tetapi merupakan pelengkap bagi ekosistem media yang ada. Ini mengirimkan sinyal baru: bukan lagi "percayalah, saya netral", tetapi "inilah risiko yang saya bersedia tanggung, inilah cara Anda dapat memverifikasi bahwa kata-kata saya benar".
Robert Hackett memperkirakan, bidang ini akan terus tumbuh, seperti media massa abad ke-20 yang beradaptasi dengan teknologi dan insentif saat itu (menarik audiens dan pengiklan massal), secara permukaan mengejar "objektivitas" dan "netralitas". Sekarang, AI membuat membuat atau memalsukan konten apa pun menjadi mudah, yang benar-benar langka justru adalah bukti, mereka yang dapat membuat komitmen terverifikasi dan benar-benar mendukung klaim mereka sendiri, justru lebih unggul.
Manfaatkan Mekanisme Staking untuk Meningkatkan Biaya Pemalsuan, Usulkan Memperkenalkan Mekanisme Verifikasi Konten Ganda
Gagasan inovatif ini juga mendapat pengakuan dari pelaku kripto dan memberikan saran.
Analis kripto Chen Jian menyatakan, dari media besar ke media mandiri, berbagai berita palsu muncul tanpa henti, sebuah peristiwa bisa dilaporkan berulang kali dengan pembalikan. Akar penyebabnya adalah biaya pemalsuan rendah, keuntungan tinggi. Jika setiap penyebar informasi dilihat sebagai sebuah node, mengapa tidak menggunakan mekanisme permainan ekonomi Proof-of-Stake (POS) blockchain untuk menyelesaikan masalah ini? Dia menyarankan, misalnya setiap node perlu mempertaruhkan dana sebelum menyampaikan pendapat, semakin banyak yang dipertaruhkan, semakin tinggi tingkat kepercayaannya; sementara orang lain dapat mengumpulkan bukti untuk menantangnya, jika tantangan berhasil, sistem akan menyita dana jaminan dan memberi hadiah kepada penantang. Tentu, proses ini juga melibatkan masalah privasi dan efisiensi, saat ini ada solusi seperti Swarm Network yang menggabungkan ZK dan AI, melindungi privasi peserta, juga menggunakan analisis data multi-model untuk membantu verifikasi, mirip dengan fungsi verifikasi kebenaran Grok di Twitter.
KOL kripto Lan Hu juga berpendapat, teknologi kripto seperti zero-knowledge proof (zk) dapat memungkinkan media atau individu membuktikan kredibilitas mereka secara online, mirip dengan "membuat pernyataan tertulis" online, dan tidak dapat diubah setelah di-chain. Tetapi pernyataan tertulis saja tidak cukup, perlu "staking" sejumlah aset sebagai jaminan, seperti ETH, USDC, atau token kripto lainnya.
Logika mekanisme staking sangat langsung, jika konten yang dipublikasikan terbukti berita palsu, aset yang dipertaruhkan akan disita; jika kontennya benar dan dapat diandalkan, aset yang dipertaruhkan akan dikembalikan setelah waktu tertentu, bahkan mungkin mendapatkan hadiah tambahan (seperti token yang diterbitkan media staking atau bagi hasil dari dana yang disita dari pemalsu). Mekanisme ini menciptakan lingkungan yang mendorong berkata jujur. Bagi media, staking memang menambah biaya dana, tetapi yang didapat adalah kepercayaan audiens yang nyata, ini sangat penting di era banjir berita palsu.
Sebagai contoh, seorang YouTuber merilis video merekomendasikan suatu produk, perlu "membuat pernyataan tertulis" on-chain di Ethereum dan mempertaruhkan ETH atau USDC. Jika konten video tidak benar, dana jaminan akan disita, penonton则可以 (zé kěyǐ - kemudian dapat) percaya pada keaslian konten video dengan tenang; blogger merekomendasikan sebuah ponsel, perlu mempertaruhkan ETH senilai 100 dolar AS dan menyatakan: "Jika fungsi kecantikan ponsel ini tidak mencapai efek yang dijanjikan, saya akan mengganti rugi." Penonton melihat blogger mempertaruhkan dana, secara alami merasa lebih dapat diandalkan. Jika kontennya dipalsukan oleh AI, blogger akan kehilangan dana jaminannya.
Untuk menilai benar salahnya konten, Lan Hu menyarankan dapat menggunakan mekanisme verifikasi ganda "komunitas + algoritma". Dari sisi komunitas, pengguna dengan hak suara (perlu mempertaruhkan aset kripto) memberikan suara on-chain, jika melebihi proporsi tertentu (misalnya 60%) dinilai palsu; bantuan algoritma: melalui analisis data untuk membantu verifikasi hasil voting; mekanisme arbitrase: jika penerbit konten tidak menerima keputusan, dapat mengajukan arbitrase ke komite ahli; jika ditemukan pemilih memanipulasi dengan jahat, sita aset pemilih; berpartisipasi dalam voting dan komite ahli都有奖励 (dōu yǒu jiǎnglì -都有奖励 - semua mendapat hadiah), sumber hadiah termasuk dana sitaan dan token media. Selain itu, pembuat konten dapat menggunakan teknologi zero-knowledge proof, menghasilkan bukti keaslian konten dari sumbernya, misalnya menghasilkan bukti sumber asli video.
Untuk orang dengan kekuatan keuangan yang mencoba memalsukan menggunakan mekanisme staking, Lan Hu menyarankan meningkatkan biaya pemalsuan jangka panjang, tidak hanya dana, tetapi juga waktu, catatan sejarah, sistem reputasi, dan tanggung jawab hukum. Misalnya akun yang disita akan ditandai, kemudian mempublikasikan konten perlu mempertaruhkan lebih banyak dana; jika akun beberapa kali disita, kredibilitas kontennya akan turun drastis; yang parah bahkan mungkin menghadapi penuntutan hukum.






