Oleh | Xiang Xian
Liu Cixin dalam "The Three-Body Problem" menuliskan sebuah citra yang kemudian dikutip tanpa henti—Hutan Gelap. Setiap peradaban adalah pemburu bersenjata; siapa yang pertama membuka diri, dialah yang pertama mati. Di hutan itu bukan tidak ada orang, tetapi setiap orang tahu menyalakan lampu akan mengundang peluru, jadi semua mematikan lampu.
Musim semi 2026, laboratorium AI top memasuki hutan gelap seperti ini.
16 April, Anthropic memimpin dengan merilis Claude Opus 4.7. Di hari yang sama, mereka melakukan sebuah tindakan tidak biasa—mengakui secara terbuka bahwa kinerja Opus 4.7 tidak sebaik model yang belum dirilis bernama Mythos, dengan alasan safety concerns (pertimbangan keamanan).
23 April, OpenAI memasang GPT-5.5 di situs resmi mereka. Di hari yang sama, Anthropic kembali memposting laporan investigasi insiden berjudul "An update on recent Claude Code quality reports" di blog resmi, mengakui bahwa selama lebih dari sebulan Claude Code memang menjadi lebih bodoh—satu mengeluarkan kartu baru, satu lagi mengakui kesalahan. Tetapi "raja baru" ini hampir seperti sedang pamer: kami akui Claude sementara menjadi lebih bodoh—tapi jangan lupa, kami masih menyimpan satu Mythos yang belum dikeluarkan.
24 April, "kekuatan misterius dari Timur" DeepSeek V4 Preview diluncurkan; tim Liang Wenfeng untuk pertama kalinya mengumumkan secara resmi pengikatan mendalam model dengan Huawei Ascend 950PR; tetapi semua orang sudah paham—V4 Pro Max yang benar-benar "penuh darah" baru bisa dikeluarkan setelah super node Ascend 950 diproduksi massal pada paruh kedua tahun ini.
Tiga perusahaan, tiga tindakan. Di permukaan adalah ritme produk masing-masing, tetapi jika dilihat bersama, satu hal terungkap:
Setiap pihak memegang setidaknya satu "senjata"—sebuah model yang lebih kuat dari versi publik, sebuah arsitektur generasi berikutnya yang belum sampai ke publik, sebuah super node chip yang belum disebar luas. Tetapi tidak ada yang berani mengangkat senjata itu terlebih dahulu.
Karena di industri ini, harga "menyala pertama" tidak hanya sekadar bocor rahasia. Menyala pertama berarti menyerahkan batas kemampuan sendiri kepada lawan sebagai referensi; berarti memikul sendiri semua tembakan pengawasan ketat, tekanan regulasi, dan tekanan opini publik; berarti menjadikan diri sendiri target bergerak yang akan dibidik semua pesaing di babak berikutnya. Di hutan tidak ada pahlawan—setiap orang yang menembak pertama, menjadikan dirinya target bidikan berikutnya.
Jadi pilihan paling rasional bagi para pemburu adalah mematikan lampu, menahan napas, menyembunyikan senjata di belakang.
Ini adalah solusi optimal dalam permainan.
Kepercayaan Diri Anthropic
Di sisi Claude, dalam sebulan terakhir, hampir terjadi peluncuran versi terburuk.
Setelah memperbarui Opus 4.7 lebih awal, Anthropic masih mendominasi berbagai tangga lagu, dan masih menyimpan Mythos yang hanya disediakan untuk klien perusahaan—sikap yang santai dan tidak tergesa-gesa.
Tapi siklus Opus 4.7 ini hampir merupakan pengalaman pengguna terburuk Claude, "dihujani kritik".
Awal Maret, Anthropic mengubah kedalaman penalaran default Claude Code, dari high ke medium. Titik awal keputusan ini dapat dimengerti: dalam mode high, UI sering terlihat seperti macet, responsnya sangat lambat membuat pengguna berbayar frustasi. Masalahnya, saat itu mereka tidak mengumumkannya.
Akhir Maret, mereka meluncurkan "optimasi efisiensi"—jika sesi Claude Code menganggur lebih dari satu jam, sistem akan menghapus reasoning block lama. Secara desain, ini untuk menghemat daya komputasi. Efeknya saat dijalankan, setiap putaran dialog Claude seperti lupa, melupakan konteks dengan bersih. Komunitas pengembang dibanjiri keluhan minggu-minggu itu: "Claude mulai tidak ingat apa yang saya suruh di putaran sebelumnya."
Hingga baru-baru ini, hal ketiga terjadi—menambahkan instruksi kompresi verbosity dalam sistem prompt. Menurut pengakuan Anthropic sendiri kemudian, instruksi ini membuat kualitas pengkodean Claude Code langsung turun 3%.
Tiga hal ini bertumpuk, barulah ada senior director AMD yang menulis di GitHub—"Claude has regressed to the point it cannot be trusted to perform complex engineering" (Claude telah merosot hingga tidak dapat dipercaya lagi untuk menyelesaikan tugas teknik yang kompleks). Laporan Axios 16 April "Anthropic's AI downgrade stings power users" membawanya ke pandangan utama.
Kemudian Anthropic baru mengakui, memang ada sedikit masalah.
7 April, mereka secara diam-diam mengembalikan penyesuaian reasoning effort; 10 April memperbaiki bug cache; 20 April menarik sistem prompt kompresi verbosity. Tetapi laporan investigasi insiden yang sebenarnya, baru keluar pada 23 April—tepat di hari peluncuran resmi GPT-5.5.
Perasaan meremehkan dengan nada "oh, strategi teknik saya ada bug, perbaiki saja" ini, bersamaan dengan peluncuran besar-besaran OpenAI hanya berselang sesaat. Sulit dikatakan ini kebetulan.
Yang lebih menarik, saat Opus 4.7 diluncurkan, Anthropic sekaligus melakukan tindakan tidak biasa: mengakui secara terbuka bahwa kinerja Opus 4.7 tidak sebaik model yang belum dirilis—Mythos. Ini jelas merupakan "strategic retreat"—Anthropic menyimpan kemampuan terkuat di sisi enterprise, tidak terburu-buru meluncurkan ke publik, karena tim belum siap melepas Mythos.
Pernyataan ini bisa dipercaya. Tapi dari sudut pandang narasi bisnis, separuh lainnya sama nyatanya: Anthropic menunggu enam minggu baru mengakui secara terbuka Claude Code mengalami kemunduran, menunggu sampai hari OpenAI akan mengeluarkan kartu baru baru mengemukakan masalah. Jika bukan karena tekanan pesaing yang cukup besar, jika bukan karena Opus 4.7 sudah membuktikan "kami masih ada cadangan", pernyataan ini mungkin tidak akan pernah datang.
Di sisi Claude, memeras pasta gigi bukan berarti sengaja mengebiri kemampuan, tetapi: ritme pelepasan kemampuan, ritme pengungkapan masalah, semua mengikuti ritme pesaing.
Mengeluarkan kemampuan paling mutlak sendiri, pasti akan dijadikan sasaran tembak. Atau dengan kata lain, dalam pandangan Anthropic, tekanan yang ditimbulkan 4.6 terhadap pesaing belum juga hilang—jadi begitu, kartu yang lebih kuat tidak perlu dikeluarkan sekarang.
OpenAI Mengulangi Trik Lama
Jika Anthropic "menyembunyikan Mythos tidak dikeluarkan", maka sisi OpenAI memeras pasta gigi lebih tersembunyi—ia meninggalkan hak pelepasan kemampuan pada kurva beban server sendiri dan mekanisme pembagian tingkat called auto-router.
23 April, di hari yang sama dengan peluncuran GPT-5.5, Simon Willison (rekan pendiri framework Django, penguji independen terkenal di kalangan AI) menulis kalimat hati-hati di blognya: "It's not a dramatic departure from what we've had before." (Ini bukan lompatan dramatis dari yang kita miliki sebelumnya).
Dia sekaligus menambahkan informasi kunci: GPT-5.5 adalah model dasar yang dilatih ulang sepenuhnya oleh OpenAI pertama kali sejak GPT-4.5; dengan kata lain, 5.1, 5.2, 5.3, 5.4 yang dikeluarkan selama setengah tahun terakhir, semuanya hanya pembaruan tambahan. Artinya, empat pembaruan versi kecil sebelumnya, OpenAI merilis dengan menahan tenaga—karena mereka tidak tahu apa yang akan dikeluarkan pesaing.
"Memperbarui dengan menahan tenaga" memiliki penjelasan yang lebih mudah dipahami: memeras pasta gigi.
Tapi adegan yang lebih patut diingat terjadi beberapa jam setelah GPT-5.5上线. Pengguna Codex mengajukan Issue #19241 di GitHub, mengeluh Fast mode awalnya sangat cepat, setelah lebih banyak pengguna dimasukkan terlihat jelas melambat, sementara penagihan masih sesuai tingkat Fast. Kalimatnya familiar: "Harap OpenAI selidiki apakah GPT-5.5 Fast mode diturunkan levelnya di bawah beban tinggi."
Ini hampir merupakan pengulangan persis dari adegan hari peluncuran perdana GPT-5 pada 7 Agustus 2025—waktu itu, Reddit r/ChatGPT mendorong "GPT-5 is horrible" hingga 4600+ upvotes, Sam Altman keesokan harinya dalam AMA mengakui "the autoswitcher broke... GPT-5 seemed way dumber"—mengakui router di belakang layar telah menurunkan tingkat untuk pengguna.
Skrip yang sama, delapan bulan kemudian terulang lagi.
Yang lebih ironis, sehari sebelum peluncuran resmi GPT-5.5, Codex OpenAI secara tidak sengaja mendorong lingkungan staging internal ke lingkungan produksi, diambil screenshot oleh beberapa pengguna Pro, diperbaiki dalam beberapa menit, tetapi konten yang bocor sudah tersebar. Saat itu yang muncul di selector, selain GPT-5.5 sendiri, ada seri bernama Glacier (tooltip bertuliskan "Intelligence that moves continents"), model ilmu kehidupan bernama Heisenberg, model penggunaan tidak dikenal bernama Arcanine, serta beberapa versi dengan kode oai-2.1.
Artinya, pada saat yang sama OpenAI meluncurkan GPT-5.5 sebagai "generasi berikutnya", internal setidaknya menjalankan 5 hingga 6 lini produk paralel, masing-masing belum sampai ke publik.
OpenAI sendiri mengakuinya. Dalam peta jalan tahunan resmi 2026, mereka menggunakan istilah yang telah lama dibahas di kalangan akademis—capability overhang—mengakui ada gap besar antara kemampuan sebenarnya model besar saat ini dan efek yang dapat digunakan pengguna.
Familiar? Hampir sama dengan retorika Anthropic terhadap Mythos. Bahkan jika kebocoran Codex pada 22 April benar-benar kesalahan operasi, OpenAI secara aktif memasukkan kata capability overhang ke dalam peta jalan, sinyal yang disampaikan sudah jelas—kami masih punya banyak, terserah kalian.
Kamu memiliki jauh lebih banyak dari yang dijual ke pengguna, baru bisa memeras. 24 jam GPT-5.5, sekali lagi menjadikan prasyarat ini siaran langsung.
Kesabaran Deepseek
Di sisi DeepSeek, cara "memeras" benar-benar berubah—bukan menyembunyikan kemampuan, tetapi menunggu waktu pengiriman yang lebih tepat.
1.6T MoE, konteks 1M, spesifikasi ganda Pro/Flash, harga 3.48 per 1M tokens—beberapa puluh kali lebih murah dari GPT-5.5, perbedaan tingkat dengan Opus 4.7. Penguji independen luar negeri memberikan kesimpulan dua kalimat: kinerja mendekati tetapi sedikit di bawah GPT-5.4 / Gemini 3.1-Pro, harga "menghancurkan ekonomi laboratorium mutakhir".
Tapi dalam koordinat DeepSeek sendiri, V4 Preview sudah lebih mahal dari harga V3 yang "murah aneh" tidak sedikit. Semua orang tahu—ini bukan versi penuh darah.
Kisah lengkap DeepSeek V4, tidak berakhir dengan peluncuran, apalagi dimulai dengan peluncuran.
Harus diceritakan dari peluncuran R2 yang tidak jadi pada 2025. R2 rencananya diluncurkan Mei 2025, tetapi akhirnya ditunda hingga musim gugur dan dingin. Seluruh infrastruktur Deepseek China bermigrasi ke ekosistem CANN Huawei. Bagi laboratorium mana pun, ini bukanlah teknik yang dapat diselesaikan dalam satu kuartal—kompiler, operator, pustaka komunikasi, kerangka kerja inferensi, perutean MoE, semuanya harus ditulis ulang.
Dan V4 kali ini, adalah pertama kalinya DeepSeek secara resmi menulis Ascend ke dalam daftar perangkat keras pelatihan. V4 adalah versi pertama pelatihan campuran—Ascend pertama kali masuk.
Tapi chip generasi berikutnya Ascend 950DT yang dioptimalkan khusus untuk pelatihan skala besar, menurut peta jalan Huawei baru diproduksi massal Q4 2026. Artinya, pelatihan V4 dapat berjalan, disusun dengan 950PR generasi sebelumnya; untuk membuat versi penuh darah V4 Pro Max dengan 1.6T MoE ini dapat dilatih sepenuhnya dan didorong dalam skala besar, harus menunggu generasi berikutnya tersedia.
Kesulitan teknikal yang sebenarnya bukan "apakah V4 dapat dilatih"—sudah dilatih—tetapi "bagaimana V4 dapat berjalan penuh, stabil, dan murah di Ascend".
Ascend 950PR diproduksi massal Q1 2026, daya komputasi FP4 1.56 PFLOPS, memori on-chip 112GB, spesifikasi kertas setara dan melampaui Nvidia H20. Tapi dari satu chip dapat berjalan, hingga seluruh super node dapat melayani permintaan inferensi jutaan token/detik dengan stabil, adalah dua hal yang berbeda. Versi penuh darah V4 Pro Max, dikunci pada "super node" ini—versi klaster skala besar seri Ascend 950, tersedia berturut-turut paruh kedua 2026.
Ini membentuk strategi yang sangat berbeda dari dua perusahaan sebelumnya. Logika memeras pasta gigi Anthropic dan OpenAI adalah, saya punya yang lebih kuat, tidak diberikan dulu kepada Anda; logika memeras pasta gigi DeepSeek adalah, versi penuh darah saya, menunggu momen yang membuat harga turun satu tingkat lagi.
Perbedaan ini penting.
Senjata pamungkas DeepSeek yang sebenarnya从来 bukan "kinerja paling mutakhir", tetapi "dengan kinerja yang cukup, memotong harga token ke posisi yang tidak berani dipotong orang lain". V4 Preview telah diadaptasi pada kartu Nvidia dan Ascend 950PR, tetapi untuk mencapai inferensi penuh darah skala produksi, harus menunggu super node tersedia. Begitu momen itu tiba, dua hal akan terjadi bersamaan: pertama kemampuan V4 Pro Max dapat dilepaskan hingga puncak; kedua biaya inferensi, harga API akan turun satu tingkat lagi—bagi perusahaan yang menembus pasar dengan harga, yang terakhir lebih mematikan dari yang pertama.
Momen "DeepSeek" yang benar-benar dinantikan, yang terjadi pada awal 2025, tidak terulang lagi dalam peluncuran ini. Dan peluncuran V4 Preview sebenarnya adalah trailer, bagian utama yang sebenarnya, adalah momen "DeepSeek + Huawei Ascend" paruh kedua tahun ini.
Dari sudut pandang ini, yang dilakukan tim Liang Wenfeng sekarang bukan "menyembunyikan" terpaksa, tetapi sebuah "pilihan" yang terkendali secara komersial—memilih untuk menyerahkan peluncuran perdana versi terkuat, ke dalam skenario yang paling memiliki daya bicara: hari pertama setelah penyebaran skala besar super node domestik. Sebelum itu, gunakan V4 Preview untuk mengonsolidasi narasi harga-kinerja sekali lagi.
Beban DeepSeek从来 bukan narasi "papan teratas" membuat model besar domestik menduduki peringkat pertama di suatu daftar, tetapi narasi "sistematis" yang membuat empat lini chip, pelatihan, inferensi, penetapan harga berjalan bersamaan—yang terakhir jauh lebih penting dari yang pertama.
Beberapa hari yang lalu, Jensen Huang dalam podcast Dwarkesh Patel mengatakan, jika DeepSeek meluncurkan perdana di chip Huawei, "itu hasil yang mengerikan bagi negara kami" ("a horrible outcome for our nation").
Sekarang Nvidia masih mengendalikan daya komputasi canggih. Tapi menurut "kue lima lapis AI" yang diungkapkan Jensen Huang sendiri—energi, chip, infrastruktur, model, aplikasi—industri model besar domestik di setiap lapisan sudah memiliki solusi domestik yang dapat berjalan, kesenjangan menyusut dengan kecepatan yang terlihat jelas. Melengkapi potongan terakhir chip ini, kisah model besar sumber terbuka DeepSeek, adalah kisah yang lebih besar dari model besar AS: ini adalah langkah penting yang tidak perlu mengonsumsi terlalu banyak biaya, membuat dunia mencapai pemerataan kecerdasan.
Membuat seluruh dunia dapat melewati daya komputasi canggih yang dikuasai hegemoni tertentu, memasuki masyarakat cerdas yang efisien.
Penutup
"Menyembunyikan" Anthropic—adalah aktif. Mereka punya Mythos, tidak dikeluarkan, alasannya safety.
"Menyembunyikan" OpenAI—adalah struktural. Mereka punya tingkat Pro, tidak sering diberikan kepada Anda, alasannya infrastruktur dan stratifikasi harga.
"Menyembunyikan" DeepSeek—adalah必要. Ini menyangkut template narasi lompatan kecerdasan sosial secara keseluruhan.
Tapi dari sisi lain, ini sangat mirip dengan Hutan Gelap yang digambarkan Liu Cixin: di hutan kecerdasan gelap gulita ini, setiap pemburu puncak tidak akan menembakkan peluru mereka terlebih dahulu.
Terbuka berarti tanpa cadangan, berarti tidak memiliki kartu as, akan menjadi sasaran hidup pemburu lain.
Tidak ada yang tahu siapa yang akan menembakkan tembakan paling mematikan terlebih dahulu. Tapi yang pasti, setiap model yang Anda gunakan hari ini, bukanlah bentuk aslinya.








