Oleh | Gao Heng (Anggota Ahli Komite Khusus untuk Komunikasi Fiksi Ilmiah dan Industri Masa Depan, Perhimpunan Berita Sains dan Teknologi Tiongkok)
Setelah peluncuran DeepSeek V4, yang paling menarik untuk dilihat bukanlah skor benchmark, melainkan satu baris kecil di bawah tabel harga.
Dalam penjelasan harga V4, DeepSeek menyebutkan bahwa karena terbatasnya daya komputasi high-end, layanan versi Pro saat ini memiliki throughput yang sangat terbatas, dan diperkirakan harga Pro akan turun drastis setelah super node Ascend 950 diluncurkan secara massal pada paruh kedua tahun ini.
Kalimat ini mengandung lebih banyak informasi daripada banyak parameter teknis. Ini menunjukkan bahwa harga rendah DeepSeek tidak lagi semata-mata hasil dari optimasi teknik model, tetapi mulai terikat dengan ritme pasokan daya komputasi domestik. Di masa lalu, penurunan harga oleh perusahaan model biasanya dipahami sebagai peningkatan efisiensi algoritma, subsidi dari vendor, atau perang harga baru. Namun kali ini, DeepSeek secara langsung mengaitkan prasyarat penurunan harga di masa depan dengan penyebaran skala besar super node Ascend 950.
Ini juga yang benar-benar membedakan peluncuran V4 kali ini. Secara permukaan, ini adalah upgrade model biasa: 1,6 triliun parameter, konteks 100 ribu token, kemampuan kode dan Agen yang lebih kuat, harga API yang lebih rendah. Tetapi melihat lebih dalam, ini lebih seperti Liang Wenfeng sedang menjawab tiga pertanyaan sekaligus: apakah DeepSeek bisa terus membuat modelnya lebih murah; apakah daya komputasi domestik bisa masuk ke jalur kunci model mutakhir; apakah sebuah tim yang lama menunjukkan idealisme teknis, bisa menahan tekanan pendanaan, retensi talenta, dan komersialisasi.
Setahun terakhir, DeepSeek telah mengubah cara penetapan harga industri model besar Tiongkok. Setelah peluncuran V3 dan R1, vendor model dalam dan luar negeri dipaksa menghitung ulang harga API, biaya pelatihan, dan jalur komersialisasi. Dengan V4, masalahnya menjadi lebih kompleks. DeepSeek tidak hanya terus menurunkan harga, tetapi juga menempatkan langkah selanjutnya dari penurunan harga pada penyebaran skala besar daya komputasi domestik.Menurut pandangan penulis, ini berarti kompetisi model besar Tiongkok sedang beralih dari “model siapa yang lebih kuat” ke tahap “siapa yang dapat menghubungkan model, chip, sistem teknik, dan organisasi bisnis menjadi satu lingkaran tertutup”.
01 DeepSeekMembuat Konteks Panjang Menjadi Murah
Pada pagi hari 24 April, DeepSeek mengumumkan bahwa model seri baru DeepSeek-V4 versi preview telah resmi diluncurkan dan sekaligus open source.
Kali ini bukan model tunggal, tetapi dua versi diluncurkan bersamaan: DeepSeek-V4-Pro dan DeepSeek-V4-Flash. Menurut informasi yang diungkapkan DeepSeek, V4-Pro memiliki total parameter 1,6 triliun, parameter aktif 49 miliar, berorientasi pada tugas berkinerja tinggi; V4-Flash total parameter 284 miliar, parameter aktif 13 miliar, mengutamakan biaya rendah dan throughput tinggi. Kedua model menggunakan arsitektur MoE, yaitu “Model Pakar Campuran”.
Komentator industri teknologi terkenal Peng Deyu menganalisis kepada penulis: Logika MoE tidak rumit. Sebuah model besar internal dapat memiliki banyak “pakar”, tetapi setiap kali menjawab pertanyaan, tidak semua pakar perlu bekerja bersamaan, hanya memanggil sebagian yang paling relevan. Dengan cara ini, kapasitas model dapat diperbesar, tanpa membebani setiap panggilan dengan beban komputasi parameter penuh. Bagi pengguna, yang dirasakan adalah model yang lebih murah dan lebih cepat; bagi perusahaan model, kuncinya adalah biaya inferensi per unit ditekan.
Perubahan lain dari V4 adalah menjadikan konteks 100 ribu token sebagai layanan standar resmi. Kemampuan ini terdengar abstrak bagi pengguna biasa, tetapi dalam konteks penggunaan menjadi langsung: pengguna dapat sekaligus meminta model memproses satu buku utuh, satu basis kode yang cukup besar, satu laporan tahunan lengkap, atau satu set dokumen proyek yang kompleks. Di masa lalu, pemrosesan teks panjang semacam ini biasanya merupakan kemampuan tambahan model high-end, dengan harga tinggi, panggilan lambat, tekanan memori besar.Menurut pandangan penulis, fokus V4 bukanlah yang pertama mencapai konteks sejuta token, tetapi berusaha menjadikan konteks sejuta token sebagai kemampuan dasar berbiaya rendah.
Direktur Eksekutif Perusahaan Teknologi Qishijie Beijing, Li Rui, mengatakan kepada penulis: Ini juga perubahan paling bermakna secara praktis dari V4 kali ini. Konteks sejuta token hari ini bukan lagi kemampuan eksklusif, model seperti Gemini, Qwen juga telah mencapai level ini. Pertanyaan yang harus dijawab DeepSeek bukanlah “apakah bisa dilakukan”, tetapi “setelah dilakukan, apakah biayanya bisa ditanggung”. Jika konteks panjang masih mahal, itu hanya menjadi fitur bagi segelintir pengguna high-end; jika biaya ditekan, barulah mungkin menjadi infrastruktur yang dapat digunakan sehari-hari oleh perusahaan dan pengembang.
Seorang peneliti industri model besar mengatakan kepada penulis: Di balik ini yang diselesaikan adalah kontradiksi yang lama ada di industri model besar: semakin panjang konteks, semakin tinggi biayanya. Model tradisional untuk memahami teks panjang perlu menghitung banyak hubungan timbal balik antar token, teks semakin panjang, volume komputasi dan penggunaan memori semakin mudah naik. DeepSeek V4 tidak menghadapi masalah ini secara keras, tetapi melalui perhatian renggang dan mekanisme kompresi, pertama-tama mengompresi teks panjang, kemudian menangkap poin-poin penting. Dengan kata lain, ini bukan membuat model membaca ulang semua konten dari awal hingga akhir berulang kali, tetapi pertama-tama mengatur konten menjadi struktur informasi yang lebih terkonsentrasi, kemudian melakukan penalaran di sekitar poin-poin penting.
Harga meneruskan taktik DeepSeek yang konsisten. Menurut penetapan harga API yang diumumkan V4, harga input cache hit versi Pro adalah 1 yuan / juta token, output 24 yuan / juta token; harga input cache hit versi Flash adalah 0,2 yuan / juta token, output 2 yuan / juta token.Melihat perbandingan yang disusun, saat ini harga input cache hit GLM-5.1 Zhipu sekitar 1,3-2 yuan / juta token, harga input cache hit Kimi-K2.6 sekitar 1,1 yuan / juta token. Artinya, harga input V4 masih berada di posisi rendah dibandingkan model mainstream domestik.
Menurut pandangan penulis, yang benar-benar perlu diperhatikan kali ini adalah, harga rendah dan konteks panjang ditempatkan bersama. Konteks sejuta token bukan parameter terisolasi, ini menentukan apakah model dapat masuk ke alur kerja yang lebih berat. Kode, keuangan, hukum, penelitian ilmiah, basis pengetahuan perusahaan, skenario-skenario ini semuanya membutuhkan model untuk membaca bahan panjang, memproses struktur kompleks, mempertahankan konteks.
Perubahan kemampuan V4 juga berputar di sekitar skenario-skenario ini. Informasi evaluasi yang diungkapkan DeepSeek menunjukkan, V4-Pro dalam tugas-tugas matematika, STEM, kode kompetitif melebihi mayoritas model open source dalam evaluasi publik; dalam Agentic Coding masuk ke tim pertama model open source, dan digunakan internal DeepSeek sebagai alat pengkodean tim teknik. Ini juga telah beradaptasi dengan alat Agent mainstream seperti Claude Code, OpenClaw, CodeBuddy, mengoptimalkan performa dalam skenario pembuatan kode, pemrosesan dokumen, dan pemanggilan alat.
Tetapi ini tidak berarti V4 telah sepenuhnya membuka jarak.Ahli strategi penentuan posisi perusahaan Wu Yuxing menganalisis kepada penulis: Terobosan performa V4 dibandingkan dengan dampak yang dibawa R1 saat itu agak lebih kecil. Ini masih berada di tim pertama, tetapi dalam beberapa tugas Agent yang paling kompleks dan pengetahuan dunia yang paling luas, masih ada kesenjangan dengan model tertutup paling top.
Poin menarik V4 bukanlah “mengungguli secara keseluruhan”, tetapi menyediakan kemampuan konteks panjang dan tugas produksi yang cukup kuat dengan harga yang relatif rendah. Inilah makna pertama DeepSeek V4: Ini terus menekan ambang batas penggunaan model berkinerja tinggi. Tetapi yang lebih penting, DeepSeek mulai menjelaskan dengan apa lagi harga rendah ini dapat dipertahankan, jawabannya menunjuk pada daya komputasi domestik.
02 Langkah Selanjutnya yang Murah, Menunjuk pada Daya Komputasi Domestik
Poin paling kunci dari V4, tidak ada di tabel parameter, tetapi di penjelasan tentang Ascend 950 itu.
DeepSeek secara jelas menyebutkan dalam penjelasan harga bahwa karena terbatasnya daya komputasi high-end, layanan versi Pro saat ini memiliki throughput yang sangat terbatas, dan diperkirakan harga Pro akan turun drastis setelah super node Ascend 950 diluncurkan secara massal pada paruh kedua tahun ini. Sebuah perusahaan model mengikat penurunan harga di masa depan dengan ritme peluncuran cluster daya komputasi tertentu, ini tidak umum dalam industri. Ini menunjukkan bahwa harga model mulai ditentukan oleh struktur daya komputasi.
Di masa lalu, harga murah DeepSeek lebih dipahami sebagai kemenangan arsitektur model dan efisiensi teknik. V2 menggunakan MoE untuk mengurangi skala parameter aktif; R1 menggunakan jalur pelatihan dan inferensi yang lebih efisien untuk menantang ketergantungan industri pada penumpukan daya komputasi; V3 kemudian dengan kontrol biaya dan optimasi teknik yang maksimal, menghancurkan logika penetapan harga tradisional model umum.Setelah V3 dan R1, model besar domestik dipaksa masuk ke penilaian ulang harga baru. Tetapi perbedaan V4 adalah, DeepSeek mulai menempatkan langkah selanjutnya dari harga rendah pada penyebaran skala besar daya komputasi domestik.
Menurut laporan teknis DeepSeek, V4 melakukan paralelisme pakar granular halus di lapisan bawah sistem, yaitu skema EP. Dengan kata sederhana, mengoptimalkan cara penjadwalan model pada chip, membuat komputasi dan komunikasi tumpang tindih seperti jalur perakitan, mengurangi waktu tunggu chip. Kumpulan chip yang sama, jika dapat memproses lebih banyak permintaan, biaya inferensi per unit secara alami akan turun.
Laporan teknis menyebutkan, skema EP ini telah diselesaikan validasinya pada dua sistem GPU Nvidia dan NPU Huawei Ascend, tugas inferensi umum dapat mencapai percepatan 1,5-1,73 kali, dalam skenario sensitif terhadap latensi (seperti inferensi RL dan layanan agen berkecepatan tinggi) dapat mencapai hingga 1,96 kali. Pihak Huawei Ascend juga mengumumkan setelah peluncuran V4 bahwa seri produk super node mendukung model seri DeepSeek V4, dipahami bahwa Ascend 950 melalui penggabungan kernel dan teknologi paralel multi-aliran mengurangi komputasi Attention dan overhead akses memori, secara signifikan meningkatkan kinerja inferensi, dikombinasikan dengan berbagai algoritma kuantisasi, mencapai penyebaran inferensi model DeepSeek V4 dengan throughput tinggi dan latensi rendah.
Peng Deyu mengatakan kepada penulis: Makna dari informasi ini bukan hanya “inferensi lebih cepat”. Ini berarti optimasi teknik DeepSeek mulai memiliki kemampuan lintas platform. Di masa lalu, perusahaan model besar sebagian besar mengembangkan di sekitar sistem CUDA Nvidia. CUDA bukan hanya alat pemrograman, lebih seperti sistem operasi dasar di era AI. Sejumlah besar pengembang global, pustaka operator, kerangka kerja, dan kode model dibangun di sekitar CUDA, sekali meninggalkan sistem ini, banyak kode dasar perlu ditulis ulang, biaya teknik dan biaya pengujian sangat tinggi. Ini juga parit pelindung sebenarnya dari Nvidia.
Yang dilakukan DeepSeek sekarang, bukan segera menggulingkan CUDA, tetapi mencoba memberi diri mereka sendiri jalan kedua.Melihat informasi media yang komprehensif, DeepSeek melalui TileLang, Tile Kernels, dll., mengabstraksikan sebagian logika operator dasar dari jalur CUDA tunggal, mengekspresikan logika komputasi dengan bahasa yang lebih umum, kemudian oleh kompiler menghasilkan kode dasar yang disesuaikan dengan perangkat keras yang berbeda. Dengan cara ini, pengembang tidak perlu menulis ulang satu set kode lengkap untuk setiap GPU atau NPU, tetapi dapat menulis logika umum terlebih dahulu, kemudian mengoptimalkan untuk perangkat keras tertentu.
Ini penting untuk chip domestik. Chip AI domestik di masa lalu menghadapi bukan hanya masalah daya komputasi di atas kertas, tetapi juga masalah ekosistem perangkat lunak dan tingkat pemanfaatan yang efektif. Apakah chip dapat digunakan dengan baik, tergantung pada banyak link seperti model, operator, kompiler, komunikasi, manajemen memori. Jika DeepSeek dapat menjalankan model mutakhir pada Huawei Ascend, dan menekan biaya inferensi, yang dibawanya bukan hanya sebuah kasus adaptasi model, tetapi sebuah validasi teknik kolaborasi perangkat lunak dan perangkat keras.
Tetapi DeepSeek tidak segera melepaskan diri dari Nvidia, dalam jangka pendek, CUDA masih merupakan jalur paling matang dan stabil. Sinyal yang dilepaskan V4 adalah, daya komputasi domestik telah mulai masuk ke struktur biaya kunci DeepSeek, dan sampai batas tertentu mempengaruhi penetapan harga di masa depan. Ini belum menggulingkan CUDA, tetapi membuat CUDA tidak lagi terlihat sepenuhnya tidak tergantikan.
Inilah yang dikhawatirkan Huang Renxun. Pendiri Nvidia Huang Renxun baru-baru ini dalam wawancara dengan Dwarkesh Patel menyatakan, jika DeepSeek pertama kali merilis di platform Huawei, itu akan menjadi bencana bagi Amerika Serikat.Li Rui menunjuk, penilaian ini bukan karena skor benchmark DeepSeek tertentu melebihi siapa pun, tetapi karena begitu model open source top dapat berjalan stabil di sistem non-Nvidia, pengembang mungkin mulai mengubah kebiasaan. Model cukup baik, harga cukup rendah, toolchain semakin matang, migrasi tidak lagi hanya menjadi pilihan politik atau pilihan rantai pasokan, tetapi akan menjadi pilihan bisnis.
Jadi, makna kedua V4 adalah, logika harga rendah DeepSeek sedang beralih dari “didorong oleh optimasi model” ke “optimasi model + didorong oleh sistem daya komputasi”. Di masa lalu, harga model besar terutama ditentukan oleh efisiensi algoritma, biaya pelatihan, dan subsidi vendor; sekarang, harga mulai terikat dengan pasokan chip, penyebaran super node, efisiensi kolaborasi perangkat lunak dan perangkat keras. Bagi DeepSeek, ini adalah jalan menuju biaya yang lebih rendah; bagi Nvidia, ini adalah retakan yang sementara tidak besar, tetapi harus diwaspadai.
Hanya saja, kolaborasi perangkat lunak dan perangkat keras bukan bisnis aset ringan. Semakin dalam model tertanam dalam chip dan infrastruktur, biaya, tekanan organisasi, dan tekanan komersialisasi yang harus ditanggung DeepSeek juga semakin besar.
03 DeepSeekMulai Menjadi Berat
Inilah mengapa, sekitar peluncuran V4, berita Liang Wenfeng mulai menghubungi pendanaan eksternal tampaknya sama pentingnya.
Menurut laporan Sina Technology, baru-baru ini DeepSeek juga mencuatkan rencana pendanaan 50 miliar yuan, sumber dekat DeepSeek yang mengetahui mengungkapkan, valuasi pra-pendanaan DeepSeek adalah 300 miliar yuan, sekitar 44 miliar dolar AS, saat ini Tencent Holdings, Alibaba Group sedang dalam pembicaraan untuk berinvestasi di DeepSeek. Namun, untuk hal-hal terkait pendanaan, pihak DeepSeek hingga kini belum menanggapi secara langsung permintaan informasi media.
Valuasi spesifik bukan yang paling penting. Kuncinya adalah DeepSeek mulai membuka jendela pendanaan eksternal. Ini berarti kompetisi yang dihadapinya tidak hanya kemampuan model, tetapi meluas ke investasi daya komputasi, stabilitas talenta, insentif karyawan, dan kemampuan komersialisasi.
Hal ini penting bukan karena jumlah investasi apakah angka yang cukup besar. Di pasar pendanaan AI saat ini, ini tidak berlebihan. Yang penting adalah orang yang membuka pendanaan adalah Liang Wenfeng. DeepSeek sebelumnya lama dipandang sebagai perusahaan idealisme teknik yang langka, didukung oleh Fantasia Quant, tidak terburu-buru mengambil modal eksternal, juga tidak terburu-buru menceritakan kisah bisnis. Sekarang mulai menghubungi pendanaan eksternal, menunjukkan bahwa bentuk kompetisi setelah V4 menjadi lebih berat, juga ada tekanan: infrastruktur daya komputasi, insentif talenta, dan komersialisasi, semuanya membutuhkan pengaturan modal yang lebih stabil daripada sebelumnya.
Tekanan pertama berasal dari daya komputasi. Semakin dalam V4 masuk ke daya komputasi domestik, semakin membutuhkan investasi infrastruktur. Parameter model bergerak dari level miliaran ke triliunan, biaya pelatihan dan inferensi akan naik. Jika masih harus melakukan lebih banyak adaptasi, penyesuaian, dan penyebaran di sekitar sistem Ascend, DeepSeek tidak bisa hanya menjadi perusahaan model aset ringan.Saat ini DeepSeek sudah merekrut insinyur pemeliharaan pusat data di Ulanqab, Mongolia Dalam, ini adalah pertama kalinya merekrut talenta yang langsung bertanggung jawab atas operasi infrastruktur komputasi, ini juga dilihat oleh pihak luar sebagai sinyal pergerakannya ke arah infrastruktur daya komputasi yang lebih berat.
Tekanan kedua berasal dari talenta. Laporan berbagai media menunjukkan, saat ini dari DeepSeek yang dipastikan pergi sudah ada 5 orang ahli inti teknologi, mengalir ke perusahaan seperti ByteDance, Tencent, Xiaomi, Yuanrong Qixing, melibatkan arah model dasar, penguatan pembelajaran inferensi, multimodal, dan OCR. Di antaranya, Guo Daya (penulis inti DeepSeek R1) dilaporkan bergabung dengan tim Seed ByteDance; Wang Bingxuan (penulis inti DeepSeek LLM) bergabung dengan Hunyuan Tencent; Ruan Chong (berpartisipasi mendalam dalam pengembangan model multimodal DeepSeek-VL, VL2, seri Janus) bergabung dengan Yuanrong Qixing; Luo Fuli (pengembang kunci DeepSeek-V2, juga kontributor inti teknologi MLA) bergabung dengan Xiaomi; Wei Haoran (penulis inti seri DeepSeek OCR) tujuannya belum diumumkan.
Bagi sebuah perusahaan dengan total kurang dari 200 orang, aliran semacam ini bukan perubahan personel biasa. Media melaporkan, tim inti penelitian dan pengembangan DeepSeek sekitar 100 lebih orang, hampir tidak merekrut dari masyarakat, terutama mengandalkan lulusan baru dan magang yang dipertahankan. Dalam tim seperti ini, seorang peneliti inti pergi, mungkin mempengaruhi bukan satu posisi, tetapi kelangsungan satu garis teknik.
Ini tidak berarti organisasi DeepSeek tidak baik. Sebaliknya, kesan jangka panjang pihak luar terhadap DeepSeek justru memiliki cara organisasi yang sulit ditiru oleh perusahaan besar: tidak ada clock in/out, tidak menetapkan KPI, peneliti dapat membentuk tim secara bebas, juga dapat meneliti ide baru sendirian. Cara organisasi ini cocok untuk terobosan teknik awal, juga menjelaskan mengapa DeepSeek dapat terus membuat inovasi teknik yang berlawanan dengan akal sehat dalam beberapa tahun terakhir. Tetapi ketika industri masuk ke tahap yang lebih berat, masalahnya berubah. Talenta top tidak hanya melihat kebebasan kerja, tetapi juga arah teknik, investasi sumber daya, dan skenario implementasi. Perusahaan besar dapat sekaligus memberikan uang, daya komputasi, skenario produk, dan tim yang lebih besar.
Tekanan ketiga berasal dari komersialisasi. Sebelum peluncuran V4, App DeepSeek telah diubah pada 8 April, meluncurkan “Mode Ahli” yang mendukung penalaran kompleks dan “Mode Cepat” yang menangani tugas sederhana. Dengan peluncuran V4, pihak luar baru tahu, mode ahli sesuai dengan V4-Pro 1,6 triliun parameter, mode cepat sesuai dengan V4-Flash 284 miliar parameter. Perubahan ini menunjukkan, DeepSeek tidak hanya mengeluarkan model untuk digunakan pengembang, tetapi mulai memoles stratifikasi produk yang ditujukan untuk pengguna.
Peng Deyu menunjuk, ini memiliki ketegangan alami dengan jalur open source. Open source dapat dengan cepat membangun daya tarik teknik, juga memungkinkan pengembang dan mitra ekosistem menggunakan kembali jalur DeepSeek dengan lebih cepat. Tetapi open source biasanya berarti ruang laba yang lebih tipis, sensitivitas biaya yang lebih tinggi. Perusahaan tertutup seperti OpenAI, Anthropic dapat membangun lingkaran tertutup komersial yang lebih langsung melalui langganan, API, layanan perusahaan; Google, Amazon, Microsoft dapat mencerna biaya model dalam ekosistem komputasi awan dan ekosistem. DeepSeek tidak memiliki lapisan penyangga) komersial yang sudah jadi ini. Jika ingin terus bersikeras pada harga rendah, open source, dan penelitian model mutakhir, harus menemukan dukungan dana, daya komputasi, dan komersialisasi baru.
Li Rui mengatakan, jadi, peluncuran V4 dan pendanaan bukan dua hal yang independen. V4 adalah jawaban Liang Wenfeng kepada pasar, membuktikan DeepSeek masih dapat membuat model kuat, harga rendah, dan mendorong daya komputasi domestik ke jalur kunci. Pendanaan adalah jawabannya kepada tim, memberi ruang penyangga untuk investasi daya komputasi, opsi karyawan, stabilitas talenta, dan eksplorasi komersialisasi.
Wu Yuxing lebih lanjut mengatakan, di sini juga ada paradoks yang lebih realistis. Pendanaan dapat menyelesaikan penetapan harga saham, dapat meringankan tekanan daya komputasi, juga dapat membuat perusahaan lebih memiliki tawar-menawar dalam perebutan talenta. Tetapi pendanaan tidak dapat menyelesaikan semua masalah. Yang paling langka dari DeepSeek di masa lalu bukan uang, tetapi temperamen organisasi yang bersedia menaruh janji jangka panjang pada teknologi dasar, bersedia menghindari jalur mainstream untuk melakukan inovasi teknik. Begitu modal, komersialisasi, dan perang talenta perusahaan besar masuk bersamaan, yang harus dijaga DeepSeek bukan hanya keunggulan model, tetapi juga jalur teknik dan budaya organisasi aslinya.
Menurut pandangan penulis, ini juga masalah mendalam yang benar-benar diekspos oleh V4. Ini membuktikan bahwa model besar Tiongkok sudah memiliki kemampuan untuk melangkah maju secara bersamaan dalam kemampuan model, harga inferensi, dan adaptasi daya komputasi domestik; tetapi juga membuktikan, kompetisi model besar bukan lagi kompetisi di mana sedikit jenius menulis algoritma yang lebih baik. Tahap berikutnya memperebutkan infrastruktur daya komputasi, sistem teknik, transformasi produk, kemampuan pendanaan, dan kepadatan talenta.
Liang Wenfeng kali ini menaruh kartunya pada daya komputasi domestik. V4 membuat DeepSeek terus berdiri di pusat industri, juga membuat pihak luar melihat bahwa ekosistem CUDA tidak sepenuhnya tidak dapat digoyahkan. Tetapi masalah yang lebih sulit baru saja dimulai: ketika model semakin berat, talenta semakin mahal, komersialisasi semakin mendesak, apakah DeepSeek dapat, setelah menjadi perusahaan infrastruktur AI yang lebih berat, tetap mempertahankan kemampuan mengubah aturan seperti masa lalu.





