Mandiri atau Kompatibel: Pilihan Ekosistem AI China di Balik Penundaan Peluncuran DeepSeek V4

marsbitDipublikasikan tanggal 2026-04-21Terakhir diperbarui pada 2026-04-21

Abstrak

DeepSeek V4, model AI canggih Tiongkok dengan triliunan parameter, telah menunda peluncurannya karena upaya adaptasi dari platform komputasi NVIDIA CUDA ke chip Ascend Huawei menggunakan kerangka kerja CANN. Peralihan ini menghadapi tantangan teknis signifikan, termasuk perbedaan arsitektur, bandwidth memori, dan optimasi perangkat lunak. Meskipun Huawei berupaya menciptakan kompatibilitas tinggi dengan CUDA melalui CANN Next, pendekatan "kompatibilitas pertama" ini berisiko membatasi inovasi masa depan dan membuat ekosistem AI Tiongkok bergantung pada standar yang ditetapkan NVIDIA. DeepSeek V4 menjadi ujian nyata pertama bagi kemampuan komputasi AI mandiri Tiongkok. Keberhasilannya dapat mempercepat pematangan ekosistem domestik, namun tantangan jangka panjang seperti kesenjangan efisiensi pengembangan dan ketergantungan pada kompatibilitas harus diatasi. Masa depan AI Tiongkok akan ditentukan oleh kemampuannya tidak hanya menggantikan teknologi, tetapi juga menciptakan ekosistem independen yang inovatif dan kompetitif secara global dalam 3-5 tahun ke depan.

Oleh | Sun Yongjie

Memasuki tahun 2026, jendela peluncuran DeepSeek V4 berulang kali ditunda, namun justru secara tak terduga memicu diskusi global di kalangan AI tentang "de-CUDA-fikasi". Dari pemberitaan berbagai media, model open-source multimodal yang diperkirakan memiliki skala parameter triliunan dan mendukung konteks token hingga jutaan ini, sedang berusaha keras untuk beradaptasi dengan chip Ascend milik Huawei, serta menulis ulang kode intinya melalui framework CANN.

Jika hal ini akhirnya menjadi kenyataan, ini akan menjadi pertama kalinya sistem AI China secara sistematis mengeksplorasi kemungkinan membawa kemampuan model inti pada platform non-CUDA dalam lingkungan produksi nyata. Dengan kata lain, ini bukan hanya peluncuran sebuah model, tetapi lebih seperti "uji tekanan" terhadap jalur teknologi dasar.

Namun, seperti ditekankan oleh pendiri DeepSeek, Liang Wenfeng, dalam komunikasi internal, ini hanyalah "langkah pertama dari perjalanan sepuluh ribu li". Risiko dan peluang ada di masa depan, keseimbangan, bahkan pilihan, antara kompatibilitas dan kemandirian, akan menentukan apakah AI China benar-benar dapat menemukan jalur perkembangan sendiri.

Penundaan DeepSeek V4, Biaya Pasti dari Konversi Platform Komputasi AI Dasar

Seperti disebutkan sebelumnya, V4 yang rencananya dirilis pada Tahun Baru Imlek atau Februari-Maret tahun ini, berulang kali melewatkan jendela peluncuran, hingga awal April media terkait mengonfirmasi "akan dirilis dalam beberapa minggu". Alasan utamanya adalah adaptasi mendalam antara sisi inferensi dan penggunaan chip Ascend Huawei. Namun masalahnya, jalur ini jauh lebih rumit dari yang dibayangkan. Untuk memahami kompleksitas ini, pertama-tama kita perlu kembali ke karakteristik teknis DeepSeek V4 itu sendiri.

Seperti diketahui, memasuki tahun 2026, skala parameter model besar telah melampaui ambang batas "triliunan", menuju level puluhan triliun. Dalam konteks ini, meskipun V4 menggunakan arsitektur MoE (Mixture of Experts) yang lebih agresif, yang secara teoritis mengurangi beban komputasi inferensi tunggal dengan "mengaktivasi pakar sesuai kebutuhan", imbalannya adalah tuntutan yang lebih ekstrem terhadap kemampuan sistem termasuk bandwidth memori, interkoneksi antar chip (Interconnect), serta manajemen KV Cache.

Dengan kata lain, tekanan komputasi bergeser dari "komputasi murni" ke "penjadwalan dan komunikasi sistem". Dan dalam ekosistem NVIDIA, masalah ini memiliki solusi yang relatif matang.

Misalnya, berdasarkan H100 atau B200, melalui interkoneksi bandwidth tinggi yang dibangun dengan NVLink dan NVSwitch, bandwidth antar GPU dalam satu node dapat mencapai level TB/s, membentuk jaringan komputasi yang hampir "terhubung penuh", di mana data mengalir antar chip seperti jalan tol, dengan latency dan biaya sinkronisasi yang sangat terkompresi. Namun ketika DeepSeek mencoba memigrasi sistem yang presisi ini ke platform Ascend Huawei, yang dihadapi adalah topologi hardware yang sangat berbeda.

Tidak dapat disangkal, chip Ascend telah menunjukkan kemajuan signifikan dalam beberapa tahun terakhir, tetapi dalam hal "kemampuan konektivitas penuh" dari cluster berskala sangat besar, masih terdapat kesenjangan fisik dengan NVIDIA. Misalnya, dibatasi oleh kemampuan proses manufaktur dan IP SerDes, Ascend lebih bergantung pada modul optik untuk ekspansi antar node. Skema "mengorbankan ruang untuk bandwidth" ini meskipun可行 (feesible), juga memperkenalkan jalur fisik yang lebih panjang, sehingga membawa kompleksitas seperti latency sinyal, overhead sinkronisasi, serta manajemen daya dan pendinginan.

Sementara itu, kesenjangan di tingkat perangkat lunak juga tidak dapat diabaikan. Framework CANN milik Ascend dalam hal cakupan operator, paralelisme otomatis, fusi kernel, serta penjadwalan komunikasi terdistribusi, secara keseluruhan kematangannya masih tertinggal dibandingkan ekosistem CUDA. Ini berarti, tim teknikal DeepSeek perlu melakukan optimasi spesifik dalam banyak detail底层 (bottom-layer), bahkan menulis ulang secara manual operator kunci.

Yang lebih rumit lagi, ketertinggalan ini seringkali bukan linier, tetapi sistematis. Secara konkret terlihat sebagai penurunan kinerja satu operator dapat mempengaruhi seluruh rantai komputasi; penurunan efisiensi komunikasi sekali dapat menyebabkan fluktuasi besar dalam throughput keseluruhan. Hasil akhirnya mungkin model masih dapat berjalan, tetapi masih jauh dari stabil, efisien, dan dapat diskalakan.

Dari sudut pandang ini, penundaan DeepSeek V4 bukanlah masalah sederhana tentang irama produk, tetapi merupakan biaya pasti dari磨合 (break-in) mendalam antara tim algoritma terkemuka China dan sistem chip domestik. Meskipun prosesnya sulit, sangatlah penting.

Yang lebih penting, proses ini melepaskan sinyal yang jelas, yaitu persaingan AI, sedang beralih dari "perbandingan kemampuan model", ke "perbandingan kemampuan rekayasa sistem". Dan pada tahap ini, siapa yang dapat lebih cepat "menjalankan, menstabilkan, dan menjalankan dengan biaya lebih murah" sebuah model, dialah yang benar-benar mendekati keunggulan tingkat industri.

Monopoli CUDA Sulit Dipatahkan, CANN Terpaksa Berkompromi

Jika kesulitan adaptasi sisi inferensi DeepSeek V4 di atas mengungkapkan hambatan realitas di tingkat rekayasa, maka dengan menelusuri pertanyaan ini lebih jauh, pertanyaan yang lebih mendasar muncul: Mengapa hanya memindahkan model dari satu platform komputasi ke platform lain menjadi begitu sulit?

Melihat kembali aliansi Wintel di era PC, Microsoft dan Intel meskipun memonopoli bersama, tetapi ada persaingan kepentingan antara kedua perusahaan, yang memberikan ruang bagi kebangkitan Linux, AMD, dan bahkan sistem Apple di kemudian hari. Namun, NVIDIA membangun semacam "monopoli vertikal tunggal" di bidang AI, yaitu gabungan Microsoft dan Intel.

Secara konkret diwujudkan sebagai, pada tingkat perangkat keras, NVIDIA mendefinisikan struktur fisik SM (Streaming Multiprocessor) dan logika komputasi Tensor Core; pada tingkat perangkat lunak, CUDA menyediakan cuBLAS, cuDNN dan library tertutup lainnya yang sesuai sempurna 1:1. Keduanya bertumpuk menyebabkan realitas yang sangat menakutkan: lebih dari 6 juta+ pengembang global mengoptimalkan algoritma, framework (PyTorch, TensorFlow) mengutamakan implementasi CUDA di sekitar cuBLAS, cuDNN, NVLink/NVSwitch, bahkan cluster heterogen anti-NVIDIA seperti AWS Trainium+Cerebras WSE, saat migrasi cache KV masih memerlukan perangkat lunak NVIDIA NIXL dan AWS EFA.

Dari sini terlihat, ini bukan lagi detail teknis titik tunggal, ini adalah penguncian ekosistem, yaitu sebelum portabilitas model gagal, pengembang "berpikir dengan bahasa fitur perangkat keras NVIDIA" telah menjadi惯性 (inertia). Dan正是 (justru)惯性 (inertia) ekosistem inilah yang membuat NVIDIA seperti lubang hitam raksasa, menyerap lebih dari 90% keuntungan inovasi global.

Dalam latar belakang di atas, sebagai pesaing terkuatnya, CANN Huawei awalnya memang mencoba menempuh jalur yang relatif independen, tetapi dengan datangnya era model besar, jalur ini secara bertahap menunjukkan masalah, misalnya pengembang tidak mau bermigrasi, perusahaan tidak berani mengambil risiko, pertumbuhan ekosistem lambat. Ditambah tekanan waktu (misalnya iterasi cepat model besar), jalur yang sepenuhnya mandiri mulai menjadi tidak realistis.

Berdasarkan ini, CANN secara bertahap memperkenalkan desain lapisan abstraksi yang mirip CUDA, misalnya dalam CANN Next mencoba menyamakan antarmuka cuBLAS, cuDNN, mencapai kompatibilitas tinggi, sehingga biaya migrasi model terkompresi dari "minggu bahkan bulan" menjadi "tingkat jam"; pada tingkat arsitektur, arsitektur heterogen 950PR (Pre-fill/Decode Decouple) yang baru dirilis juga sengaja meniru layanan decouple NVIDIA, bukan jalur heterogen彻底 (sepenuhnya) seperti TPU Google.

Kita harus mengakui, strategi yang hampir seperti "kompatibilitas diutamakan" ini dalam jangka pendek berhasil,降低了门槛 (menurunkan ambang batas), membuat Ascend cepat mendapatkan basis aplikasi di pasar domestik, dan memungkinkan perusahaan seperti DeepSeek, Tencent, ByteDance dan lainnya mencoba komputasi domestik dengan门槛 (ambang batas) yang lebih rendah. Misalnya CANN Next melalui model pemrograman SIMT mencapai kompatibilitas CUDA di atas 95%, telah membantu banyak perusahaan mempersingkat waktu migrasi secara signifikan hingga tingkat jam, mempercepat implementasi实际 (nyata).

Namun tantangan yang menyertainya adalah, begitu menyentuh inovasi terdepan, lapisan kompatibilitas akan menjadi "langit-langit".

Misalnya, ketika pengembang benar-benar menggunakan platform Ascend secara mendalam, mereka akan menemukan bahwa meskipun jalur umum telah dipermudah, begitu menyangkut beberapa operator底层 (bottom-layer) yang jarang digunakan atau inovatif, dukungan CANN akan menurun, kinerja berfluktuasi剧烈 (drastis). Dan kesulitan yang dihadapi DeepSeek V4 selama adaptasi, seperti ketika mencoba memperkenalkan arsitektur hybrid struktur non-Transformer seperti SSM (State Space Model) atau Mamba, menemukan bahwa optimasi底层 (bottom-layer) CANN masih terutama condong ke perkalian matriks (GEMM),很大程度上 (sebagian besar)是因为 (karena) ketika mencoba beberapa optimasi algoritma yang melampaui常规 (konvensional), mereka menabrak "batas" lapisan kompatibilitas CANN.

Dan masalah yang lebih dalam adalah,一旦 (sekali) memilih kompatibel, berarti默认 (default) CUDA仍然是 (tetap menjadi) standar tersembunyi, Anda dapat mengganti perangkat keras, tetapi dalam semantik perangkat lunak dan paradigma pengembangan,仍然 (tetap) menggunakan aturan yang ditentukan oleh pihak lain. Ini既是 (sekaligus) jalan pintas,也是 (juga) batasan.

Kompatibilitas Menyimpan Tantangan Risiko, Peluang Masa Depan Masih Perlu Kemandirian Sejati

Seperti disebutkan sebelumnya, dalam realitas dimana ekosistem CUDA telah membentuk standar de facto, pilihan Huawei pada jalur "seperti kompatibel" hampir merupakan hasil yang tak terelakkan, tetapi juga mendorong seluruh industri AI China ke titik pilihan kritis: melanjutkan kompatibilitas dengan CUDA, atau secara bertahap menuju sistem ekosistem yang benar-benar independen?

Dalam jangka pendek, jawabannya hampir tidak ada keraguan,那就是 (yaitu) harus kompatibel, ini adalah pilihan efisiensi dan realitas. Tetapi dalam jangka panjang, jalur ini menyembunyikan risiko yang tidak boleh diabaikan.

Seperti diketahui, ketika sebuah sistem (seperti CANN) dirancang untuk kompatibel dengan sistem lain (seperti CUDA), ia tidak dapat menghindari untuk mewarisi keterbatasan pihak lain.

Faktanya adalah, saat ini sebagian besar algoritma open-source global dikembangkan sekitar arsitektur NVIDIA, jika untuk memanfaatkan aset存量 (existing) ini hanya mengejar kompatibilitas 1:1, maka kita akan terjebak dalam "perangkap peniru" dalam desain perangkat keras, dan memanifestasikan sebagai一旦 (sekali) arsitektur perangkat keras NVIDIA di masa depan menghadapi transformasi paradigma, misalnya dari Transformer ke beberapa arsitektur baru yang tidak memerlukan perkalian matriks skala besar, tetapi lebih bergantung pada logika asynchronous, maka tumpukan komputasi domestik yang一直 (selama ini) berada dalam status "bayangan" mungkin akan menghadapi断层 (discontinuity) teknologi secara instan, dan jalan buntu "kompatibilitas Bug ke Bug" ini,无疑 (tidak diragukan lagi) membuat inovasi底层 (bottom-layer) kita始终 (selalu) diselimuti bayangan orang lain.

Dan risiko yang lebih dalam terletak pada "selisih waktu". Menurut data statistik Bernstein dan Epoch AI, meskipun Huawei mengalami peningkatan份额 (share) signifikan di dalam negeri,但在 (tetapi dalam) total komputasi AI global,占比 (proporsi) chip domestik hanya 5%, masih relatif terbatas. Dan正是 (justru) kesenjangan skala absolut ini, yang menyebabkan "gesekan efisiensi R&D" yang serius.

Secara konkret terwujud sebagai, raksasa AI AS dapat memanfaatkan bandwidth komunikasi Blackwell yang kuat, dalam 18 bulan menjalankan Scaling Laws parameter 10T, sedangkan talenta terkemuka China terpaksa menghabiskan lebih dari 50% kapasitas penelitian mereka pada masalah seperti "bagaimana mengatasi atenuasi sinyal chip usang" dan "beradaptasi dengan compiler yang belum matang".

Perlu dijelaskan, ketidaksesuaian waktu di atas, di era AI yang berubah dengan cepat akan diperbesar tanpa batas. Ketika talenta kita masih sibuk "mengisi lubang", lawan mungkin telah menyelesaikan pertumbuhan eksponensial kemampuan model, menyebabkan领先 (keterdepanan) model lawan setahun, berkembang menjadi jurang不止 (tidak hanya) setahun dengan kita setelah kemampuan model, roda data, keselarasan keamanan semuanya tumbuh majemuk secara eksponensial.

Tentu saja, tantangan sering mengandung peluang. Jika DeepSeek V4 berhasil dirilis, akan membuktikan kelayakan "full-stack domestik", mempercepat pematangan ekosistem CANN, menarik lebih banyak pengembang untuk mengikuti, ditambah dengan sentimen global "dunia telah lama menderita karena NVIDIA", dukungan industri terhadap CANN mungkin akan melampaui ekspektasi. Dan chip后续 (penerus) seperti Huawei Ascend jika mencapai 80%—90% kinerja inferensi H100, ditambah dengan红利 (dividen) kompatibilitas CANN Next, skala kritis pasokan AI China有望 (diharapkan) terbentuk dalam 1—2 tahun.

Tetapi需要 (perlu) disadari dengan清醒 (jernih), kompatibilitas hanya dapat menyelesaikan masalah "bertahan hidup", kemandirian sejati,才能 (baru dapat) menentukan "seberapa jauh melangkah". Dan 3-5 tahun ke depan, akan menjadi periode jendela kunci. Jika kita dapat保持 (mempertahankan) kompatibilitas sambil secara bertahap membangun model pemrograman independen, sistem operator, dan arsitektur sistem, ekosistem AI China masih memiliki peluang untuk mencapai lompatan dari mengikuti ke mendefinisikan aturan.否则 (Jika tidak) AI China mungkin akan terjebak dalam rel "kereta replika kasar".

Ditulis di akhir: Penundaan peluncuran DeepSeek V4, yang tampaknya "keterlambatan" yang偶然 (kebetulan), sebenarnya mengungkapkan realitas yang lebih dalam, yaitu persaingan AI早已 (sudah lama) bukan hanya persaingan model, tetapi pertarungan menyeluruh ekosistem底层 (bottom-layer) dan kemampuan sistem. Kompatibilitas dengan CUDA固然 (memang) adalah jalur terpendek menuju realitas, tetapi jika berhenti di sini, juga dapat mengunci langit-langit masa depan.

Jadi tantangan sebenarnya, bukan在于 (terletak pada) apakah dapat mengganti一套 (satu set) teknologi, tetapi在于 (terletak pada) apakah dapat melepaskan ketergantungan pada paradigma yang ada, membangun sistem aturan sendiri. Dan 3-5 tahun ke depan, akan menentukan apakah AI China menjadi kutub penting dalam ekosistem global, atau tetap berada pada posisi "mengikuti tingkat tinggi" dalam jangka panjang. Tentu saja, dalam mengejar kemandirian, juga需要 (perlu) mewaspadai potensi dampak ekosistem tertutup terhadap daya tarik pengembang global, untuk memastikan keterbukaan ekosistem dan daya saing internasional jangka panjang.

Pertanyaan Terkait

QMengapa peluncuran DeepSeek V4 ditunda?

APenundaan peluncuran DeepSeek V4 disebabkan oleh upaya adaptasi mendalam dengan chip Ascend milik Huawei, yang memerlukan penulisan ulang kode inti melalui kerangka CANN. Proses ini jauh lebih kompleks daripada yang dibayangkan, terutama karena perbedaan dalam topologi perangkat keras dan tantangan dalam optimasi perangkat lunak.

QApa tantangan utama dalam mengadaptasi DeepSeek V4 ke platform Ascend Huawei?

ATantangan utamanya meliputi perbedaan dalam topologi perangkat keras, seperti bandwidth interkoneksi yang lebih rendah dibandingkan NVLink/NVSwitch NVIDIA, serta kesenjangan dalam kedewasaan kerangka perangkat lunak CANN dibandingkan dengan ekosistem CUDA. Hal ini memerlukan optimasi manual dan penulisan ulang operator kunci.

QMengapa ekosistem CUDA sulit digantikan dalam komputasi AI?

ACUDA telah membentuk monopoli vertikal yang kuat dengan menggabungkan perangkat keras dan perangkat lunak yang terintegrasi sempurna. Ekosistem ini mencakup lebih dari 6 juta pengembang yang telah berinvestasi dalam pengoptimalan untuk CUDA, menciptakan inersia ekosistem yang membuat model sulit untuk dipindahkan ke platform lain.

QApa risiko jangka panjang dari strategi kompatibilitas CANN dengan CUDA?

ARisiko jangka panjang termasuk terperangkap dalam batasan yang ditetapkan oleh CUDA, menghadapi kesenjangan teknologi jika NVIDIA beralih ke paradigma baru, serta ketertinggalan dalam efisiensi penelitian karena sumber daya dihabiskan untuk mengatasi masalah kompatibilitas daripada inovasi.

QApa peluang bagi China dalam mengembangkan ekosistem AI independen?

APeluangnya termasuk membuktikan kelayakan 'full-stack domestik' melalui kesuksesan DeepSeek V4, mempercepat pematangan ekosistem CANN, dan menarik lebih banyak pengembang. Jika chip seperti Ascend mencapai 80-90% kinerja inferensi H100, China dapat membentuk skala kritis dalam pasokan AI dalam 1-2 tahun ke depan.

Bacaan Terkait

Setelah Penyimpanan 50 Kali Lipat, Justin Sun Selalu Memandang ke Sepuluh Tahun Berikutnya

Kebanyakan orang Tiongkok mengenal Justin Sun dari kisah-kisah kontroversialnya, seperti membatalkan makan malam dengan Warren Buffett, memakan pisang senilai $6,2 juta, atau terbang melewati Garis Karman pada usia 35 tahun. Namun, di balik sensasi itu, Sun telah menunjukkan ketajaman investasinya selama satu dekade terakhir. Pada 2016, ia menyarankan generasi muda untuk berinvestasi di Bitcoin, NVIDIA, Tesla, dan Tencent alih-alih membeli properti. Saran itu terbukti brilian: hingga Mei 2026, NVIDIA menghasilkan return hampir 24.000% dan Tesla sekitar 2.683%. Ia juga secara akurat memperkirakan lonjakan saham penyimpanan (storage). Pada November 2025, ia menyebut Western Digital/Sandisk sebagai "peluang investasi terbaik tahun depan," dan saham Sandisk kemudian melonjak hampir 50 kali dalam setahun. Kini, Sun memfokuskan pandangannya pada empat bidang masa depan: AI berwujud (embodied AI), drone, komputasi spasial, dan eksplorasi luar angkasa. Ia melihat robot humanoid, drone otonom (seperti yang digunakan dalam perang dan logistik), serta teknologi pemahaman ruang fisik (seperti Apple Vision Pro) sebagai langkah berikutnya dalam revolusi AI. Pada Agustus 2025, ia sendiri terbang ke luar angkasa dengan Blue Origin, dan berambisi menjadikan blockchain sebagai infrastruktur untuk ekonomi luar angkasa. Logika investasinya adalah bertaruh pada tren yang pasti dengan mendiversifikasi di seluruh ekosistem. Misalnya, di robotika, ia melihat Tesla untuk "tubuh" (Optimus) dan NVIDIA untuk "otak" (platform GR00T). Di drone militer, ia merujuk pada AeroVironment dan Kratos. Untuk luar angkasa, IPO SpaceX yang akan datang dianggap akan mengubah seluruh lanskap industri. Bagi Sun, dua dekade terakhir mengubah aliran informasi, tetapi dua dekade mendatang akan mengubah cara dunia fisik beroperasi—dari pabrik otomatis hingga medan perang yang didominasi drone. Pesannya sederhana: masa depan ada pada AI fisik, dan kita harus melihat melampaui horizon yang dekat.

marsbit32m yang lalu

Setelah Penyimpanan 50 Kali Lipat, Justin Sun Selalu Memandang ke Sepuluh Tahun Berikutnya

marsbit32m yang lalu

IPO Terbesar dalam Sejarah Mendekat, Melampaui SpaceX, 28 Tahun AI Berkembang Mandiri, Hitung Mundur Ledakan Kecerdasan

**Judul: IPO Terbesar Sepanjang Masa Mendekat, Lampaui SpaceX, AI Mulai Perbaiki Diri Sendiri pada 2028, Hitung Mundur Ledakan Kecerdasan Dimulai** Anthropic, perusahaan AI yang didirikan pada 2021, dilaporkan sedang mempertimbangkan penawaran umum perdana (IPO) dengan valuasi mendekati $1 triliun, yang dapat melampaui SpaceX sebagai salah satu IPO terbesar dalam sejarah. Lonjakan valuasi ini didorong oleh pertumbuhan pendapatan yang fenomenal. ARR (Annual Recurring Revenue) perusahaan ini melesat dari $10 miliar pada Januari 2025 menjadi $45 miliar pada Mei 2026, meningkat 500% hanya dalam lima bulan. Dua produk utama, Claude Code dan Cowork, menjadi pendorong pertumbuhan dengan memanfaatkan ledakan permintaan AI untuk pengkodean dan kolaborasi kantor. Namun, narasi yang lebih besar berasal dari peringatan salah satu pendiri, Jack Clark. Dalam sebuah wawancara, Clark memprediksi bahwa ada kemungkinan lebih dari 50% sistem AI akan mampu memperbaiki dan membuat versi dirinya yang lebih baik secara mandiri pada akhir 2028—sebuah fenomena yang disebut "ledakan kecerdasan" (intelligence explosion). Investor melihat potensi transformatif ini. Anthropic juga telah membentuk perusahaan patungan senilai $1.5 miliar dengan Goldman Sachs dan Blackstone, bertujuan untuk menggantikan layanan konsultan tradisional seperti McKinsey dengan AI, menguji kemampuan AI dalam menggantikan tenaga kerja kognitif tingkat tinggi. Valuasi triliunan dolar Anthropic bukan hanya tentang alat AI saat ini, tetapi lebih merupakan taruhan pasar pada masa di mana AI dapat berevolusi secara mandiri, membawa serta peluang dan risiko yang belum pernah terjadi sebelumnya bagi ekonomi dan masyarakat. Hitung mundur menuju 2028 telah dimulai.

marsbit46m yang lalu

IPO Terbesar dalam Sejarah Mendekat, Melampaui SpaceX, 28 Tahun AI Berkembang Mandiri, Hitung Mundur Ledakan Kecerdasan

marsbit46m yang lalu

Tagihan AI Inference Melonjak, Shopify dan Roblox Peringatkan: Uang yang Dihasilkan dari PHK Tak Cukup Bayar Biaya Chip

Judul: Tagihan AI Meningkat Tajam, Shopify & Roblox Peringatkan: Penghematan dari PHK Tak Cukup Bayar Biaya Chip Musim laporan keuangan Q1 2026 mengungkap paradoks baru: sementara AI membantu membekukan perekrutan dan mengurangi posisi kerja, konsumsi Token dan depresiasi GPU-nya justru menggerus margin laba. Shopify mengakui biaya LLM menekan margin langganannya, sementara sekitar seperempat penurunan panduan margin tahunan Roblox langsung disebabkan oleh investasi AI tambahan. Empat raksasa teknologi (Amazon, Meta, Microsoft, Google) diproyeksikan menghabiskan $725 miliar untuk belanja modal AI tahun 2026, naik 77%. Shopify melaporkan bahwa AI kini menangani >50% penulisan kode, tetapi biaya infrastruktur cloud (termasuk penggunaan AI) meningkat $22 juta. Penggunaan asisten AI Sidekick meledak, mendorong tagihan inferensi. Sementara itu, Roblox menjalankan >400 model AI dan mengalokasikan peningkatan biaya untuk AI. Mereka berencana mengenakan biaya untuk fitur AI canggih seperti "Roblox Reality". Analis membandingkan pengeluaran besar ini dengan penghematan upah. Misalnya, penghematan dari PHK 8.000 karyawan Meta (~$2,4 miliar) hanya dapat mengimbangi sekitar 12% dari beban depresiasi AI tahun 2026. Penyelarasannya sulit: setiap $1 tekanan finansial dari pengeluaran komputasi AI membutuhkan penghematan biaya tenaga kerja hampir $10. Pemain di lapisan aplikasi seperti SaaS kini terjepit: pendapatan terkait intensitas penggunaan AI, tetapi biaya ditentukan harga model upstream. Meski biaya inferensi model tunggal turun, harga model terdepan stabil atau naik. Shopify dan Roblox merespons dengan mengikat biaya AI lebih dalam ke pengguna/platform atau membuat fitur AI premium berbayar. Kesimpulannya, mengandalkan penghematan PHK saja untuk menutupi tagihan komputasi AI secara matematis tidak mungkin.

marsbit1j yang lalu

Tagihan AI Inference Melonjak, Shopify dan Roblox Peringatkan: Uang yang Dihasilkan dari PHK Tak Cukup Bayar Biaya Chip

marsbit1j yang lalu

Trading

Spot
Futures

Artikel Populer

Cara Membeli SUN

Selamat datang di HTX.com! Kami telah membuat pembelian SUN (SUN) menjadi mudah dan nyaman. Ikuti panduan langkah demi langkah kami untuk memulai perjalanan kripto Anda.Langkah 1: Buat Akun HTX AndaGunakan alamat email atau nomor ponsel Anda untuk mendaftar akun gratis di HTX. Rasakan perjalanan pendaftaran yang mudah dan buka semua fitur.Dapatkan Akun SayaLangkah 2: Buka Beli Kripto, lalu Pilih Metode Pembayaran AndaKartu Kredit/Debit: Gunakan Visa atau Mastercard Anda untuk membeli SUN (SUN) secara instan.Saldo: Gunakan dana dari saldo akun HTX Anda untuk melakukan trading dengan lancar.Pihak Ketiga: Kami telah menambahkan metode pembayaran populer seperti Google Pay dan Apple Pay untuk meningkatkan kenyamanan.P2P: Lakukan trading langsung dengan pengguna lain di HTX.Over-the-Counter (OTC): Kami menawarkan layanan yang dibuat khusus dan kurs yang kompetitif bagi para trader.Langkah 3: Simpan SUN (SUN) AndaSetelah melakukan pembelian, simpan SUN (SUN) di akun HTX Anda. Selain itu, Anda dapat mengirimkannya ke tempat lain melalui transfer blockchain atau menggunakannya untuk memperdagangkan mata uang kripto lainnya.Langkah 4: Lakukan trading SUN (SUN)Lakukan trading SUN (SUN) dengan mudah di pasar spot HTX. Cukup akses akun Anda, pilih pasangan perdagangan, jalankan trading, lalu pantau secara real-time. Kami menawarkan pengalaman yang ramah pengguna baik untuk pemula maupun trader berpengalaman.

661 Total TayanganDipublikasikan pada 2024.12.12Diperbarui pada 2025.03.21

Cara Membeli SUN

Diskusi

Selamat datang di Komunitas HTX. Di sini, Anda bisa terus mendapatkan informasi terbaru tentang perkembangan platform terkini dan mendapatkan akses ke wawasan pasar profesional. Pendapat pengguna mengenai harga SUN (SUN) disajikan di bawah ini.

活动图片