Keterbatasan Komputasi, Apa yang Membuat DeepSeek-V4 Berani Open Source?
DeepSeek meluncurkan model bahasa besar (LLM) terbaru mereka, DeepSeek-V4, dalam versi pratinjau yang juga bersifat open source. Model ini menawarkan kemampuan konteks ultra-panjang hingga 1 juta token, yang sebelumnya hanya tersedia di layanan berbayar perusahaan teknologi besar. Namun, DeepSeek secara terbuka mengakui keterbatasan throughput layanan Pro-nya karena kendala komputasi high-end.
V4-Pro, dengan 1.6T parameter total namun hanya mengaktifkan 49B parameter selama inferensi, menunjukkan kinerja kuat dalam tugas-tugas seperti pemrograman dan penalaran. Ini dicapai melalui optimasi arsitektur yang mendalam, termasuk mekanisme perhatian yang disempurnakan dan teknik sparse attention.
Sementara itu, versi Flash, dengan 284B parameter total dan hanya 13B parameter yang diaktifkan, dirancang untuk efisiensi. Ini memungkinkan operasi pada perangkat keras komputasi yang lebih terjangkau dan membuka peluang untuk adopsi yang lebih luas oleh pengembang dan bisnis skala menengah.
DeepSeek juga berfokus pada adaptasi dengan chip komputasi domestik Tiongkok, seperti Ascend dari Huawei dan Cambricon, meskipun tantangan dalam kinerja dan pasokan perangkat keras tetap ada. Peluncuran ini juga dilihat sebagai respons strategis terhadap persaingan pasar yang ketat dan pergantian personel inti, menunjukkan ketahanan perusahaan dalam melanjutkan inovasi teknis.
marsbit6j yang lalu