Pidato Terbaru Jensen Huang di CES2026: Tiga Topik Kunci, Satu 'Monster Chip'

marsbitDipublikasikan tanggal 2026-01-06Terakhir diperbarui pada 2026-01-06

Abstrak

Jensen Huang, CEO NVIDIA, hadir di CES 2026 dengan presentasi utama yang berfokus pada tiga topik inti: platform komputasi AI generasi baru Rubin, peningkatan infrastruktur penyimpanan konteks inferensi, dan kemajuan AI fisika yang siap diluncurkan secara komersial. Rubin, platform AI terbaru NVIDIA, menampilkan GPU Rubin, CPU Vera, dan NVLink 6, yang bersama-sama meningkatkan kinerja inferensi 5x dan mengurangi biaya token hingga 10x dibandingkan generasi sebelumnya. Platform ini dirancang untuk mendukung AI yang "berpikir lebih lama" dan lebih efisien. NVIDIA juga memperkenalkan Platform Penyimpanan Memori Konteks Inferensi, yang dikendalikan oleh BlueField-4, untuk mengatasi hambatan penyimpanan data selama proses inferensi yang berkelanjutan. Solusi ini meningkatkan kecepatan pemrosesan token hingga 5x. Di bidang AI fisika, NVIDIA meluncurkan Cosmos, model dasar untuk memahami dunia fisik, dan Alpamayo, model inferensi otonom open-source pertama. NVIDIA juga mengumumkan kemitraan produksi dengan Mercedes-Benz untuk kendaraan otonom tingkat L2++ dan kolaborasi dengan berbagai perusahaan robotika global berdasarkan platform Isaac dan model dasar GR00T. Selain itu, NVIDIA memperluas ekosistem model open-source-nya (Open Model Universe) dengan Nemotron dan toolkit lainnya, menyediakan dataset, kode, dan model yang dapat diakses untuk pengembangan AI yang lebih luas.

Penulis: Li Hailun, Su Yang

Pada 6 Januari waktu Beijing, CEO NVIDIA Jensen Huang sekali lagi berdiri di panggung utama CES2026 dengan jakta kulit ikoniknya.

Pada CES 2025, NVIDIA memamerkan chip Blackwell yang diproduksi massal dan stack teknologi AI fisik yang lengkap. Dalam acara tersebut, Huang menekankan bahwa era 'AI Fisik' sedang dimulai. Dia menggambarkan masa depan yang penuh imajinasi: mobil otonom memiliki kemampuan bernalar, robot dapat memahami dan berpikir, AI Agent (agen cerdas) dapat menangani tugas konteks panjang dengan jutaan token.

Sekitar satu tahun telah berlalu, industri AI telah mengalami evolusi dan perubahan besar. Huang, dalam konferensi persnya, ketika meninjau perubahan tahun ini, secara khusus menyebutkan model sumber terbuka.

Dia mengatakan, model inferensi sumber terbuka seperti DeepSeek R1, membuat seluruh industri menyadari: ketika keterbukaan dan kolaborasi global benar-benar dimulai, penyebaran AI akan sangat cepat. Meskipun model sumber terbuka masih tertinggal sekitar enam bulan dalam hal kemampuan keseluruhan dibandingkan model paling mutakhir, mereka terus mengejar setiap enam bulan, dan jumlah unduhan serta penggunaannya telah mengalami pertumbuhan eksplosif.

Dibandingkan dengan tahun 2025 yang lebih banyak menunjukkan visi dan kemungkinan, kali ini NVIDIA mulai secara sistematis berharap memecahkan masalah 'bagaimana mewujudkannya': berpusat pada AI inferensi, melengkapi infrastruktur komputasi, jaringan, dan penyimpanan yang dibutuhkan untuk menjalankan jangka panjang, secara signifikan menekan biaya inferensi, dan menanamkan kemampuan ini langsung ke dalam skenario nyata seperti mobil otonom dan robot.

Pidato Huang di CES kali ini, dibangun di sekitar tiga garis besar:

● Pada tingkat sistem dan infrastruktur, NVIDIA merestrukturisasi arsitektur komputasi, jaringan, dan penyimpanan di sekitar kebutuhan inferensi jangka panjang. Dengan platform Rubin, NVLink 6, Spectrum-X Ethernet, dan platform penyimpanan memori konteks inferensi sebagai inti, pembaruan ini langsung menargetkan hambatan seperti biaya inferensi yang tinggi, konteks yang sulit dipertahankan, dan skalabilitas yang terbatas, memecahkan masalah AI agar dapat 'berpikir lebih lama', 'terjangkau secara komputasi', dan 'berjalan lebih lama'.

● Pada tingkat model, NVIDIA menempatkan AI inferensi (Reasoning / Agentic AI) pada posisi inti. Melalui model dan alat seperti Alpamayo, Nemotron, Cosmos Reason, mendorong AI dari 'menghasilkan konten' menuju kemampuan untuk terus berpikir, dari 'model yang merespons sekali' beralih ke 'agen cerdas yang dapat bekerja dalam jangka panjang'.

● Pada tingkat aplikasi dan implementasi, kemampuan ini diperkenalkan langsung ke dalam skenario AI fisik seperti mobil otonom dan robot. Baik sistem mobil otonom yang digerakkan oleh Alpamayo, maupun ekosistem robot GR00T dan Jetson, semuanya mendorong penyebaran skala besar melalui kerja sama dengan platform tingkat perusahaan dan penyedia cloud.

01 Dari Peta Jalan ke Produksi Massal: Rubin Ungkap Data Kinerja Lengkap untuk Pertama Kalinya

Pada CES kali ini, NVIDIA untuk pertama kalinya mengungkapkan detail teknis lengkap dari arsitektur Rubin.

Dalam pidatonya, Huang memulai dengan Test-time Scaling (Penskalaan Waktu Uji), konsep ini dapat dipahami sebagai, jika ingin AI menjadi lebih pintar, tidak hanya membuatnya 'belajar lebih giat', tetapi dengan 'berpikir lebih lama ketika menghadapi masalah'.

Di masa lalu, peningkatan kemampuan AI terutama bergantung pada tahap pelatihan dengan lebih banyak daya komputasi, membuat model semakin besar; sedangkan sekarang, perubahan baru adalah bahkan jika model tidak terus membesar, asalkan diberi lebih banyak waktu dan daya komputasi untuk berpikir setiap kali digunakan, hasilnya juga bisa menjadi jauh lebih baik.

Bagaimana membuat 'AI berpikir lebih lama' menjadi layak secara ekonomi? Platform komputasi AI generasi baru arsitektur Rubin hadir untuk memecahkan masalah ini.

Huang memperkenalkan, ini adalah一套 sistem komputasi AI generasi berikutnya yang lengkap, melalui desain bersama Vera CPU, Rubin GPU, NVLink 6, ConnectX-9, BlueField-4, Spectrum-6, untuk mencapai penurunan biaya inferensi yang revolusioner.

NVIDIA Rubin GPU adalah chip inti dalam arsitektur Rubin yang bertanggung jawab untuk komputasi AI, bertujuan untuk secara signifikan mengurangi biaya unit inferensi dan pelatihan.

Singkatnya, tugas inti Rubin GPU adalah 'membuat AI lebih hemat dan lebih pintar digunakan'.

Kemampuan inti Rubin GPU terletak pada: GPU yang sama dapat melakukan lebih banyak pekerjaan. Ia dapat memproses lebih banyak tugas inferensi sekaligus, mengingat konteks yang lebih panjang, dan komunikasi dengan GPU lain juga lebih cepat, yang berarti banyak skenario yang sebelumnya mengandalkan 'penumpukan multi-kartu keras', sekarang dapat diselesaikan dengan lebih sedikit GPU.

Hasilnya adalah, inferensi tidak hanya lebih cepat, tetapi juga jelas lebih murah.

Huang di tempat memberikan ulasan parameter keras NVL72 arsitektur Rubin: berisi 220 triliun transistor, bandwidth 260 TB/detik, merupakan platform pertama di industri yang mendukung komputasi kerahasiaan skala rak.

Secara keseluruhan, dibandingkan dengan Blackwell, Rubin GPU mencapai lompatan generasi dalam indikator kunci: Kinerja inferensi NVFP4 meningkat menjadi 50 PFLOPS (5 kali lipat), kinerja pelatihan meningkat menjadi 35 PFLOPS (3.5 kali lipat), bandwidth memori HBM4 meningkat menjadi 22 TB/s (2.8 kali lipat), bandwidth interkoneksi NVLink per GPU menjadi dua kali lipat menjadi 3.6 TB/s.

Peningkatan ini bekerja sama, memungkinkan satu GPU menangani lebih banyak tugas inferensi dan konteks yang lebih panjang, pada dasarnya mengurangi ketergantungan pada jumlah GPU.

Vera CPU adalah komponen inti yang dirancang khusus untuk perpindahan data dan pemrosesan Agentic, mengadopsi 88 inti Olympus yang dikembangkan sendiri oleh NVIDIA, dilengkapi dengan memori sistem 1.5 TB (3 kali lipat dari CPU Grace generasi sebelumnya), melalui teknologi NVLink-C2C 1.8 TB/s mencapai akses memori yang konsisten antara CPU dan GPU.

Berbeda dengan CPU tujuan umum tradisional, Vera berfokus pada penjadwalan data dan pemrosesan logika inferensi multi-langkah dalam skenario inferensi AI, pada dasarnya adalah koordinator sistem yang memungkinkan 'AI berpikir lebih lama' berjalan efisien.

NVLink 6 melalui bandwidth 3.6 TB/s dan kemampuan komputasi dalam jaringan, memungkinkan 72 GPU dalam arsitektur Rubin bekerja sama seperti satu super GPU, ini adalah infrastruktur kunci untuk mencapai pengurangan biaya inferensi.

Dengan demikian, data dan hasil antara yang dibutuhkan AI selama inferensi dapat dengan cepat beredar di antara GPU, tanpa harus menunggu, menyalin, atau menghitung ulang berulang kali.

Dalam arsitektur Rubin, NVLink-6 bertanggung jawab untuk komputasi bersama internal GPU, BlueField-4 bertanggung jawab untuk penjadwalan konteks dan data, sedangkan ConnectX-9 mengambil alih koneksi jaringan berkecepatan tinggi sistem ke luar. Ini memastikan sistem Rubin dapat berkomunikasi secara efisien dengan rak lain, pusat data, dan platform cloud, merupakan prasyarat untuk kelancaran menjalankan tugas pelatihan dan inferensi skala besar.

Dibandingkan dengan arsitektur generasi sebelumnya, NVIDIA juga memberikan data yang intuitif dan spesifik: Dibandingkan dengan platform NVIDIA Blackwell, dapat mengurangi biaya token pada tahap inferensi hingga 10 kali lipat, dan mengurangi jumlah GPU yang dibutuhkan untuk melatih model ahli campuran (MoE) menjadi 1/4 dari sebelumnya.

NVIDIA secara resmi menyatakan, saat ini Microsoft telah berkomitmen untuk menyebarkan ratusan ribu chip Vera Rubin di pabrik super AI Fairwater generasi berikutnya, penyedia layanan cloud seperti CoreWeave akan menyediakan instance Rubin pada paruh kedua tahun 2026, infrastruktur 'membuat AI berpikir lebih lama' ini sedang bergerak dari demonstrasi teknologi menuju komersialisasi skala besar.

02 Bagaimana 'Hambatan Penyimpanan' Dipecahkan?

Membuat AI 'berpikir lebih lama' juga menghadapi tantangan teknis kunci: di mana data konteks harus disimpan?

Ketika AI menangani tugas kompleks yang membutuhkan percakapan multi-putaran, inferensi multi-langkah, akan menghasilkan sejumlah besar data konteks (KV Cache). Arsitektur tradisional要么 memasukkannya ke dalam memori GPU yang mahal dan kapasitasnya terbatas,要么 meletakkannya di penyimpanan biasa (akses terlalu lambat). 'Hambatan penyimpanan' ini jika tidak dipecahkan, GPU sekuat apa pun akan terbebani.

Menanggapi masalah ini, NVIDIA pada CES kali ini untuk pertama kalinya mengungkapkan secara lengkap platform penyimpanan memori konteks inferensi (Inference Context Memory Storage Platform) yang digerakkan oleh BlueField-4, tujuan intinya adalah menciptakan 'lapisan ketiga' antara memori GPU dan penyimpanan tradisional. Cukup cepat, memiliki kapasitas yang memadai, dan dapat mendukung operasi jangka panjang AI.

Dari sudut pandang realisasi teknis, platform ini bukanlah komponen tunggal yang berperan, tetapi merupakan hasil desain bersama:

  • BlueField-4 bertanggung jawab untuk mempercepat manajemen dan akses data konteks pada tingkat perangkat keras, mengurangi pemindahan data dan overhead sistem;
  • Spectrum-X Ethernet menyediakan jaringan berkinerja tinggi, mendukung berbagi data berkecepatan tinggi berbasis RDMA;
  • Komponen perangkat lunak seperti DOCA, NIXL, dan Dynamo, bertanggung jawab untuk mengoptimalkan penjadwalan pada tingkat sistem, mengurangi latensi, meningkatkan throughput keseluruhan.

Kita dapat memahami, cara platform ini adalah, memperluas data konteks yang sebelumnya hanya dapat disimpan di memori GPU, ke 'lapisan memori' independen, berkecepatan tinggi, dan dapat dibagikan. Di satu sisi melepaskan tekanan GPU, di sisi lain dapat dengan cepat berbagi informasi konteks ini di antara beberapa node, beberapa agen cerdas AI.

Dalam hal efek aktual, data yang diberikan oleh NVIDIA resmi adalah: Dalam skenario tertentu, cara ini dapat meningkatkan jumlah token yang diproses per detik hingga 5 kali lipat, dan mencapai optimasi efisiensi energi yang setara.

Huang dalam rilisnya berulang kali menekankan, AI sedang berevolusi dari 'chatbot percakapan sekali pakai menjadi kolaborator cerdas yang sebenarnya: mereka perlu memahami dunia nyata, terus bernalar, memanggil alat untuk menyelesaikan tugas, dan sekaligus mempertahankan memori jangka pendek dan jangka panjang. Ini adalah karakteristik inti dari Agentic AI. Platform penyimpanan memori konteks inferensi, dirancang khusus untuk bentuk AI yang berjalan jangka panjang, berpikir berulang kali, melalui perluasan kapasitas konteks, mempercepat berbagi antar node, membuat percakapan multi-putaran dan kolaborasi multi-agen cerdas lebih stabil, tidak 'semakin lambat saat dijalankan'.

03 DGX SuperPOD Generasi Baru: Mendorong 576 GPU Bekerja Sama

NVIDIA pada CES kali ini mengumumkan peluncuran DGX SuperPOD (simpul super) generasi baru berbasis arsitektur Rubin, memperluas Rubin dari rak tunggal ke solusi lengkap seluruh pusat data.

Apa itu DGX SuperPOD?

Jika Rubin NVL72 adalah 'rak super' yang berisi 72 GPU, maka DGX SuperPOD adalah menghubungkan beberapa rak seperti itu bersama-sama, membentuk cluster komputasi AI yang lebih besar. Versi yang dirilis kali ini terdiri dari 8 rak Vera Rubin NVL72, setara dengan 576 GPU yang bekerja sama.

Ketika skala tugas AI terus meluas, 576 GPU rak tunggal mungkin masih belum cukup. Misalnya melatih model skala sangat besar, melayani ribuan agen cerdas Agentic AI secara bersamaan, atau menangani tugas kompleks yang membutuhkan konteks jutaan token. Saat itulah dibutuhkan kerja sama multi-rak, dan DGX SuperPOD dirancang untuk skenario ini sebagai solusi standar.

Bagi perusahaan dan penyedia layanan cloud, DGX SuperPOD menyediakan solusi infrastruktur AI skala besar 'siap pakai'. Tidak perlu meneliti sendiri bagaimana menghubungkan ratusan GPU, bagaimana mengkonfigurasi jaringan, bagaimana mengelola penyimpanan, dll.

Lima komponen inti DGX SuperPOD generasi baru:

○ 8 rak Vera Rubin NVL72 - menyediakan inti kemampuan komputasi, setiap rak 72 GPU, total 576 GPU;

○ Jaringan ekspansi NVLink 6 - memungkinkan 576 GPU dalam 8 rak ini bekerja sama seperti satu super GPU raksasa;

○ Jaringan ekspansi Spectrum-X Ethernet - menghubungkan SuperPOD yang berbeda, serta terhubung ke penyimpanan dan jaringan eksternal;

○ Platform penyimpanan memori konteks inferensi - menyediakan penyimpanan data konteks bersama untuk tugas inferensi jangka panjang;

○ Perangkat lunak NVIDIA Mission Control - mengelola penjadwalan, pemantauan, dan optimasi seluruh sistem.

Kali ini peningkatan, dasar SuperPOD berinti pada sistem tingkat rak DGX Vera Rubin NVL72. Setiap NVL72 sendiri adalah superkomputer AI lengkap, di dalamnya melalui NVLink 6 menghubungkan 72 GPU Rubin bersama-sama, dapat menyelesaikan tugas inferensi dan pelatihan skala besar dalam satu rak. DGX SuperPOD baru, terdiri dari beberapa NVL72, membentuk cluster tingkat sistem yang dapat berjalan jangka panjang.

Ketika skala komputasi berkembang dari 'rak tunggal' ke 'multi-rak', hambatan baru muncul: bagaimana mentransmisikan data dalam jumlah besar antar rak dengan stabil dan efisien. Terkait masalah ini, NVIDIA pada CES kali ini secara bersamaan merilis switch Ethernet generasi baru berbasis chip Spectrum-6, dan untuk pertama kalinya memperkenalkan teknologi 'Co-Packaged Optics' (CPO).

Secara sederhana, ini adalah memasang modul optik yang sebelumnya dapat dipasang langsung di samping chip switch, mempersingkat jarak transmisi sinyal dari beberapa meter menjadi beberapa milimeter, sehingga secara signifikan mengurangi konsumsi daya dan latensi, juga meningkatkan stabilitas keseluruhan sistem.

04 'Paket Lengkap' Sumber Terbuka AI NVIDIA: Lengkap dari Data ke Kode

Pada CES kali ini, Huang mengumumkan perluasan ekosistem model sumber terbuka (Open Model Universe), menambahkan dan memperbarui serangkaian model, kumpulan data, repositori kode, dan alat. Ekosistem ini mencakup enam bidang: AI biomedis (Clara), simulasi fisika AI (Earth-2), Agentic AI (Nemotron), AI fisik (Cosmos), robotika (GR00T) dan mobil otonom (Alpamayo).

Melatih model AI tidak hanya membutuhkan daya komputasi, tetapi juga membutuhkan kumpulan data berkualitas tinggi, model pra-latihan, kode pelatihan, alat evaluasi, dan整套 infrastruktur. Bagi kebanyakan perusahaan dan lembaga penelitian, membangun ini dari awal terlalu memakan waktu.

Secara spesifik, NVIDIA membuka sumber enam tingkat konten: platform komputasi (DGX, HGX, dll.), kumpulan data pelatihan di berbagai bidang, model dasar pra-latihan, repositori kode inferensi dan pelatihan, skrip alur pelatihan lengkap, dan templat solusi ujung ke ujung.

Seri Nemotron adalah fokus pembaruan kali ini, mencakup empat arah aplikasi.

Dalam arah inferensi, termasuk model inferensi kecil seperti Nemotron 3 Nano, Nemotron 2 Nano VL, serta alat pelatihan pembelajaran penguatan seperti NeMo RL, NeMo Gym. Dalam arah RAG (Retrieval Augmented Generation), menyediakan Nemotron Embed VL (model embedding vektor), Nemotron Rerank VL (model pengurutan ulang), kumpulan data terkait dan NeMo Retriever Library (pustaka pengambilan). Dalam arah keamanan, ada model keamanan konten Nemotron Content Safety dan kumpulan data pendamping, pustaka pagar NeMo Guardrails.

Dalam arah suara, berisi pengenalan suara otomatis Nemotron ASR, kumpulan data suara Granary Dataset dan pustaka pemrosesan suara NeMo Library. Ini berarti perusahaan ingin membuat sistem layanan pelanggan AI dengan RAG, tidak perlu melatih model embedding dan pengurutan ulang sendiri, dapat langsung menggunakan kode yang sudah dilatih dan dibuka sumber oleh NVIDIA.

05 Bidang AI Fisik, Menuju Implementasi Komersial

Bidang AI fisik juga memiliki pembaruan model - Cosmos untuk memahami dan menghasilkan video dunia fisik, model dasar robot umum Isaac GR00T, model visi-bahasa-aksi mobil otonom Alpamayo.

Huang di CES menyatakan, 'momen ChatGPT' AI fisik akan segera tiba, tetapi menghadapi banyak tantangan: dunia fisik terlalu kompleks dan berubah, mengumpulkan data nyata lambat dan mahal, selamanya tidak cukup.

Bagaimana solusinya? Data sintetis adalah salah satu jalannya. Maka NVIDIA meluncurkan Cosmos.

Ini adalah model dasar dunia AI fisik sumber terbuka, saat ini telah menggunakan sejumlah besar video, data mengemudi dan robotika nyata, serta simulasi 3D untuk pra-latihan. Ia dapat memahami bagaimana dunia beroperasi, dapat menghubungkan bahasa, gambar, 3D, dan aksi.

Huang menyatakan, Cosmos dapat mewujudkan banyak keterampilan AI fisik, seperti menghasilkan konten, melakukan inferensi, memprediksi lintasan (bahkan hanya memberinya satu gambar). Ia dapat menghasilkan video yang realistis berdasarkan adegan 3D, menghasilkan gerakan yang sesuai dengan hukum fisika berdasarkan data mengemudi, juga dapat menghasilkan video panorama dari simulator, gambar multi-kamera atau deskripsi teks. Bahkan skenario langka, juga dapat direkonstruksi.

Huang juga secara resmi merilis Alpamayo. Alpamayo adalah rantai alat sumber terbuka untuk bidang mobil otonom, juga merupakan model inferensi visi-bahasa-aksi (VLA) sumber terbuka pertama. Berbeda dengan sebelumnya yang hanya membuka sumber kode, NVIDIA kali ini membuka sumber daya pengembangan lengkap dari data hingga penyebaran.

Terobosan terbesar Alpamayo terletak pada kenyataan bahwa itu adalah model mobil otonom 'tipe inferensi'. Sistem mobil otonom tradisional adalah arsitektur saluran pipa 'persepsi-perencanaan-kontrol', melihat lampu merah lalu mengerem, melihat pejalan kaki lalu melambat, mengikuti aturan yang telah ditetapkan. Sedangkan Alpamayo memperkenalkan kemampuan 'inferensi', memahami hubungan sebab-akibat dalam skenario kompleks, memprediksi niat kendaraan dan pejalan kaki lain, bahkan dapat menangani keputusan yang membutuhkan pemikiran multi-langkah.

Misalnya di persimpangan, ia tidak hanya mengidentifikasi 'ada mobil di depan', tetapi dapat menyimpulkan 'mobil itu mungkin akan belok kiri, jadi saya harus menunggunya lewat dulu'. Kemampuan ini membuat mobil otonom meningkat dari 'berkendara sesuai aturan' ke 'berpikir seperti manusia'.

Huang mengumumkan sistem NVIDIA DRIVE secara resmi memasuki tahap produksi massal, aplikasi pertama adalah Mercedes-Benz CLA baru, rencananya akan diluncurkan di AS pada tahun 2026. Mobil ini akan dilengkapi dengan sistem mengemudi otonom level L2++, mengadopsi arsitektur hybrid 'model AI ujung ke ujung + saluran pipa tradisional'.

Bidang robotika juga memiliki kemajuan substantif.

Huang menyatakan termasuk Boston Dynamics, Franka Robotics, LEM Surgical, LG Electronics, Neura Robotics dan XRlabs在内的 perusahaan robotika terkemuka global, sedang mengembangkan produk berdasarkan platform Isaac NVIDIA dan model dasar GR00T, mencakup berbagai bidang dari robot industri, robot bedah hingga robot humanoid, robot konsumen.

Di lokasi konferensi pers, di belakang Huang berdiri penuh dengan robot berbagai bentuk dan kegunaan, mereka dipajang secara terkonsentrasi di panggung berlapis: dari robot humanoid, robot layanan berkaki dua dan beroda, hingga lengan robot industri, mesin teknik, drone dan peralatan bantu bedah, menampilkan 'gambaran ekosistem robotika'.

Dari aplikasi AI fisik ke platform komputasi RubinAI,再到 platform penyimpanan memori konteks inferensi dan 'paket lengkap' AI sumber terbuka.

Tindakan yang ditampilkan NVIDIA di CES ini, membentuk narasi NVIDIA untuk infrastruktur AI era inferensi. Seperti yang ditekankan Huang berulang kali, ketika AI fisik perlu terus berpikir, berjalan jangka panjang, dan benar-benar memasuki dunia nyata, masalahnya tidak lagi hanya apakah daya komputasi cukup, tetapi siapa yang dapat benar-benar membangun整套 sistem.

CES 2026, NVIDIA telah memberikan jawaban.

Pertanyaan Terkait

QApa tiga topik utama yang dibahas oleh Jensen Huang dalam presentasi CES2026?

ATiga topik utama presentasi Jensen Huang di CES2026 adalah: 1) Infrastruktur komputasi, jaringan, dan penyimpanan untuk kebutuhan inferensi jangka panjang dengan platform Rubin, NVLink 6, Spectrum-X, dan platform penyimpanan memori konteks inferensi; 2) AI penalaran (Reasoning/Agentic AI) dengan model dan alat seperti Alpamayo, Nemotron, dan Cosmos Reason; 3) Aplikasi dan implementasi dalam skenario AI fisik seperti mobil otonom dan robotika.

QApa keunggulan utama GPU Rubin yang diumumkan oleh NVIDIA?

AGPU Rubin menawarkan peningkatan kinerja signifikan dibandingkan generasi sebelumnya: kinerja inferensi NVFP4 meningkat hingga 50 PFLOPS (5x lipat), kinerja pelatihan hingga 35 PFLOPS (3.5x lipat), bandwidth memori HBM4 hingga 22 TB/s (2.8x lipat), dan bandwidth interkoneksi NVLink per GPU menjadi 3.6 TB/s (2x lipat). Ini memungkinkan satu GPU menangani lebih banyak tugas inferensi dan konteks yang lebih panjang, mengurangi ketergantungan pada jumlah GPU.

QBagaimana NVIDIA mengatasi tantangan 'botolneck penyimpanan' dalam AI penalaran?

ANVIDIA memperkenalkan Platform Penyimpanan Memori Konteks Inferensi (Inference Context Memory Storage Platform) yang didukung BlueField-4. Platform ini menciptakan 'lapisan ketiga' antara memori GPU dan penyimpanan tradisional yang cepat, berkapasitas besar, dan mendukung operasi jangka panjang. Ini terdiri dari BlueField-4 untuk akselerasi hardware, Spectrum-X Ethernet untuk jaringan berkinerja tinggi, dan perangkat lunak seperti DOCA untuk optimasi sistem.

QApa itu DGX SuperPOD baru berdasarkan arsitektur Rubin?

ADGX SuperPOD baru adalah solusi infrastruktur AI skala besar yang terdiri dari 8 rak Vera Rubin NVL72 (total 576 GPU) yang terhubung melalui NVLink 6 dan Spectrum-X Ethernet. Ini menyediakan platform 'siap pakai' untuk pelatihan model skala sangat besar dan menangani tugas-tugas kompleks seperti layanan ribuan AI agent atau pemrosesan konteks dengan jutaan token. Sistem ini juga dilengkapi platform penyimpanan memori konteks inferensi dan perangkat lunak Mission Control untuk manajemen.

QModel dan alat open-source apa saja yang diperbarui NVIDIA dalam ekosistem AI-nya?

ANVIDIA memperbarui Open Model Universe dengan model, dataset, kode, dan alat open-source di enam area: AI biomedis (Clara), simulasi fisik AI (Earth-2), AI agen (Nemotron), AI fisik (Cosmos), robotika (GR00T), dan mobil otonom (Alpamayo). Nemotron series mencakup model inferensi kecil, alat pelatihan reinforcement learning, model embedding untuk RAG, model keamanan konten, serta model dan dataset pengenalan suara.

Bacaan Terkait

Menurunkan Ekspektasi untuk Bull Market Bitcoin Berikutnya

Artikel ini membahas penurunan ekspektasi penulis terhadap potensi kenaikan harga Bitcoin (BTC) pada siklus bull market berikutnya. Penulis, Alex Xu, yang sebelumnya memegang BTC sebagai aset terbesarnya, telah mengurangi porsi BTC dari full menjadi sekitar 30% pada kisaran harga $100.000-$120.000, dan kembali mengurangi di level $78.000-$79.000. Alasan utama penurunan ekspektasi ini adalah: 1. **Energi Penggerak yang Melemah:** Narasi adopsi BTC yang mendorong kenaikan signifikan di siklus sebelumnya (dari aset niche hingga institusi besar via ETF) sulit terulang. Langkah berikutnya, seperti masuknya BTC ke dalam cadangan bank sentral negara maju, dianggap sangat sulit tercapai dalam 2-3 tahun ke depan. 2. **Biaya Peluang Pribadi:** Penulis menemukan peluang investasi yang lebih menarik di perusahaan-perusahaan lain. 3. **Dampak Resesi Industri Kripto:** Menyusutnya industri kripto secara keseluruhan (banyak model bisnis seperti SocialFi dan GameFi terbukti gagal) dapat memperlambat pertumbuhan basis pemegang BTC. 4. **Biaya Pendanaan Pembeli Utama:** Perusahaan pembeli BTC terbesar, Stratis, menghadapi kenaikan biaya pendanaan yang memberatkan, yang dapat mengurangi kecepatan pembeliannya dan memberi tekanan jual. 5. **Pesaing Baru untuk "Emas Digital":** Hadirnya "tokenized gold" (emas yang ditokenisasi) menawarkan keunggulan yang mirip dengan BTC (seperti dapat dibagi dan dipindahkan) sehingga menjadi pesaing serius. 6. **Masalah Anggaran Keamanan:** Imbalan miner yang terus berkurang pasca halving menimbulkan kekhawatiran tentang keamanan jaringan, sementara upaya mencari sumber fee baru seperti ordinals dan L2 dinilai gagal. Penulis menyatakan tetap memegang BTC sebagai aset besar dan terbuka untuk membeli kembali jika alasannya tidak lagi relevan atau muncul faktor positif baru, meski siap menerima jika harganya sudah terlalu tinggi untuk dibeli kembali.

marsbitKemarin 02:47

Menurunkan Ekspektasi untuk Bull Market Bitcoin Berikutnya

marsbitKemarin 02:47

Trading

Spot
Futures

Artikel Populer

Apa Itu $S$

Memahami SPERO: Tinjauan Komprehensif Pengenalan SPERO Seiring dengan perkembangan lanskap inovasi, munculnya teknologi web3 dan proyek cryptocurrency memainkan peran penting dalam membentuk masa depan digital. Salah satu proyek yang telah menarik perhatian di bidang dinamis ini adalah SPERO, yang dilambangkan sebagai SPERO,$$s$. Artikel ini bertujuan untuk mengumpulkan dan menyajikan informasi terperinci tentang SPERO, untuk membantu para penggemar dan investor memahami dasar-dasar, tujuan, dan inovasi dalam domain web3 dan crypto. Apa itu SPERO,$$s$? SPERO,$$s$ adalah proyek unik dalam ruang crypto yang berusaha memanfaatkan prinsip desentralisasi dan teknologi blockchain untuk menciptakan ekosistem yang mendorong keterlibatan, utilitas, dan inklusi finansial. Proyek ini dirancang untuk memfasilitasi interaksi peer-to-peer dengan cara baru, memberikan pengguna solusi dan layanan keuangan yang inovatif. Pada intinya, SPERO,$$s$ bertujuan untuk memberdayakan individu dengan menyediakan alat dan platform yang meningkatkan pengalaman pengguna dalam ruang cryptocurrency. Ini termasuk memungkinkan metode transaksi yang lebih fleksibel, mendorong inisiatif yang dipimpin komunitas, dan menciptakan jalur untuk peluang finansial melalui aplikasi terdesentralisasi (dApps). Visi mendasar dari SPERO,$$s$ berputar di sekitar inklusivitas, bertujuan untuk menjembatani kesenjangan dalam keuangan tradisional sambil memanfaatkan manfaat teknologi blockchain. Siapa Pencipta SPERO,$$s$? Identitas pencipta SPERO,$$s$ tetap agak samar, karena ada sumber daya publik yang terbatas yang memberikan informasi latar belakang terperinci tentang pendiriannya. Kurangnya transparansi ini dapat berasal dari komitmen proyek terhadap desentralisasi—sebuah etos yang banyak proyek web3 bagi, memprioritaskan kontribusi kolektif di atas pengakuan individu. Dengan memusatkan diskusi di sekitar komunitas dan tujuan kolektifnya, SPERO,$$s$ mewujudkan esensi pemberdayaan tanpa menonjolkan individu tertentu. Dengan demikian, memahami etos dan misi SPERO tetap lebih penting daripada mengidentifikasi pencipta tunggal. Siapa Investor SPERO,$$s$? SPERO,$$s$ didukung oleh beragam investor mulai dari modal ventura hingga investor malaikat yang berdedikasi untuk mendorong inovasi di sektor crypto. Fokus investor ini umumnya sejalan dengan misi SPERO—memprioritaskan proyek yang menjanjikan kemajuan teknologi sosial, inklusivitas finansial, dan tata kelola terdesentralisasi. Fondasi investor ini biasanya tertarik pada proyek yang tidak hanya menawarkan produk inovatif tetapi juga memberikan kontribusi positif kepada komunitas blockchain dan ekosistemnya. Dukungan dari investor ini memperkuat SPERO,$$s$ sebagai pesaing yang patut diperhitungkan di domain proyek crypto yang berkembang pesat. Bagaimana SPERO,$$s$ Bekerja? SPERO,$$s$ menerapkan kerangka kerja multi-faceted yang membedakannya dari proyek cryptocurrency konvensional. Berikut adalah beberapa fitur kunci yang menekankan keunikan dan inovasinya: Tata Kelola Terdesentralisasi: SPERO,$$s$ mengintegrasikan model tata kelola terdesentralisasi, memberdayakan pengguna untuk berpartisipasi aktif dalam proses pengambilan keputusan mengenai masa depan proyek. Pendekatan ini mendorong rasa kepemilikan dan akuntabilitas di antara anggota komunitas. Utilitas Token: SPERO,$$s$ memanfaatkan token cryptocurrency-nya sendiri, yang dirancang untuk melayani berbagai fungsi dalam ekosistem. Token ini memungkinkan transaksi, hadiah, dan fasilitasi layanan yang ditawarkan di platform, meningkatkan keterlibatan dan utilitas secara keseluruhan. Arsitektur Berlapis: Arsitektur teknis SPERO,$$s$ mendukung modularitas dan skalabilitas, memungkinkan integrasi fitur dan aplikasi tambahan secara mulus seiring dengan perkembangan proyek. Kemampuan beradaptasi ini sangat penting untuk mempertahankan relevansi di lanskap crypto yang selalu berubah. Keterlibatan Komunitas: Proyek ini menekankan inisiatif yang dipimpin komunitas, menggunakan mekanisme yang memberikan insentif untuk kolaborasi dan umpan balik. Dengan memelihara komunitas yang kuat, SPERO,$$s$ dapat lebih baik memenuhi kebutuhan pengguna dan beradaptasi dengan tren pasar. Fokus pada Inklusi: Dengan menawarkan biaya transaksi yang rendah dan antarmuka yang ramah pengguna, SPERO,$$s$ bertujuan untuk menarik basis pengguna yang beragam, termasuk individu yang mungkin sebelumnya tidak terlibat dalam ruang crypto. Komitmen ini terhadap inklusi sejalan dengan misi utamanya untuk memberdayakan melalui aksesibilitas. Garis Waktu SPERO,$$s$ Memahami sejarah proyek memberikan wawasan penting tentang trajektori dan tonggak perkembangannya. Berikut adalah garis waktu yang disarankan yang memetakan peristiwa signifikan dalam evolusi SPERO,$$s$: Fase Konseptualisasi dan Ideasi: Ide awal yang membentuk dasar SPERO,$$s$ dikembangkan, sangat selaras dengan prinsip desentralisasi dan fokus komunitas dalam industri blockchain. Peluncuran Whitepaper Proyek: Setelah fase konseptual, whitepaper komprehensif yang merinci visi, tujuan, dan infrastruktur teknologi SPERO,$$s$ dirilis untuk menarik minat dan umpan balik komunitas. Pembangunan Komunitas dan Keterlibatan Awal: Upaya jangkauan aktif dilakukan untuk membangun komunitas pengguna awal dan investor potensial, memfasilitasi diskusi seputar tujuan proyek dan mendapatkan dukungan. Acara Generasi Token: SPERO,$$s$ melakukan acara generasi token (TGE) untuk mendistribusikan token asli kepada pendukung awal dan membangun likuiditas awal dalam ekosistem. Peluncuran dApp Awal: Aplikasi terdesentralisasi (dApp) pertama yang terkait dengan SPERO,$$s$ diluncurkan, memungkinkan pengguna untuk terlibat dengan fungsionalitas inti platform. Pengembangan Berkelanjutan dan Kemitraan: Pembaruan dan peningkatan berkelanjutan terhadap penawaran proyek, termasuk kemitraan strategis dengan pemain lain di ruang blockchain, telah membentuk SPERO,$$s$ menjadi pemain yang kompetitif dan berkembang di pasar crypto. Kesimpulan SPERO,$$s$ berdiri sebagai bukti potensi web3 dan cryptocurrency untuk merevolusi sistem keuangan dan memberdayakan individu. Dengan komitmen terhadap tata kelola terdesentralisasi, keterlibatan komunitas, dan fungsionalitas yang dirancang secara inovatif, ia membuka jalan menuju lanskap keuangan yang lebih inklusif. Seperti halnya investasi di ruang crypto yang berkembang pesat, calon investor dan pengguna dianjurkan untuk melakukan riset secara menyeluruh dan terlibat dengan perkembangan yang sedang berlangsung dalam SPERO,$$s$. Proyek ini menunjukkan semangat inovatif industri crypto, mengundang eksplorasi lebih lanjut ke dalam berbagai kemungkinan yang ada. Meskipun perjalanan SPERO,$$s$ masih berlangsung, prinsip-prinsip dasarnya mungkin benar-benar mempengaruhi masa depan cara kita berinteraksi dengan teknologi, keuangan, dan satu sama lain dalam ekosistem digital yang saling terhubung.

75 Total TayanganDipublikasikan pada 2024.12.17Diperbarui pada 2024.12.17

Apa Itu $S$

Apa Itu AGENT S

Agent S: Masa Depan Interaksi Otonom di Web3 Pendahuluan Dalam lanskap Web3 dan cryptocurrency yang terus berkembang, inovasi secara konstan mendefinisikan ulang cara individu berinteraksi dengan platform digital. Salah satu proyek perintis, Agent S, menjanjikan untuk merevolusi interaksi manusia-komputer melalui kerangka agen terbuka. Dengan membuka jalan untuk interaksi otonom, Agent S bertujuan untuk menyederhanakan tugas-tugas kompleks, menawarkan aplikasi transformasional dalam kecerdasan buatan (AI). Eksplorasi mendetail ini akan menyelami seluk-beluk proyek, fitur uniknya, dan implikasinya untuk domain cryptocurrency. Apa itu Agent S? Agent S berdiri sebagai kerangka agen terbuka yang inovatif, dirancang khusus untuk mengatasi tiga tantangan mendasar dalam otomatisasi tugas komputer: Memperoleh Pengetahuan Spesifik Domain: Kerangka ini secara cerdas belajar dari berbagai sumber pengetahuan eksternal dan pengalaman internal. Pendekatan ganda ini memberdayakannya untuk membangun repositori pengetahuan spesifik domain yang kaya, meningkatkan kinerjanya dalam pelaksanaan tugas. Perencanaan Selama Rentang Tugas yang Panjang: Agent S menggunakan perencanaan hierarkis yang ditingkatkan pengalaman, pendekatan strategis yang memfasilitasi pemecahan dan pelaksanaan tugas-tugas rumit dengan efisien. Fitur ini secara signifikan meningkatkan kemampuannya untuk mengelola beberapa subtugas dengan efisien dan efektif. Menangani Antarmuka Dinamis dan Tidak Seragam: Proyek ini memperkenalkan Antarmuka Agen-Komputer (ACI), solusi inovatif yang meningkatkan interaksi antara agen dan pengguna. Dengan memanfaatkan Model Bahasa Besar Multimodal (MLLM), Agent S dapat menavigasi dan memanipulasi berbagai antarmuka pengguna grafis dengan mulus. Melalui fitur-fitur perintis ini, Agent S menyediakan kerangka kerja yang kuat yang mengatasi kompleksitas yang terlibat dalam mengotomatisasi interaksi manusia dengan mesin, membuka jalan untuk berbagai aplikasi dalam AI dan seterusnya. Siapa Pencipta Agent S? Meskipun konsep Agent S secara fundamental inovatif, informasi spesifik tentang penciptanya tetap samar. Pencipta saat ini tidak diketahui, yang menyoroti baik tahap awal proyek atau pilihan strategis untuk menjaga anggota pendiri tetap tersembunyi. Terlepas dari anonimitas, fokus tetap pada kemampuan dan potensi kerangka kerja. Siapa Investor Agent S? Karena Agent S relatif baru dalam ekosistem kriptografi, informasi terperinci mengenai investor dan pendukung keuangannya tidak secara eksplisit didokumentasikan. Kurangnya wawasan yang tersedia untuk umum mengenai fondasi investasi atau organisasi yang mendukung proyek ini menimbulkan pertanyaan tentang struktur pendanaannya dan peta jalan pengembangannya. Memahami dukungan sangat penting untuk mengukur keberlanjutan proyek dan potensi dampak pasar. Bagaimana Cara Kerja Agent S? Di inti Agent S terletak teknologi mutakhir yang memungkinkannya berfungsi secara efektif dalam berbagai pengaturan. Model operasionalnya dibangun di sekitar beberapa fitur kunci: Interaksi Komputer yang Mirip Manusia: Kerangka ini menawarkan perencanaan AI yang canggih, berusaha untuk membuat interaksi dengan komputer lebih intuitif. Dengan meniru perilaku manusia dalam pelaksanaan tugas, ia menjanjikan untuk meningkatkan pengalaman pengguna. Memori Naratif: Digunakan untuk memanfaatkan pengalaman tingkat tinggi, Agent S memanfaatkan memori naratif untuk melacak sejarah tugas, sehingga meningkatkan proses pengambilan keputusannya. Memori Episodik: Fitur ini memberikan panduan langkah demi langkah kepada pengguna, memungkinkan kerangka untuk menawarkan dukungan kontekstual saat tugas berlangsung. Dukungan untuk OpenACI: Dengan kemampuan untuk berjalan secara lokal, Agent S memungkinkan pengguna untuk mempertahankan kontrol atas interaksi dan alur kerja mereka, sejalan dengan etos terdesentralisasi Web3. Integrasi Mudah dengan API Eksternal: Versatilitas dan kompatibilitasnya dengan berbagai platform AI memastikan bahwa Agent S dapat dengan mulus masuk ke dalam ekosistem teknologi yang ada, menjadikannya pilihan menarik bagi pengembang dan organisasi. Fungsionalitas ini secara kolektif berkontribusi pada posisi unik Agent S dalam ruang kripto, saat ia mengotomatisasi tugas-tugas kompleks yang melibatkan banyak langkah dengan intervensi manusia yang minimal. Seiring proyek ini berkembang, aplikasi potensialnya di Web3 dapat mendefinisikan ulang bagaimana interaksi digital berlangsung. Garis Waktu Agent S Pengembangan dan tonggak Agent S dapat dirangkum dalam garis waktu yang menyoroti peristiwa pentingnya: 27 September 2024: Konsep Agent S diluncurkan dalam sebuah makalah penelitian komprehensif berjudul “Sebuah Kerangka Agen Terbuka yang Menggunakan Komputer Seperti Manusia,” yang menunjukkan dasar untuk proyek ini. 10 Oktober 2024: Makalah penelitian tersebut dipublikasikan secara terbuka di arXiv, menawarkan eksplorasi mendalam tentang kerangka kerja dan evaluasi kinerjanya berdasarkan tolok ukur OSWorld. 12 Oktober 2024: Sebuah presentasi video dirilis, memberikan wawasan visual tentang kemampuan dan fitur Agent S, lebih lanjut melibatkan pengguna dan investor potensial. Tanda-tanda dalam garis waktu ini tidak hanya menggambarkan kemajuan Agent S tetapi juga menunjukkan komitmennya terhadap transparansi dan keterlibatan komunitas. Poin Kunci Tentang Agent S Seiring kerangka Agent S terus berkembang, beberapa atribut kunci menonjol, menekankan sifat inovatif dan potensinya: Kerangka Inovatif: Dirancang untuk memberikan penggunaan komputer yang intuitif seperti interaksi manusia, Agent S membawa pendekatan baru untuk otomatisasi tugas. Interaksi Otonom: Kemampuan untuk berinteraksi secara otonom dengan komputer melalui GUI menandakan lompatan menuju solusi komputasi yang lebih cerdas dan efisien. Otomatisasi Tugas Kompleks: Dengan metodologinya yang kuat, ia dapat mengotomatisasi tugas-tugas kompleks yang melibatkan banyak langkah, membuat proses lebih cepat dan kurang rentan terhadap kesalahan. Perbaikan Berkelanjutan: Mekanisme pembelajaran memungkinkan Agent S untuk belajar dari pengalaman masa lalu, terus meningkatkan kinerja dan efektivitasnya. Versatilitas: Adaptabilitasnya di berbagai lingkungan operasi seperti OSWorld dan WindowsAgentArena memastikan bahwa ia dapat melayani berbagai aplikasi. Saat Agent S memposisikan dirinya di lanskap Web3 dan kripto, potensinya untuk meningkatkan kemampuan interaksi dan mengotomatisasi proses menandakan kemajuan signifikan dalam teknologi AI. Melalui kerangka inovatifnya, Agent S mencerminkan masa depan interaksi digital, menjanjikan pengalaman yang lebih mulus dan efisien bagi pengguna di berbagai industri. Kesimpulan Agent S mewakili lompatan berani ke depan dalam pernikahan AI dan Web3, dengan kapasitas untuk mendefinisikan ulang cara kita berinteraksi dengan teknologi. Meskipun masih dalam tahap awal, kemungkinan aplikasinya sangat luas dan menarik. Melalui kerangka komprehensifnya yang mengatasi tantangan kritis, Agent S bertujuan untuk membawa interaksi otonom ke garis depan pengalaman digital. Saat kita melangkah lebih dalam ke dalam ranah cryptocurrency dan desentralisasi, proyek-proyek seperti Agent S pasti akan memainkan peran penting dalam membentuk masa depan teknologi dan kolaborasi manusia-komputer.

771 Total TayanganDipublikasikan pada 2025.01.14Diperbarui pada 2025.01.14

Apa Itu AGENT S

Cara Membeli S

Selamat datang di HTX.com! Kami telah membuat pembelian Sonic (S) menjadi mudah dan nyaman. Ikuti panduan langkah demi langkah kami untuk memulai perjalanan kripto Anda.Langkah 1: Buat Akun HTX AndaGunakan alamat email atau nomor ponsel Anda untuk mendaftar akun gratis di HTX. Rasakan perjalanan pendaftaran yang mudah dan buka semua fitur.Dapatkan Akun SayaLangkah 2: Buka Beli Kripto, lalu Pilih Metode Pembayaran AndaKartu Kredit/Debit: Gunakan Visa atau Mastercard Anda untuk membeli Sonic (S) secara instan.Saldo: Gunakan dana dari saldo akun HTX Anda untuk melakukan trading dengan lancar.Pihak Ketiga: Kami telah menambahkan metode pembayaran populer seperti Google Pay dan Apple Pay untuk meningkatkan kenyamanan.P2P: Lakukan trading langsung dengan pengguna lain di HTX.Over-the-Counter (OTC): Kami menawarkan layanan yang dibuat khusus dan kurs yang kompetitif bagi para trader.Langkah 3: Simpan Sonic (S) AndaSetelah melakukan pembelian, simpan Sonic (S) di akun HTX Anda. Selain itu, Anda dapat mengirimkannya ke tempat lain melalui transfer blockchain atau menggunakannya untuk memperdagangkan mata uang kripto lainnya.Langkah 4: Lakukan trading Sonic (S)Lakukan trading Sonic (S) dengan mudah di pasar spot HTX. Cukup akses akun Anda, pilih pasangan perdagangan, jalankan trading, lalu pantau secara real-time. Kami menawarkan pengalaman yang ramah pengguna baik untuk pemula maupun trader berpengalaman.

1.1k Total TayanganDipublikasikan pada 2025.01.15Diperbarui pada 2025.03.21

Cara Membeli S

Diskusi

Selamat datang di Komunitas HTX. Di sini, Anda bisa terus mendapatkan informasi terbaru tentang perkembangan platform terkini dan mendapatkan akses ke wawasan pasar profesional. Pendapat pengguna mengenai harga S (S) disajikan di bawah ini.

活动图片