Bài phát biểu mới nhất của Jensen Huang tại CES2026: Ba chủ đề chính, một 'quái vật chip'

marsbitXuất bản vào 2026-01-06Cập nhật gần nhất vào 2026-01-06

Tóm tắt

Tại CES 2026, CEO NVIDIA Jensen Huang đã công bố nhiều công nghệ đột phá, tập trung vào ba chủ đề chính: nền tảng tính toán Rubin, AI suy luận (Reasoning AI) và ứng dụng AI vật lý. Rubin là kiến trúc GPU thế hệ mới, với hiệu năng推理 (suy luận) tăng gấp 5 lần và băng thông bộ nhớ tăng 2.8 lần so với Blackwell, giúp giảm chi phí suy luận xuống 10 lần. Hệ thống bao gồm Rubin GPU, Vera CPU, NVLink 6 và nền tảng lưu trữ ngữ cảnh suy luận mới, cho phép AI "suy nghĩ lâu hơn" một cách hiệu quả về chi phí. Về AI suy luận, NVIDIA mở rộng hệ sinh thái mã nguồn mở (Open Model Universe) với các mô hình như Nemotron cho RAG và an toàn nội dung, cùng bộ công cụ đầy đủ từ dữ liệu đến mã code. Trong lĩnh vực AI vật lý, NVIDIA công bố Cosmos - mô hình cơ sở để hiểu và tạo video về thế giới vật lý, và Alpamayo - mô hình suy luận thị giác-ngôn ngữ-hành động mã nguồn mở cho xe tự lái. Hệ thống DRIVE của NVIDIA cũng chính thức được sản xuất hàng loạt trên xe Mercedes-Benz CLA. Ngoài ra, hệ thống robot dựa trên nền tảng Isaac và mô hình GR00T đang được phát triển bởi nhiều công ty hàng đầu, từ công nghiệp đến robot hình người. Bài phát biểu của ông Huang nhấn mạnh tầm nhìn về một kỷ nguyên AI vật lý, nơi AI có thể suy luận lâu dài và triển khai trong thế giới thực, với cơ sở hạ tầng toàn diện từ phần cứng, phần mềm đến các mô hình ứng dụng.

Tác giả: Lý Hải Luân, Tô Dương

Vào ngày 6 tháng 1 giờ Bắc Kinh, CEO NVIDIA Jensen Huang một lần nữa xuất hiện trên sân khấu chính của CES2026 trong chiếc áo da biểu tượng.

Tại CES năm 2025, NVIDIA đã trình diễn chip Blackwell sản xuất hàng loạt và ngăn xếp công nghệ AI vật lý hoàn chỉnh. Tại hội nghị, Huang nhấn mạnh rằng một "thời đại AI vật lý" đang bắt đầu. Ông đã vẽ nên một tương lai đầy trí tưởng tượng: xe tự lái có khả năng suy luận, robot có thể hiểu và suy nghĩ, AIAgent (tác nhân thông minh) có thể xử lý các tác vụ ngữ cảnh dài với hàng triệu token.

Một năm trôi qua, ngành công nghiệp AI đã trải qua những biến chuyển to lớn. Khi nhìn lại những thay đổi trong năm nay tại buổi ra mắt, Huang đặc biệt nhắc đến các mô hình mã nguồn mở.

Ông nói, các mô hình suy luận mã nguồn mở như DeepSeek R1 đã khiến toàn ngành nhận ra: khi sự hợp tác mở và toàn cầu thực sự được khởi động, tốc độ lan tỏa của AI sẽ cực kỳ nhanh. Mặc dù các mô hình mã nguồn mở vẫn chậm hơn khoảng nửa năm so với các mô hình tiên tiến nhất về tổng thể năng lực, nhưng cứ sau sáu tháng lại tiến gần hơn một bước, và lượng tải xuống cũng như sử dụng đã tăng trưởng bùng nổ.

So với năm 2025 tập trung nhiều hơn vào viễn cảnh và khả năng, lần này NVIDIA bắt đầu giải quyết một cách có hệ thống vấn đề "làm thế nào để đạt được": xoay quanh AI suy luận, bổ sung cơ sở hạ tầng tính toán, mạng lưới và lưu trữ cần thiết để vận hành lâu dài, giảm đáng kể chi phí suy luận và nhúng trực tiếp những khả năng này vào các kịch bản thực tế như lái xe tự động và robot.

Bài phát biểu của Jensen Huang tại CES lần này được triển khai xoay quanh ba chủ đề chính:

● Ở cấp độ hệ thống và cơ sở hạ tầng, NVIDIA đã tái cấu trúc kiến trúc tính toán, mạng lưới và lưu trữ xung quanh nhu cầu suy luận dài hạn. Với lõi là nền tảng Rubin, NVLink 6, Spectrum-X Ethernet và nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận, những cập nhật này nhắm thẳng vào các nút thắt cổ chai như chi phí suy luận cao, ngữ cảnh khó duy trì và khả năng mở rộng bị hạn chế, giải quyết vấn đề AI suy nghĩ lâu hơn, tính toán được và chạy lâu dài.

● Ở cấp độ mô hình, NVIDIA đặt AI suy luận (Reasoning / Agentic AI) vào vị trí cốt lõi. Thông qua các mô hình và công cụ như Alpamayo, Nemotron, Cosmos Reason, thúc đẩy AI từ "tạo ra nội dung" tiến tới khả năng suy nghĩ liên tục, từ "mô hình phản hồi một lần" chuyển hướng sang "tác nhân thông minh có thể làm việc lâu dài".

● Ở cấp độ ứng dụng và triển khai thực tế, những khả năng này được đưa trực tiếp vào các kịch bản AI vật lý như lái xe tự động và robot. Cho dù là hệ thống lái xe tự động được cung cấp bởi Alpamayo, hay hệ sinh thái robot GR00T với Jetson, tất cả đều đang thúc đẩy triển khai quy mô lớn thông qua hợp tác với các nền tảng của nhà cung cấp dịch vụ đám mây và doanh nghiệp.

01 Từ lộ trình đến sản xuất hàng loạt: Rubin lần đầu tiên công bố đầy đủ dữ liệu hiệu năng

Tại CES lần này, NVIDIA lần đầu tiên công bố đầy đủ chi tiết kỹ thuật của kiến trúc Rubin.

Trong bài phát biểu, Huang bắt đầu với Test-time Scaling (Mở rộng khi suy luận), khái niệm này có thể hiểu là, để AI trở nên thông minh hơn, không còn chỉ là khiến nó "đọc nhiều hơn", mà là dựa vào việc "suy nghĩ thêm một lúc khi gặp vấn đề".

Trước đây, việc nâng cao năng lực AI chủ yếu dựa vào việc đổ thêm sức mạnh tính toán trong giai đoạn huấn luyện, làm cho mô hình ngày càng lớn hơn; còn bây giờ, thay đổi mới là ngay cả khi mô hình không tiếp tục mở rộng, chỉ cần cho nó thêm một chút thời gian và sức mạnh tính toán để suy nghĩ trong mỗi lần sử dụng, kết quả cũng có thể được cải thiện rõ rệt.

Làm thế nào để việc "AI suy nghĩ thêm một lúc" trở nên khả thi về mặt kinh tế? Nền tảng tính toán AI thế hệ mới với kiến trúc Rubin chính là để giải quyết vấn đề này.

Huang giới thiệu, đây là một hệ thống tính toán AI thế hệ tiếp theo hoàn chỉnh, thông qua thiết kế phối hợp của Vera CPU, Rubin GPU, NVLink 6, ConnectX-9, BlueField-4, Spectrum-6, nhằm đạt được sự sụt giảm cách mạng trong chi phí suy luận.

GPU Rubin của NVIDIA là chip lõi chịu trách nhiệm tính toán AI trong kiến trúc Rubin, mục tiêu là giảm đáng kể chi phí đơn vị cho suy luận và huấn luyện.

Nói một cách đơn giản, nhiệm vụ cốt lõi của GPU Rubin là "làm cho AI sử dụng ít tốn kém hơn và thông minh hơn".

Khả năng cốt lõi của GPU Rubin nằm ở: cùng một GPU có thể làm được nhiều việc hơn. Nó có thể xử lý nhiều tác vụ suy luận hơn trong một lần, ghi nhớ ngữ cảnh dài hơn, và giao tiếp với các GPU khác cũng nhanh hơn, điều này có nghĩa là nhiều kịch bản vốn cần phải "xếp chồng nhiều card" giờ đây có thể hoàn thành với ít GPU hơn.

Kết quả là, suy luận không chỉ nhanh hơn mà còn rẻ hơn đáng kể.

Huang tại hiện trường đã ôn lại các thông số phần cứng NVL72 của kiến trúc Rubin: chứa 220 nghìn tỷ transistor, băng thông 260 TB/giây, là nền tảng đầu tiên trong ngành hỗ trợ tính toán bảo mật quy mô giá đỡ.

Nhìn chung, so với Blackwell, GPU Rubin đạt được bước nhảy vọt thế hệ ở các chỉ số quan trọng: Hiệu năng suy luận NVFP4 tăng lên 50 PFLOPS (gấp 5 lần), hiệu năng huấn luyện tăng lên 35 PFLOPS (gấp 3.5 lần), băng thông bộ nhớ HBM4 tăng lên 22 TB/s (gấp 2.8 lần), băng thông kết nối NVLink trên một GPU tăng gấp đôi lên 3.6 TB/s.

Những cải tiến này cùng tác động, khiến một GPU đơn lẻ có thể xử lý nhiều tác vụ suy luận hơn và ngữ cảnh dài hơn, từ căn bản giảm sự phụ thuộc vào số lượng GPU.

Vera CPU là thành phần lõi được thiết kế chuyên cho di chuyển dữ liệu và xử lý Agentic, sử dụng 88 lõi Olympus tự nghiên cứu của NVIDIA, trang bị 1.5 TB bộ nhớ hệ thống (gấp 3 lần Grace CPU thế hệ trước), thông qua công nghệ NVLink-C2C 1.8 TB/s để thực hiện truy cập bộ nhớ nhất quán giữa CPU và GPU.

Khác với CPU đa dụng truyền thống, Vera tập trung vào điều phối dữ liệu và xử lý logic suy luận nhiều bước trong các kịch bản suy luận AI, về bản chất là người điều phối hệ thống giúp việc "AI suy nghĩ thêm một lúc" có thể vận hành hiệu quả.

NVLink 6 thông qua băng thông 3.6 TB/s và khả năng tính toán trong mạng, cho phép 72 GPU trong kiến trúc Rubin có thể làm việc phối hợp như một siêu GPU, đây là cơ sở hạ tầng then chốt để đạt được việc giảm chi phí suy luận.

Bằng cách này, dữ liệu và kết quả trung gian mà AI cần khi suy luận có thể nhanh chóng lưu chuyển giữa các GPU, không cần phải chờ đợi, sao chép hoặc tính toán lại nhiều lần.

Trong kiến trúc Rubin, NVLink-6 chịu trách nhiệm tính toán phối hợp nội bộ GPU, BlueField-4 chịu trách nhiệm điều phối ngữ cảnh và dữ liệu, còn ConnectX-9 thì đảm nhận kết nối mạng tốc độ cao đối ngoại của hệ thống. Nó đảm bảo hệ thống Rubin có thể giao tiếp hiệu quả với các giá đỡ khác, trung tâm dữ liệu và nền tảng đám mây, là tiền đề cho việc vận hành suôn sẻ các tác vụ huấn luyện và suy luận quy mô lớn.

So với kiến trúc thế hệ trước, NVIDIA cũng đưa ra dữ liệu cụ thể trực quan: So với nền tảng NVIDIA Blackwell, có thể giảm chi phí token trong giai đoạn suy luận tối đa 10 lần, và giảm số lượng GPU cần thiết để huấn luyện mô hình chuyên gia hỗn hợp (MoE) xuống còn 1/4 so với ban đầu.

NVIDIA chính thức tuyên bố, hiện Microsoft đã cam kết triển khai hàng trăm nghìn chip Vera Rubin trong siêu nhà máy AI Fairwater thế hệ tiếp theo, các nhà cung cấp dịch vụ đám mây như CoreWeave sẽ cung cấp instance Rubin vào nửa cuối năm 2026, cơ sở hạ tầng "cho AI suy nghĩ thêm một lúc" này đang từ trình diễn kỹ thuật tiến tới thương mại hóa quy mô lớn.

02 "Nút thắt cổ chai lưu trữ" được giải quyết như thế nào?

Việc để AI "suy nghĩ thêm một lúc" còn đối mặt với một thách thức kỹ thuật then chốt: dữ liệu ngữ cảnh nên được đặt ở đâu?

Khi AI xử lý các tác vụ phức tạp cần đối thoại nhiều vòng, suy luận nhiều bước, sẽ tạo ra lượng lớn dữ liệu ngữ cảnh (KV Cache). Kiến trúc truyền thống hoặc là nhét chúng vào bộ nhớ GPU đắt đỏ và có dung lượng hạn chế, hoặc là đưa vào bộ lưu trữ thông thường (truy cập quá chậm). "Nút thắt cổ chai lưu trữ" này nếu không giải quyết, GPU mạnh đến mấy cũng bị kéo tụt.

Để giải quyết vấn đề này, NVIDIA tại CES lần này lần đầu tiên công bố đầy đủ nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận (Inference Context Memory Storage Platform) được cung cấp bởi BlueField-4, mục tiêu cốt lõi là tạo ra một "lớp thứ ba" giữa bộ nhớ GPU và bộ lưu trữ truyền thống. Vừa đủ nhanh, vừa có dung lượng dồi dào, lại còn có thể hỗ trợ AI vận hành lâu dài.

Xét về mặt triển khai kỹ thuật, nền tảng này không phải là một thành phần đơn lẻ phát huy tác dụng, mà là kết quả của một thiết kế phối hợp:

  • BlueField-4 chịu trách nhiệm tăng tốc quản lý và truy cập dữ liệu ngữ cảnh ở cấp phần cứng, giảm thiểu việc di chuyển dữ liệu và chi phí hệ thống;
  • Spectrum-X Ethernet cung cấp mạng lưới hiệu năng cao, hỗ trợ chia sẻ dữ liệu tốc độ cao dựa trên RDMA;
  • Các thành phần phần mềm như DOCA, NIXL và Dynamo, thì chịu trách nhiệm tối ưu hóa điều phối ở cấp hệ thống, giảm độ trễ, nâng cao thông lượng tổng thể.

Chúng ta có thể hiểu, cách làm của nền tảng này là, mở rộng dữ liệu ngữ cảnh vốn chỉ có thể đặt trong bộ nhớ GPU, ra một "lớp ký ức" độc lập, tốc độ cao, có thể chia sẻ. Một mặt giải phóng áp lực cho GPU, mặt khác lại có thể nhanh chóng chia sẻ thông tin ngữ cảnh này giữa nhiều node, nhiều tác nhân thông minh AI.

Về hiệu quả thực tế, dữ liệu do NVIDIA chính thức đưa ra là: trong các kịch bản cụ thể, cách này có thể làm tăng số token xử lý mỗi giây lên tối đa 5 lần, và đạt được mức tối ưu hóa hiệu suất năng lượng tương đương.

Huang nhiều lần nhấn mạnh trong buổi ra mắt, AI đang tiến hóa từ "chatbot đối thoại một lần", thành tác nhân hợp tác thông minh thực sự: chúng cần hiểu thế giới thực, suy luận liên tục, gọi công cụ hoàn thành tác vụ, và đồng thời lưu giữ ký ức ngắn hạn và dài hạn. Đây chính là đặc trưng cốt lõi của Agentic AI. Nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận, chính được thiết kế cho hình thái AI vận hành lâu dài, suy nghĩ lặp lại này, thông qua mở rộng dung lượng ngữ cảnh, tăng tốc chia sẻ xuyên node, khiến đối thoại nhiều vòng và hợp tác đa tác nhân thông minh ổn định hơn, không còn "chạy càng lâu càng chậm".

03 DGX SuperPOD thế hệ mới: Cho phép 576 GPU làm việc phối hợp

NVIDIA tại CES lần này đã công bố ra mắt DGX SuperPOD (siêu node) thế hệ mới dựa trên kiến trúc Rubin, mở rộng Rubin từ giá đỡ đơn lẻ thành giải pháp hoàn chỉnh cho toàn bộ trung tâm dữ liệu.

DGX SuperPOD là gì?

Nếu nói Rubin NVL72 là một "siêu giá đỡ" chứa 72 GPU, thì DGX SuperPOD là kết nối nhiều giá đỡ như vậy lại, hình thành một cụm tính toán AI quy mô lớn hơn. Phiên bản được công bố lần này bao gồm 8 giá đỡ Vera Rubin NVL72, tương đương với 576 GPU làm việc phối hợp.

Khi quy mô tác vụ AI tiếp tục mở rộng, 576 GPU của một giá đỡ có thể vẫn chưa đủ. Ví dụ như huấn luyện mô hình siêu lớn, đồng thời phục vụ hàng nghìn tác nhân thông minh Agentic AI, hoặc xử lý các tác vụ phức tạp cần ngữ cảnh hàng triệu token. Lúc này cần nhiều giá đỡ phối hợp làm việc, và DGX SuperPOD chính là giải pháp tiêu chuẩn hóa được thiết kế cho kịch bản này.

Đối với doanh nghiệp và nhà cung cấp dịch vụ đám mây, DGX SuperPOD cung cấp một giải pháp cơ sở hạ tầng AI quy mô lớn "dùng ngay". Không cần tự mình nghiên cứu cách kết nối hàng trăm GPU, cách cấu hình mạng, cách quản lý lưu trữ, v.v.

Năm thành phần cốt lõi của DGX SuperPOD thế hệ mới:

○ 8 giá đỡ Vera Rubin NVL72 - cung cấp năng lực tính toán cốt lõi, mỗi giá đỡ 72 GPU, tổng cộng 576 GPU;

○ Mạng mở rộng NVLink 6 - cho phép 576 GPU trong 8 giá đỡ này có thể làm việc phối hợp như một siêu GPU khổng lồ;

○ Mạng mở rộng Spectrum-X Ethernet - kết nối các SuperPOD khác nhau, cũng như kết nối với lưu trữ và mạng bên ngoài;

○ Nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận - cung cấp lưu trữ dữ liệu ngữ cảnh chia sẻ cho các tác vụ suy luận dài hạn;

○ Phần mềm Mission Control của NVIDIA - quản lý điều phối, giám sát và tối ưu hóa toàn hệ thống.

Lần nâng cấp này, nền tảng của SuperPOD lấy hệ thống cấp giá đỡ DGX Vera Rubin NVL72 làm cốt lõi. Mỗi NVL72 tự thân đã là một siêu máy tính AI hoàn chỉnh, bên trong kết nối 72 GPU Rubin thông qua NVLink 6, có thể hoàn thành các tác vụ suy luận và huấn luyện quy mô lớn trong một giá đỡ. DGX SuperPOD mới, thì được tạo thành từ nhiều NVL72, hình thành một cụm cấp hệ thống có thể vận hành lâu dài.

Khi quy mô tính toán mở rộng từ "giá đỡ đơn" sang "đa giá đỡ", nút thắt cổ chai mới xuất hiện: làm thế nào để truyền tải lượng dữ liệu khổng lồ giữa các giá đỡ một cách ổn định và hiệu quả. Xoay quanh vấn đề này, NVIDIA tại CES lần này đã đồng thời công bố switch Ethernet thế hệ mới dựa trên chip Spectrum-6, và lần đầu tiên giới thiệu công nghệ "quang học đóng gói chung" (CPO).

Nhìn một cách đơn giản, là đóng gói trực tiếp các mô-đun quang vốn có thể cắm rút vào bên cạnh chip switch, rút ngắn khoảng cách truyền tín hiệu từ vài mét xuống vài milimet, từ đó giảm đáng kể công suất tiêu thụ và độ trễ, cũng nâng cao độ ổn định tổng thể của hệ thống.

04 "Cả tá" AI mã nguồn mở của NVIDIA: Từ dữ liệu đến mã code đầy đủ

Tại CES lần này, Huang thông báo mở rộng hệ sinh thái mô hình mã nguồn mở (Open Model Universe) của mình, bổ sung và cập nhật một loạt mô hình, tập dữ liệu, kho mã code và công cụ. Hệ sinh thái này bao phủ sáu lĩnh vực: AI y sinh (Clara), mô phỏng vật lý AI (Earth-2), Agentic AI (Nemotron), AI vật lý (Cosmos), robot (GR00T) và lái xe tự động (Alpamayo).

Huấn luyện một mô hình AI không chỉ cần sức mạnh tính toán, mà còn cần tập dữ liệu chất lượng cao, mô hình tiền huấn luyện, mã code huấn luyện, công cụ đánh giá, v.v. toàn bộ cơ sở hạ tầng. Đối với hầu hết doanh nghiệp và tổ chức nghiên cứu, việc xây dựng những thứ này từ con số 0 quá tốn thời gian.

Cụ thể, NVIDIA đã mở mã nguồn sáu cấp độ nội dung: nền tảng tính toán (DGX, HGX, v.v.), tập dữ liệu huấn luyện các lĩnh vực, mô hình cơ sở tiền huấn luyện, thư viện mã code suy luận và huấn luyện, kịch bản quy trình huấn luyện hoàn chỉnh, và mẫu giải pháp end-to-end.

Dòng Nemotron là trọng tâm của lần cập nhật này, bao phủ bốn hướng ứng dụng.

Ở hướng suy luận, bao gồm các mô hình suy luận thu nhỏ như Nemotron 3 Nano, Nemotron 2 Nano VL, v.v., và các công cụ huấn luyện học tăng cường như NeMo RL, NeMo Gym. Ở hướng RAG (tạo thành tăng cường truy xuất), cung cấp Nemotron Embed VL (mô hình nhúng vector), Nemotron Rerank VL (mô hình sắp xếp lại), tập dữ liệu liên quan và NeMo Retriever Library (thư viện truy xuất). Ở hướng an toàn, có mô hình an toàn nội dung Nemotron Content Safety và tập dữ liệu đi kèm, thư viện rào chắn NeMo Guardrails.

Ở hướng giọng nói, thì bao gồm nhận dạng giọng nói tự động Nemotron ASR, tập dữ liệu giọng nói Granary Dataset và thư viện xử lý giọng nói NeMo Library. Điều này có nghĩa là doanh nghiệp muốn làm một hệ thống dịch vụ khách hàng AI có RAG, không cần tự huấn luyện mô hình nhúng và mô hình sắp xếp lại, có thể sử dụng trực tiếp mã code mà NVIDIA đã huấn luyện và mở mã nguồn.

05 Lĩnh vực AI vật lý, tiến tới triển khai thương mại

Lĩnh vực AI vật lý cũng có cập nhật mô hình - Cosmos dùng để hiểu và tạo video thế giới vật lý, mô hình cơ sở chung cho robot Isaac GR00T, mô hình hành động-ngôn ngữ-thị giác cho lái xe tự động Alpamayo.

Huang tại CES tuyên bố, "thời khắc ChatGPT" của AI vật lý sắp đến rồi, nhưng đối mặt với thách thức cũng rất nhiều: thế giới vật lý quá phức tạp và biến đổi, thu thập dữ liệu thực lại chậm và đắt, mãi mãi không đủ.

Làm thế nào bây giờ? Dữ liệu tổng hợp là một con đường. Vì thế NVIDIA đã cho ra mắt Cosmos.

Đây là một mô hình cơ sở thế giới AI vật lý mã nguồn mở, hiện đã được tiền huấn luyện với lượng lớn video, dữ liệu lái xe và robot thực tế, cũng như mô phỏng 3D. Nó có thể hiểu thế giới vận hành như thế nào, có thể liên kết ngôn ngữ, hình ảnh, 3D và hành động.

Huang cho biết, Cosmos có thể đạt được không ít kỹ năng AI vật lý, ví dụ như tạo nội dung, suy luận, dự đoán quỹ đạo (cho dù chỉ cho nó một bức ảnh). Nó có thể tạo video chân thực dựa trên cảnh 3D, tạo chuyển động phù hợp quy luật vật lý dựa trên dữ liệu lái xe, còn có thể tạo video toàn cảnh từ trình mô phỏng, hình ảnh đa camera hoặc mô tả bằng văn bản. Ngay cả các cảnh hiếm gặp, cũng có thể khôi phục lại.

Huang còn chính thức phát hành Alpamayo. Alpamayo là một chuỗi công cụ mã nguồn mở cho lĩnh vực lái xe tự động, cũng là mô hình suy luận hành động-ngôn ngữ-thị giác (VLA) mã nguồn mở đầu tiên. Khác với trước đây chỉ mở mã nguồn code, lần này NVIDIA mở mã nguồn toàn bộ tài nguyên phát triển từ dữ liệu đến triển khai.

Đột phá lớn nhất của Alpamayo nằm ở chỗ nó là mô hình lái xe tự động "suy luận". Hệ thống lái xe tự động truyền thống là kiến trúc đường ống "cảm nhận - lập kế hoạch - điều khiển", thấy đèn đỏ thì phanh, thấy người đi bộ thì giảm tốc, tuân theo quy tắc định sẵn. Còn Alpamayo giới thiệu khả năng "suy luận", hiểu quan hệ nhân quả trong cảnh phức tạp, dự đoán ý định của các xe khác và người đi bộ, thậm chí có thể xử lý các quyết định cần suy nghĩ nhiều bước.

Ví dụ tại ngã tư, nó không chỉ nhận ra "phía trước có xe", mà còn có thể suy luận "chiếc xe kia có thể rẽ trái, vì vậy tôi nên đợi nó đi qua trước". Khả năng này nâng cấp lái xe tự động từ "chạy theo quy tắc" lên "suy nghĩ như con người".

Huang thông báo hệ thống DRIVE của NVIDIA chính thức bước vào giai đoạn sản xuất hàng loạt, ứng dụng đầu tiên là Mercedes-Benz CLA hoàn toàn mới, dự kiến lưu thông tại Mỹ vào năm 2026. Chiếc xe này sẽ được trang bị hệ thống lái xe tự động cấp L2++, sử dụng kiến trúc lai "mô hình AI end-to-end + đường ống truyền thống".

Lĩnh vực robot cũng có tiến triển thực chất.

Huang cho biết các doanh nghiệp hàng đầu toàn cầu về robot bao gồm Boston Dynamics, Franka Robotics, LEM Surgical, LG Electronics, Neura Robotics và XRlabs, đang phát triển sản phẩm dựa trên nền tảng Isaac và mô hình cơ sở GR00T của NVIDIA, bao phủ nhiều lĩnh vực từ robot công nghiệp, robot phẫu thuật đến robot hình người, robot cấp tiêu dùng.

Tại hiện trường buổi ra mắt, phía sau Huang đứng đầy các robot với hình thái và công dụng khác nhau, chúng được trưng bày tập trung trên sân khấu phân tầng: từ robot hình người, robot dịch vụ hai chân và bánh xe, đến cánh tay máy công nghiệp, máy móc kỹ thuật, máy bay không người lái và thiết bị hỗ trợ phẫu thuật, thể hiện một "bức tranh hệ sinh thái robot".

Từ ứng dụng AI vật lý đến nền tảng tính toán RubinAI, rồi đến nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận và "cả tá" AI mã nguồn mở.

Những động thái mà NVIDIA thể hiện tại CES này, đã cấu thành nên tường thuật của họ về cơ sở hạ tầng AI trong thời đại suy luận. Như Huang đã nhiều lần nhấn mạnh, khi AI vật lý cần suy nghĩ liên tục, vận hành lâu dài, và thực sự bước vào thế giới thực, vấn đề không còn chỉ là sức mạnh tính toán có đủ hay không, mà là ai có thể thực sự dựng lên toàn bộ hệ thống.

Tại CES 2026, NVIDIA đã đưa ra một bản trả lời.

Câu hỏi Liên quan

QKiến trúc Rubin của NVIDIA có những cải tiến đáng kể nào so với thế hệ Blackwell?

AKiến trúc Rubin của NVIDIA có những cải tiến vượt bậc so với Blackwell: hiệu suất suy luận (inference) NVFP4 tăng lên 50 PFLOPS (gấp 5 lần), hiệu suất huấn luyện đạt 35 PFLOPS (gấp 3.5 lần), băng thông bộ nhớ HBM4 tăng lên 22 TB/s (gấp 2.8 lần) và băng thông kết nối NVLink trên mỗi GPU tăng gấp đôi lên 3.6 TB/s. Những cải tiến này giúp một GPU có thể xử lý nhiều tác vụ suy luận hơn và nhớ được ngữ cảnh dài hơn, từ đó giảm đáng kể sự phụ thuộc vào số lượng GPU.

QNền tảng Lưu trữ Bộ nhớ Ngữ cảnh Suy luận (Inference Context Memory Storage Platform) của NVIDIA giải quyết vấn đề gì?

ANền tảng Lưu trữ Bộ nhớ Ngữ cảnh Suy luận, được vận hành bởi BlueField-4, giải quyết 'nút thắt lưu trữ' trong các tác vụ AI phức tạp đòi hỏi suy luận nhiều bước. Nó tạo ra một 'lớp thứ ba' giữa bộ nhớ GPU đắt đỏ, dung lượng hạn chế và bộ lưu trữ thông thường có tốc độ truy cập chậm. Nền tảng này cung cấp một không gian lưu trữ vừa đủ nhanh, vừa có dung lượng lớn, hỗ trợ AI hoạt động lâu dài, cho phép chia sẻ ngữ cảnh nhanh chóng giữa các nút và nhiều tác nhân thông minh (AI Agent), từ đó giải phóng áp lực cho GPU và cải thiện hiệu suất tổng thể.

QMô hình Alpamayo của NVIDIA mang lại đột phá gì cho lĩnh vực xe tự hành?

AAlpamayo của NVIDIA là mô hình suy luận Thị giác-Ngôn ngữ-Hành động (VLA) mã nguồn mở đầu tiên cho xe tự hành, mang lại bước đột phá về khả năng 'suy luận'. Khác với hệ thống truyền thống chỉ hoạt động theo quy tắc định sẵn (nhận biết đèn đỏ thì dừng), Alpamayo có thể hiểu mối quan hệ nhân quả trong các tình huống phức tạp, dự đoán ý định của các phương tiện hoặc người đi bộ khác và đưa ra quyết định đòi hỏi nhiều bước suy nghĩ. Điều này nâng cấp khả năng lái xe từ 'tuân theo luật' sang 'suy nghĩ như con người'.

QDGX SuperPOD mới dựa trên kiến trúc Rubin có quy mô và thành phần cốt lõi như thế nào?

ADGX SuperPOD thế hệ mới dựa trên kiến trúc Rubin là một cụm máy chủ AI quy mô lớn, kết nối 8 giá (rack) Vera Rubin NVL72 lại với nhau, tương đương với 576 GPU hoạt động hiệp lực. Năm thành phần cốt lõi của nó bao gồm: 8 giá Vera Rubin NVL72 (cung cấp sức mạnh tính toán), mạng mở rộng NVLink 6 (để 576 GPU phối hợp như một siêu GPU), mạng mở rộng Spectrum-X Ethernet (kết nối các SuperPOD và ra bên ngoài), Nền tảng Lưu trữ Bộ nhớ Ngữ cảnh Suy luận (cung cấp bộ nhớ chia sẻ) và phần mềm NVIDIA Mission Control (quản lý, điều phối và tối ưu hóa toàn hệ thống). Đây là giải pháp 'mở hộp là chạy' cho cơ sở hạ tầng AI quy mô lớn.

QTập hợp mã nguồn mở (Open Model Universe) của NVIDIA tại CES 2026 bao gồm những lĩnh vực và công cụ nào nổi bật?

ATập hợp mã nguồn mở (Open Model Universe) của NVIDIA tại CES 2026 được mở rộng bao gồm sáu lĩnh vực chính: AI Y sinh (Clara), Mô phỏng Vật lý AI (Earth-2), AI dạng Tác nhân (Nemotron), AI Vật lý (Cosmos), Robot (GR00T) và Xe tự hành (Alpamayo). Nổi bật trong đó là bộ công cụ Nemotron, bao gồm các mô hình suy luận cỡ nhỏ (Nemotron 3 Nano), mô hình và thư viện cho RAG (Nemotron Embed VL, Rerank VL), công cụ an toàn nội dung (Nemotron Content Safety) và công cụ xử lý giọng nói (Nemotron ASR). Bộ công cụ này cung cấp từ dữ liệu, mô hình pre-trained, mã code đến kịch bản huấn luyện đầy đủ, giúp các doanh nghiệp và tổ chức nghiên cứu phát triển AI nhanh chóng và hiệu quả hơn.

Nội dung Liên quan

Ghi chép 8 năm khởi nghiệp của đối tác định hướng AI tại a16z

Tác giả, một doanh nhân tiên phong trong lĩnh vực AI generative, đã chia sẻ hành trình 8 năm xây dựng Rosebud AI và những suyết định quan trọng trước khi chuyển sang vai trò mới với tư cách đối tác tại a16z, tập trung đầu tư vào cơ sở hạ tầng AI. Bắt đầu từ năm 2018 khi AI generative còn được gọi là "truyền thông tổng hợp", ông tin tưởng vào tiềm năng biến việc sáng tạo trở nên dễ dàng như chơi game. Các sản phẩm ban đầu như TokkingHeads đã thu hút hàng triệu người dùng bằng cách thiết kế trải nghiệm đơn giản, che đi những hạn chế của mô hình AI thời kỳ đầu. Sự ra mắt của GPT-4 vào năm 2023 là bước ngoặt, khi khả năng tạo mã đủ mạnh để phát triển công cụ trò chơi cho người sáng tạo không chuyên. Ông nhấn mạnh rằng giai đoạn chứng minh khả năng của AI generative đã kết thúc, và cuộc cạnh tranh tiếp theo sẽ xoay quanh việc tổ chức, sản phẩm hóa và thương mại hóa các khả năng này. Trong vai trò mới tại a16z, ông sẽ tập trung vào đầu tư vào frontier model stack, cơ sở hạ tầng và các công cụ phát triển xung quanh mô hình AI. Ông cũng bày tỏ sự lạc quan về những đột phá mà AI mang lại trong lĩnh vực toán học và khoa học.

marsbit13 giờ trước

Ghi chép 8 năm khởi nghiệp của đối tác định hướng AI tại a16z

marsbit13 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai

Bài viết Nổi bật

AGENT S là gì

Agent S: Tương Lai của Tương Tác Tự Động trong Web3 Giới thiệu Trong bối cảnh không ngừng phát triển của Web3 và tiền điện tử, các đổi mới đang liên tục định nghĩa lại cách mà cá nhân tương tác với các nền tảng kỹ thuật số. Một dự án tiên phong như vậy, Agent S, hứa hẹn sẽ cách mạng hóa tương tác giữa con người và máy tính thông qua khung tác nhân mở của nó. Bằng cách mở đường cho các tương tác tự động, Agent S nhằm đơn giản hóa các nhiệm vụ phức tạp, cung cấp các ứng dụng chuyển đổi trong trí tuệ nhân tạo (AI). Cuộc khám phá chi tiết này sẽ đi sâu vào những phức tạp của dự án, các tính năng độc đáo của nó và những tác động đối với lĩnh vực tiền điện tử. Agent S là gì? Agent S đứng vững như một khung tác nhân mở đột phá, được thiết kế đặc biệt để giải quyết ba thách thức cơ bản trong việc tự động hóa các nhiệm vụ máy tính: Thu thập Kiến thức Cụ thể theo Miền: Khung này học một cách thông minh từ nhiều nguồn kiến thức bên ngoài và kinh nghiệm nội bộ. Cách tiếp cận kép này giúp nó xây dựng một kho lưu trữ phong phú về kiến thức cụ thể theo miền, nâng cao hiệu suất của nó trong việc thực hiện nhiệm vụ. Lập Kế Hoạch Qua Các Tầm Nhìn Nhiệm Vụ Dài Hạn: Agent S sử dụng lập kế hoạch phân cấp tăng cường kinh nghiệm, một cách tiếp cận chiến lược giúp phân chia và thực hiện các nhiệm vụ phức tạp một cách hiệu quả. Tính năng này nâng cao đáng kể khả năng quản lý nhiều nhiệm vụ con một cách hiệu quả và hiệu suất. Xử Lý Các Giao Diện Động, Không Đều: Dự án giới thiệu Giao Diện Tác Nhân-Máy Tính (ACI), một giải pháp đổi mới giúp nâng cao tương tác giữa các tác nhân và người dùng. Sử dụng các Mô Hình Ngôn Ngữ Lớn Đa Phương Thức (MLLMs), Agent S có thể điều hướng và thao tác các giao diện người dùng đồ họa đa dạng một cách liền mạch. Thông qua những tính năng tiên phong này, Agent S cung cấp một khung vững chắc giải quyết các phức tạp liên quan đến việc tự động hóa tương tác giữa con người với máy móc, mở ra nhiều ứng dụng trong AI và hơn thế nữa. Ai là Người Tạo ra Agent S? Mặc dù khái niệm về Agent S là hoàn toàn đổi mới, thông tin cụ thể về người sáng lập vẫn còn mơ hồ. Người sáng lập hiện vẫn chưa được biết đến, điều này làm nổi bật giai đoạn sơ khai của dự án hoặc sự lựa chọn chiến lược để giữ kín các thành viên sáng lập. Bất chấp sự ẩn danh, sự chú ý vẫn tập trung vào khả năng và tiềm năng của khung này. Ai là Các Nhà Đầu Tư của Agent S? Vì Agent S còn tương đối mới trong hệ sinh thái mã hóa, thông tin chi tiết về các nhà đầu tư và những người tài trợ tài chính của nó không được ghi chép rõ ràng. Sự thiếu vắng thông tin công khai về các nền tảng đầu tư hoặc tổ chức hỗ trợ dự án dấy lên câu hỏi về cấu trúc tài trợ và lộ trình phát triển của nó. Hiểu biết về sự hỗ trợ là rất quan trọng để đánh giá tính bền vững và tác động tiềm năng của dự án. Agent S Hoạt Động Như Thế Nào? Tại cốt lõi của Agent S là công nghệ tiên tiến cho phép nó hoạt động hiệu quả trong nhiều bối cảnh khác nhau. Mô hình hoạt động của nó được xây dựng xung quanh một số tính năng chính: Tương Tác Giống Như Con Người: Khung này cung cấp lập kế hoạch AI tiên tiến, cố gắng làm cho các tương tác với máy tính trở nên trực quan hơn. Bằng cách bắt chước hành vi của con người trong việc thực hiện nhiệm vụ, nó hứa hẹn nâng cao trải nghiệm người dùng. Ký Ức Tường Thuật: Được sử dụng để tận dụng các trải nghiệm cấp cao, Agent S sử dụng ký ức tường thuật để theo dõi lịch sử nhiệm vụ, từ đó nâng cao quy trình ra quyết định của nó. Ký Ức Tình Huống: Tính năng này cung cấp cho người dùng hướng dẫn từng bước, cho phép khung này cung cấp hỗ trợ theo ngữ cảnh khi các nhiệm vụ diễn ra. Hỗ Trợ OpenACI: Với khả năng chạy cục bộ, Agent S cho phép người dùng duy trì quyền kiểm soát đối với các tương tác và quy trình làm việc của họ, phù hợp với tinh thần phi tập trung của Web3. Tích Hợp Dễ Dàng với Các API Bên Ngoài: Tính linh hoạt và khả năng tương thích với nhiều nền tảng AI khác nhau đảm bảo rằng Agent S có thể hòa nhập liền mạch vào các hệ sinh thái công nghệ hiện có, làm cho nó trở thành lựa chọn hấp dẫn cho các nhà phát triển và tổ chức. Những chức năng này cùng nhau góp phần vào vị trí độc đáo của Agent S trong không gian tiền điện tử, khi nó tự động hóa các nhiệm vụ phức tạp, nhiều bước với sự can thiệp tối thiểu của con người. Khi dự án phát triển, các ứng dụng tiềm năng của nó trong Web3 có thể định nghĩa lại cách mà các tương tác kỹ thuật số diễn ra. Thời Gian Phát Triển của Agent S Sự phát triển và các cột mốc của Agent S có thể được tóm tắt trong một dòng thời gian nêu bật các sự kiện quan trọng của nó: 27 tháng 9, 2024: Khái niệm về Agent S được ra mắt trong một bài nghiên cứu toàn diện mang tên “Một Khung Tác Nhân Mở Sử Dụng Máy Tính Như Một Con Người,” trình bày nền tảng cho dự án. 10 tháng 10, 2024: Bài nghiên cứu được công bố công khai trên arXiv, cung cấp một cái nhìn sâu sắc về khung và đánh giá hiệu suất của nó dựa trên tiêu chuẩn OSWorld. 12 tháng 10, 2024: Một video trình bày được phát hành, cung cấp cái nhìn trực quan về khả năng và tính năng của Agent S, thu hút thêm sự quan tâm từ người dùng và nhà đầu tư tiềm năng. Những dấu mốc trong dòng thời gian không chỉ minh họa sự tiến bộ của Agent S mà còn chỉ ra cam kết của nó đối với sự minh bạch và sự tham gia của cộng đồng. Những Điểm Chính Về Agent S Khi khung Agent S tiếp tục phát triển, một số thuộc tính chính nổi bật, nhấn mạnh tính đổi mới và tiềm năng của nó: Khung Đổi Mới: Được thiết kế để cung cấp cách sử dụng máy tính trực quan giống như tương tác của con người, Agent S mang đến một cách tiếp cận mới cho việc tự động hóa nhiệm vụ. Tương Tác Tự Động: Khả năng tương tác tự động với máy tính thông qua GUI đánh dấu một bước tiến tới các giải pháp tính toán thông minh và hiệu quả hơn. Tự Động Hóa Nhiệm Vụ Phức Tạp: Với phương pháp mạnh mẽ của nó, nó có thể tự động hóa các nhiệm vụ phức tạp, nhiều bước, làm cho các quy trình nhanh hơn và ít sai sót hơn. Cải Tiến Liên Tục: Các cơ chế học tập cho phép Agent S cải thiện từ các trải nghiệm trước đó, liên tục nâng cao hiệu suất và hiệu quả của nó. Tính Linh Hoạt: Khả năng thích ứng của nó trên các môi trường hoạt động khác nhau như OSWorld và WindowsAgentArena đảm bảo rằng nó có thể phục vụ một loạt các ứng dụng rộng rãi. Khi Agent S định vị mình trong bối cảnh Web3 và tiền điện tử, tiềm năng của nó để nâng cao khả năng tương tác và tự động hóa quy trình đánh dấu một bước tiến quan trọng trong công nghệ AI. Thông qua khung đổi mới của mình, Agent S minh họa cho tương lai của các tương tác kỹ thuật số, hứa hẹn một trải nghiệm liền mạch và hiệu quả hơn cho người dùng trên nhiều ngành công nghiệp khác nhau. Kết luận Agent S đại diện cho một bước nhảy vọt táo bạo trong sự kết hợp giữa AI và Web3, với khả năng định nghĩa lại cách chúng ta tương tác với công nghệ. Mặc dù vẫn còn ở giai đoạn đầu, những khả năng cho ứng dụng của nó là rộng lớn và hấp dẫn. Thông qua khung toàn diện của mình giải quyết các thách thức quan trọng, Agent S nhằm đưa các tương tác tự động lên hàng đầu trong trải nghiệm kỹ thuật số. Khi chúng ta tiến sâu hơn vào các lĩnh vực tiền điện tử và phi tập trung, các dự án như Agent S chắc chắn sẽ đóng một vai trò quan trọng trong việc định hình tương lai của công nghệ và sự hợp tác giữa con người với máy tính.

Tổng lượt xem 660Xuất bản vào 2025.01.14Cập nhật vào 2025.01.14

AGENT S là gì

Làm thế nào để Mua S

Chào mừng bạn đến với HTX.com! Chúng tôi đã làm cho mua Sonic (S) trở nên đơn giản và thuận tiện. Làm theo hướng dẫn từng bước của chúng tôi để bắt đầu hành trình tiền kỹ thuật số của bạn.Bước 1: Tạo Tài khoản HTX của BạnSử dụng email hoặc số điện thoại của bạn để đăng ký tài khoản miễn phí trên HTX. Trải nghiệm hành trình đăng ký không rắc rối và mở khóa tất cả tính năng. Nhận Tài khoản của tôiBước 2: Truy cập Mua Crypto và Chọn Phương thức Thanh toán của BạnThẻ Tín dụng/Ghi nợ: Sử dụng Visa hoặc Mastercard của bạn để mua Sonic (S) ngay lập tức.Số dư: Sử dụng tiền từ số dư tài khoản HTX của bạn để giao dịch liền mạch.Bên thứ ba: Chúng tôi đã thêm những phương thức thanh toán phổ biến như Google Pay và Apple Pay để nâng cao sự tiện lợi.P2P: Giao dịch trực tiếp với người dùng khác trên HTX.Thị trường mua bán phi tập trung (OTC): Chúng tôi cung cấp những dịch vụ được thiết kế riêng và tỷ giá hối đoái cạnh tranh cho nhà giao dịch.Bước 3: Lưu trữ Sonic (S) của BạnSau khi mua Sonic (S), lưu trữ trong tài khoản HTX của bạn. Ngoài ra, bạn có thể gửi đi nơi khác qua chuyển khoản blockchain hoặc sử dụng để giao dịch những tiền kỹ thuật số khác.Bước 4: Giao dịch Sonic (S)Giao dịch Sonic (S) dễ dàng trên thị trường giao ngay của HTX. Chỉ cần truy cập vào tài khoản của bạn, chọn cặp giao dịch, thực hiện giao dịch và theo dõi trong thời gian thực. Chúng tôi cung cấp trải nghiệm thân thiện với người dùng cho cả người mới bắt đầu và người giao dịch dày dạn kinh nghiệm.

Tổng lượt xem 1.3kXuất bản vào 2025.01.15Cập nhật vào 2025.03.21

Làm thế nào để Mua S

Thảo luận

Chào mừng đến với Cộng đồng HTX. Tại đây, bạn có thể được thông báo về những phát triển nền tảng mới nhất và có quyền truy cập vào thông tin chuyên sâu về thị trường. Ý kiến ​​của người dùng về giá của S (S) được trình bày dưới đây.

活动图片