Bài phát biểu mới nhất của Jensen Huang tại CES2026: Ba chủ đề chính, một 'quái vật chip'

marsbitXuất bản vào 2026-01-06Cập nhật gần nhất vào 2026-01-06

Tóm tắt

Tại CES 2026, CEO NVIDIA Jensen Huang đã công bố nhiều công nghệ đột phá, tập trung vào ba chủ đề chính: nền tảng tính toán Rubin, AI suy luận (Reasoning AI) và ứng dụng AI vật lý. Rubin là kiến trúc GPU thế hệ mới, với hiệu năng推理 (suy luận) tăng gấp 5 lần và băng thông bộ nhớ tăng 2.8 lần so với Blackwell, giúp giảm chi phí suy luận xuống 10 lần. Hệ thống bao gồm Rubin GPU, Vera CPU, NVLink 6 và nền tảng lưu trữ ngữ cảnh suy luận mới, cho phép AI "suy nghĩ lâu hơn" một cách hiệu quả về chi phí. Về AI suy luận, NVIDIA mở rộng hệ sinh thái mã nguồn mở (Open Model Universe) với các mô hình như Nemotron cho RAG và an toàn nội dung, cùng bộ công cụ đầy đủ từ dữ liệu đến mã code. Trong lĩnh vực AI vật lý, NVIDIA công bố Cosmos - mô hình cơ sở để hiểu và tạo video về thế giới vật lý, và Alpamayo - mô hình suy luận thị giác-ngôn ngữ-hành động mã nguồn mở cho xe tự lái. Hệ thống DRIVE của NVIDIA cũng chính thức được sản xuất hàng loạt trên xe Mercedes-Benz CLA. Ngoài ra, hệ thống robot dựa trên nền tảng Isaac và mô hình GR00T đang được phát triển bởi nhiều công ty hàng đầu, từ công nghiệp đến robot hình người. Bài phát biểu của ông Huang nhấn mạnh tầm nhìn về một kỷ nguyên AI vật lý, nơi AI có thể suy luận lâu dài và triển khai trong thế giới thực, với cơ sở hạ tầng toàn diện từ phần cứng, phần mềm đến các mô hình ứng dụng.

Tác giả: Lý Hải Luân, Tô Dương

Vào ngày 6 tháng 1 giờ Bắc Kinh, CEO NVIDIA Jensen Huang một lần nữa xuất hiện trên sân khấu chính của CES2026 trong chiếc áo da biểu tượng.

Tại CES năm 2025, NVIDIA đã trình diễn chip Blackwell sản xuất hàng loạt và ngăn xếp công nghệ AI vật lý hoàn chỉnh. Tại hội nghị, Huang nhấn mạnh rằng một "thời đại AI vật lý" đang bắt đầu. Ông đã vẽ nên một tương lai đầy trí tưởng tượng: xe tự lái có khả năng suy luận, robot có thể hiểu và suy nghĩ, AIAgent (tác nhân thông minh) có thể xử lý các tác vụ ngữ cảnh dài với hàng triệu token.

Một năm trôi qua, ngành công nghiệp AI đã trải qua những biến chuyển to lớn. Khi nhìn lại những thay đổi trong năm nay tại buổi ra mắt, Huang đặc biệt nhắc đến các mô hình mã nguồn mở.

Ông nói, các mô hình suy luận mã nguồn mở như DeepSeek R1 đã khiến toàn ngành nhận ra: khi sự hợp tác mở và toàn cầu thực sự được khởi động, tốc độ lan tỏa của AI sẽ cực kỳ nhanh. Mặc dù các mô hình mã nguồn mở vẫn chậm hơn khoảng nửa năm so với các mô hình tiên tiến nhất về tổng thể năng lực, nhưng cứ sau sáu tháng lại tiến gần hơn một bước, và lượng tải xuống cũng như sử dụng đã tăng trưởng bùng nổ.

So với năm 2025 tập trung nhiều hơn vào viễn cảnh và khả năng, lần này NVIDIA bắt đầu giải quyết một cách có hệ thống vấn đề "làm thế nào để đạt được": xoay quanh AI suy luận, bổ sung cơ sở hạ tầng tính toán, mạng lưới và lưu trữ cần thiết để vận hành lâu dài, giảm đáng kể chi phí suy luận và nhúng trực tiếp những khả năng này vào các kịch bản thực tế như lái xe tự động và robot.

Bài phát biểu của Jensen Huang tại CES lần này được triển khai xoay quanh ba chủ đề chính:

● Ở cấp độ hệ thống và cơ sở hạ tầng, NVIDIA đã tái cấu trúc kiến trúc tính toán, mạng lưới và lưu trữ xung quanh nhu cầu suy luận dài hạn. Với lõi là nền tảng Rubin, NVLink 6, Spectrum-X Ethernet và nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận, những cập nhật này nhắm thẳng vào các nút thắt cổ chai như chi phí suy luận cao, ngữ cảnh khó duy trì và khả năng mở rộng bị hạn chế, giải quyết vấn đề AI suy nghĩ lâu hơn, tính toán được và chạy lâu dài.

● Ở cấp độ mô hình, NVIDIA đặt AI suy luận (Reasoning / Agentic AI) vào vị trí cốt lõi. Thông qua các mô hình và công cụ như Alpamayo, Nemotron, Cosmos Reason, thúc đẩy AI từ "tạo ra nội dung" tiến tới khả năng suy nghĩ liên tục, từ "mô hình phản hồi một lần" chuyển hướng sang "tác nhân thông minh có thể làm việc lâu dài".

● Ở cấp độ ứng dụng và triển khai thực tế, những khả năng này được đưa trực tiếp vào các kịch bản AI vật lý như lái xe tự động và robot. Cho dù là hệ thống lái xe tự động được cung cấp bởi Alpamayo, hay hệ sinh thái robot GR00T với Jetson, tất cả đều đang thúc đẩy triển khai quy mô lớn thông qua hợp tác với các nền tảng của nhà cung cấp dịch vụ đám mây và doanh nghiệp.

01 Từ lộ trình đến sản xuất hàng loạt: Rubin lần đầu tiên công bố đầy đủ dữ liệu hiệu năng

Tại CES lần này, NVIDIA lần đầu tiên công bố đầy đủ chi tiết kỹ thuật của kiến trúc Rubin.

Trong bài phát biểu, Huang bắt đầu với Test-time Scaling (Mở rộng khi suy luận), khái niệm này có thể hiểu là, để AI trở nên thông minh hơn, không còn chỉ là khiến nó "đọc nhiều hơn", mà là dựa vào việc "suy nghĩ thêm một lúc khi gặp vấn đề".

Trước đây, việc nâng cao năng lực AI chủ yếu dựa vào việc đổ thêm sức mạnh tính toán trong giai đoạn huấn luyện, làm cho mô hình ngày càng lớn hơn; còn bây giờ, thay đổi mới là ngay cả khi mô hình không tiếp tục mở rộng, chỉ cần cho nó thêm một chút thời gian và sức mạnh tính toán để suy nghĩ trong mỗi lần sử dụng, kết quả cũng có thể được cải thiện rõ rệt.

Làm thế nào để việc "AI suy nghĩ thêm một lúc" trở nên khả thi về mặt kinh tế? Nền tảng tính toán AI thế hệ mới với kiến trúc Rubin chính là để giải quyết vấn đề này.

Huang giới thiệu, đây là một hệ thống tính toán AI thế hệ tiếp theo hoàn chỉnh, thông qua thiết kế phối hợp của Vera CPU, Rubin GPU, NVLink 6, ConnectX-9, BlueField-4, Spectrum-6, nhằm đạt được sự sụt giảm cách mạng trong chi phí suy luận.

GPU Rubin của NVIDIA là chip lõi chịu trách nhiệm tính toán AI trong kiến trúc Rubin, mục tiêu là giảm đáng kể chi phí đơn vị cho suy luận và huấn luyện.

Nói một cách đơn giản, nhiệm vụ cốt lõi của GPU Rubin là "làm cho AI sử dụng ít tốn kém hơn và thông minh hơn".

Khả năng cốt lõi của GPU Rubin nằm ở: cùng một GPU có thể làm được nhiều việc hơn. Nó có thể xử lý nhiều tác vụ suy luận hơn trong một lần, ghi nhớ ngữ cảnh dài hơn, và giao tiếp với các GPU khác cũng nhanh hơn, điều này có nghĩa là nhiều kịch bản vốn cần phải "xếp chồng nhiều card" giờ đây có thể hoàn thành với ít GPU hơn.

Kết quả là, suy luận không chỉ nhanh hơn mà còn rẻ hơn đáng kể.

Huang tại hiện trường đã ôn lại các thông số phần cứng NVL72 của kiến trúc Rubin: chứa 220 nghìn tỷ transistor, băng thông 260 TB/giây, là nền tảng đầu tiên trong ngành hỗ trợ tính toán bảo mật quy mô giá đỡ.

Nhìn chung, so với Blackwell, GPU Rubin đạt được bước nhảy vọt thế hệ ở các chỉ số quan trọng: Hiệu năng suy luận NVFP4 tăng lên 50 PFLOPS (gấp 5 lần), hiệu năng huấn luyện tăng lên 35 PFLOPS (gấp 3.5 lần), băng thông bộ nhớ HBM4 tăng lên 22 TB/s (gấp 2.8 lần), băng thông kết nối NVLink trên một GPU tăng gấp đôi lên 3.6 TB/s.

Những cải tiến này cùng tác động, khiến một GPU đơn lẻ có thể xử lý nhiều tác vụ suy luận hơn và ngữ cảnh dài hơn, từ căn bản giảm sự phụ thuộc vào số lượng GPU.

Vera CPU là thành phần lõi được thiết kế chuyên cho di chuyển dữ liệu và xử lý Agentic, sử dụng 88 lõi Olympus tự nghiên cứu của NVIDIA, trang bị 1.5 TB bộ nhớ hệ thống (gấp 3 lần Grace CPU thế hệ trước), thông qua công nghệ NVLink-C2C 1.8 TB/s để thực hiện truy cập bộ nhớ nhất quán giữa CPU và GPU.

Khác với CPU đa dụng truyền thống, Vera tập trung vào điều phối dữ liệu và xử lý logic suy luận nhiều bước trong các kịch bản suy luận AI, về bản chất là người điều phối hệ thống giúp việc "AI suy nghĩ thêm một lúc" có thể vận hành hiệu quả.

NVLink 6 thông qua băng thông 3.6 TB/s và khả năng tính toán trong mạng, cho phép 72 GPU trong kiến trúc Rubin có thể làm việc phối hợp như một siêu GPU, đây là cơ sở hạ tầng then chốt để đạt được việc giảm chi phí suy luận.

Bằng cách này, dữ liệu và kết quả trung gian mà AI cần khi suy luận có thể nhanh chóng lưu chuyển giữa các GPU, không cần phải chờ đợi, sao chép hoặc tính toán lại nhiều lần.

Trong kiến trúc Rubin, NVLink-6 chịu trách nhiệm tính toán phối hợp nội bộ GPU, BlueField-4 chịu trách nhiệm điều phối ngữ cảnh và dữ liệu, còn ConnectX-9 thì đảm nhận kết nối mạng tốc độ cao đối ngoại của hệ thống. Nó đảm bảo hệ thống Rubin có thể giao tiếp hiệu quả với các giá đỡ khác, trung tâm dữ liệu và nền tảng đám mây, là tiền đề cho việc vận hành suôn sẻ các tác vụ huấn luyện và suy luận quy mô lớn.

So với kiến trúc thế hệ trước, NVIDIA cũng đưa ra dữ liệu cụ thể trực quan: So với nền tảng NVIDIA Blackwell, có thể giảm chi phí token trong giai đoạn suy luận tối đa 10 lần, và giảm số lượng GPU cần thiết để huấn luyện mô hình chuyên gia hỗn hợp (MoE) xuống còn 1/4 so với ban đầu.

NVIDIA chính thức tuyên bố, hiện Microsoft đã cam kết triển khai hàng trăm nghìn chip Vera Rubin trong siêu nhà máy AI Fairwater thế hệ tiếp theo, các nhà cung cấp dịch vụ đám mây như CoreWeave sẽ cung cấp instance Rubin vào nửa cuối năm 2026, cơ sở hạ tầng "cho AI suy nghĩ thêm một lúc" này đang từ trình diễn kỹ thuật tiến tới thương mại hóa quy mô lớn.

02 "Nút thắt cổ chai lưu trữ" được giải quyết như thế nào?

Việc để AI "suy nghĩ thêm một lúc" còn đối mặt với một thách thức kỹ thuật then chốt: dữ liệu ngữ cảnh nên được đặt ở đâu?

Khi AI xử lý các tác vụ phức tạp cần đối thoại nhiều vòng, suy luận nhiều bước, sẽ tạo ra lượng lớn dữ liệu ngữ cảnh (KV Cache). Kiến trúc truyền thống hoặc là nhét chúng vào bộ nhớ GPU đắt đỏ và có dung lượng hạn chế, hoặc là đưa vào bộ lưu trữ thông thường (truy cập quá chậm). "Nút thắt cổ chai lưu trữ" này nếu không giải quyết, GPU mạnh đến mấy cũng bị kéo tụt.

Để giải quyết vấn đề này, NVIDIA tại CES lần này lần đầu tiên công bố đầy đủ nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận (Inference Context Memory Storage Platform) được cung cấp bởi BlueField-4, mục tiêu cốt lõi là tạo ra một "lớp thứ ba" giữa bộ nhớ GPU và bộ lưu trữ truyền thống. Vừa đủ nhanh, vừa có dung lượng dồi dào, lại còn có thể hỗ trợ AI vận hành lâu dài.

Xét về mặt triển khai kỹ thuật, nền tảng này không phải là một thành phần đơn lẻ phát huy tác dụng, mà là kết quả của một thiết kế phối hợp:

  • BlueField-4 chịu trách nhiệm tăng tốc quản lý và truy cập dữ liệu ngữ cảnh ở cấp phần cứng, giảm thiểu việc di chuyển dữ liệu và chi phí hệ thống;
  • Spectrum-X Ethernet cung cấp mạng lưới hiệu năng cao, hỗ trợ chia sẻ dữ liệu tốc độ cao dựa trên RDMA;
  • Các thành phần phần mềm như DOCA, NIXL và Dynamo, thì chịu trách nhiệm tối ưu hóa điều phối ở cấp hệ thống, giảm độ trễ, nâng cao thông lượng tổng thể.

Chúng ta có thể hiểu, cách làm của nền tảng này là, mở rộng dữ liệu ngữ cảnh vốn chỉ có thể đặt trong bộ nhớ GPU, ra một "lớp ký ức" độc lập, tốc độ cao, có thể chia sẻ. Một mặt giải phóng áp lực cho GPU, mặt khác lại có thể nhanh chóng chia sẻ thông tin ngữ cảnh này giữa nhiều node, nhiều tác nhân thông minh AI.

Về hiệu quả thực tế, dữ liệu do NVIDIA chính thức đưa ra là: trong các kịch bản cụ thể, cách này có thể làm tăng số token xử lý mỗi giây lên tối đa 5 lần, và đạt được mức tối ưu hóa hiệu suất năng lượng tương đương.

Huang nhiều lần nhấn mạnh trong buổi ra mắt, AI đang tiến hóa từ "chatbot đối thoại một lần", thành tác nhân hợp tác thông minh thực sự: chúng cần hiểu thế giới thực, suy luận liên tục, gọi công cụ hoàn thành tác vụ, và đồng thời lưu giữ ký ức ngắn hạn và dài hạn. Đây chính là đặc trưng cốt lõi của Agentic AI. Nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận, chính được thiết kế cho hình thái AI vận hành lâu dài, suy nghĩ lặp lại này, thông qua mở rộng dung lượng ngữ cảnh, tăng tốc chia sẻ xuyên node, khiến đối thoại nhiều vòng và hợp tác đa tác nhân thông minh ổn định hơn, không còn "chạy càng lâu càng chậm".

03 DGX SuperPOD thế hệ mới: Cho phép 576 GPU làm việc phối hợp

NVIDIA tại CES lần này đã công bố ra mắt DGX SuperPOD (siêu node) thế hệ mới dựa trên kiến trúc Rubin, mở rộng Rubin từ giá đỡ đơn lẻ thành giải pháp hoàn chỉnh cho toàn bộ trung tâm dữ liệu.

DGX SuperPOD là gì?

Nếu nói Rubin NVL72 là một "siêu giá đỡ" chứa 72 GPU, thì DGX SuperPOD là kết nối nhiều giá đỡ như vậy lại, hình thành một cụm tính toán AI quy mô lớn hơn. Phiên bản được công bố lần này bao gồm 8 giá đỡ Vera Rubin NVL72, tương đương với 576 GPU làm việc phối hợp.

Khi quy mô tác vụ AI tiếp tục mở rộng, 576 GPU của một giá đỡ có thể vẫn chưa đủ. Ví dụ như huấn luyện mô hình siêu lớn, đồng thời phục vụ hàng nghìn tác nhân thông minh Agentic AI, hoặc xử lý các tác vụ phức tạp cần ngữ cảnh hàng triệu token. Lúc này cần nhiều giá đỡ phối hợp làm việc, và DGX SuperPOD chính là giải pháp tiêu chuẩn hóa được thiết kế cho kịch bản này.

Đối với doanh nghiệp và nhà cung cấp dịch vụ đám mây, DGX SuperPOD cung cấp một giải pháp cơ sở hạ tầng AI quy mô lớn "dùng ngay". Không cần tự mình nghiên cứu cách kết nối hàng trăm GPU, cách cấu hình mạng, cách quản lý lưu trữ, v.v.

Năm thành phần cốt lõi của DGX SuperPOD thế hệ mới:

○ 8 giá đỡ Vera Rubin NVL72 - cung cấp năng lực tính toán cốt lõi, mỗi giá đỡ 72 GPU, tổng cộng 576 GPU;

○ Mạng mở rộng NVLink 6 - cho phép 576 GPU trong 8 giá đỡ này có thể làm việc phối hợp như một siêu GPU khổng lồ;

○ Mạng mở rộng Spectrum-X Ethernet - kết nối các SuperPOD khác nhau, cũng như kết nối với lưu trữ và mạng bên ngoài;

○ Nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận - cung cấp lưu trữ dữ liệu ngữ cảnh chia sẻ cho các tác vụ suy luận dài hạn;

○ Phần mềm Mission Control của NVIDIA - quản lý điều phối, giám sát và tối ưu hóa toàn hệ thống.

Lần nâng cấp này, nền tảng của SuperPOD lấy hệ thống cấp giá đỡ DGX Vera Rubin NVL72 làm cốt lõi. Mỗi NVL72 tự thân đã là một siêu máy tính AI hoàn chỉnh, bên trong kết nối 72 GPU Rubin thông qua NVLink 6, có thể hoàn thành các tác vụ suy luận và huấn luyện quy mô lớn trong một giá đỡ. DGX SuperPOD mới, thì được tạo thành từ nhiều NVL72, hình thành một cụm cấp hệ thống có thể vận hành lâu dài.

Khi quy mô tính toán mở rộng từ "giá đỡ đơn" sang "đa giá đỡ", nút thắt cổ chai mới xuất hiện: làm thế nào để truyền tải lượng dữ liệu khổng lồ giữa các giá đỡ một cách ổn định và hiệu quả. Xoay quanh vấn đề này, NVIDIA tại CES lần này đã đồng thời công bố switch Ethernet thế hệ mới dựa trên chip Spectrum-6, và lần đầu tiên giới thiệu công nghệ "quang học đóng gói chung" (CPO).

Nhìn một cách đơn giản, là đóng gói trực tiếp các mô-đun quang vốn có thể cắm rút vào bên cạnh chip switch, rút ngắn khoảng cách truyền tín hiệu từ vài mét xuống vài milimet, từ đó giảm đáng kể công suất tiêu thụ và độ trễ, cũng nâng cao độ ổn định tổng thể của hệ thống.

04 "Cả tá" AI mã nguồn mở của NVIDIA: Từ dữ liệu đến mã code đầy đủ

Tại CES lần này, Huang thông báo mở rộng hệ sinh thái mô hình mã nguồn mở (Open Model Universe) của mình, bổ sung và cập nhật một loạt mô hình, tập dữ liệu, kho mã code và công cụ. Hệ sinh thái này bao phủ sáu lĩnh vực: AI y sinh (Clara), mô phỏng vật lý AI (Earth-2), Agentic AI (Nemotron), AI vật lý (Cosmos), robot (GR00T) và lái xe tự động (Alpamayo).

Huấn luyện một mô hình AI không chỉ cần sức mạnh tính toán, mà còn cần tập dữ liệu chất lượng cao, mô hình tiền huấn luyện, mã code huấn luyện, công cụ đánh giá, v.v. toàn bộ cơ sở hạ tầng. Đối với hầu hết doanh nghiệp và tổ chức nghiên cứu, việc xây dựng những thứ này từ con số 0 quá tốn thời gian.

Cụ thể, NVIDIA đã mở mã nguồn sáu cấp độ nội dung: nền tảng tính toán (DGX, HGX, v.v.), tập dữ liệu huấn luyện các lĩnh vực, mô hình cơ sở tiền huấn luyện, thư viện mã code suy luận và huấn luyện, kịch bản quy trình huấn luyện hoàn chỉnh, và mẫu giải pháp end-to-end.

Dòng Nemotron là trọng tâm của lần cập nhật này, bao phủ bốn hướng ứng dụng.

Ở hướng suy luận, bao gồm các mô hình suy luận thu nhỏ như Nemotron 3 Nano, Nemotron 2 Nano VL, v.v., và các công cụ huấn luyện học tăng cường như NeMo RL, NeMo Gym. Ở hướng RAG (tạo thành tăng cường truy xuất), cung cấp Nemotron Embed VL (mô hình nhúng vector), Nemotron Rerank VL (mô hình sắp xếp lại), tập dữ liệu liên quan và NeMo Retriever Library (thư viện truy xuất). Ở hướng an toàn, có mô hình an toàn nội dung Nemotron Content Safety và tập dữ liệu đi kèm, thư viện rào chắn NeMo Guardrails.

Ở hướng giọng nói, thì bao gồm nhận dạng giọng nói tự động Nemotron ASR, tập dữ liệu giọng nói Granary Dataset và thư viện xử lý giọng nói NeMo Library. Điều này có nghĩa là doanh nghiệp muốn làm một hệ thống dịch vụ khách hàng AI có RAG, không cần tự huấn luyện mô hình nhúng và mô hình sắp xếp lại, có thể sử dụng trực tiếp mã code mà NVIDIA đã huấn luyện và mở mã nguồn.

05 Lĩnh vực AI vật lý, tiến tới triển khai thương mại

Lĩnh vực AI vật lý cũng có cập nhật mô hình - Cosmos dùng để hiểu và tạo video thế giới vật lý, mô hình cơ sở chung cho robot Isaac GR00T, mô hình hành động-ngôn ngữ-thị giác cho lái xe tự động Alpamayo.

Huang tại CES tuyên bố, "thời khắc ChatGPT" của AI vật lý sắp đến rồi, nhưng đối mặt với thách thức cũng rất nhiều: thế giới vật lý quá phức tạp và biến đổi, thu thập dữ liệu thực lại chậm và đắt, mãi mãi không đủ.

Làm thế nào bây giờ? Dữ liệu tổng hợp là một con đường. Vì thế NVIDIA đã cho ra mắt Cosmos.

Đây là một mô hình cơ sở thế giới AI vật lý mã nguồn mở, hiện đã được tiền huấn luyện với lượng lớn video, dữ liệu lái xe và robot thực tế, cũng như mô phỏng 3D. Nó có thể hiểu thế giới vận hành như thế nào, có thể liên kết ngôn ngữ, hình ảnh, 3D và hành động.

Huang cho biết, Cosmos có thể đạt được không ít kỹ năng AI vật lý, ví dụ như tạo nội dung, suy luận, dự đoán quỹ đạo (cho dù chỉ cho nó một bức ảnh). Nó có thể tạo video chân thực dựa trên cảnh 3D, tạo chuyển động phù hợp quy luật vật lý dựa trên dữ liệu lái xe, còn có thể tạo video toàn cảnh từ trình mô phỏng, hình ảnh đa camera hoặc mô tả bằng văn bản. Ngay cả các cảnh hiếm gặp, cũng có thể khôi phục lại.

Huang còn chính thức phát hành Alpamayo. Alpamayo là một chuỗi công cụ mã nguồn mở cho lĩnh vực lái xe tự động, cũng là mô hình suy luận hành động-ngôn ngữ-thị giác (VLA) mã nguồn mở đầu tiên. Khác với trước đây chỉ mở mã nguồn code, lần này NVIDIA mở mã nguồn toàn bộ tài nguyên phát triển từ dữ liệu đến triển khai.

Đột phá lớn nhất của Alpamayo nằm ở chỗ nó là mô hình lái xe tự động "suy luận". Hệ thống lái xe tự động truyền thống là kiến trúc đường ống "cảm nhận - lập kế hoạch - điều khiển", thấy đèn đỏ thì phanh, thấy người đi bộ thì giảm tốc, tuân theo quy tắc định sẵn. Còn Alpamayo giới thiệu khả năng "suy luận", hiểu quan hệ nhân quả trong cảnh phức tạp, dự đoán ý định của các xe khác và người đi bộ, thậm chí có thể xử lý các quyết định cần suy nghĩ nhiều bước.

Ví dụ tại ngã tư, nó không chỉ nhận ra "phía trước có xe", mà còn có thể suy luận "chiếc xe kia có thể rẽ trái, vì vậy tôi nên đợi nó đi qua trước". Khả năng này nâng cấp lái xe tự động từ "chạy theo quy tắc" lên "suy nghĩ như con người".

Huang thông báo hệ thống DRIVE của NVIDIA chính thức bước vào giai đoạn sản xuất hàng loạt, ứng dụng đầu tiên là Mercedes-Benz CLA hoàn toàn mới, dự kiến lưu thông tại Mỹ vào năm 2026. Chiếc xe này sẽ được trang bị hệ thống lái xe tự động cấp L2++, sử dụng kiến trúc lai "mô hình AI end-to-end + đường ống truyền thống".

Lĩnh vực robot cũng có tiến triển thực chất.

Huang cho biết các doanh nghiệp hàng đầu toàn cầu về robot bao gồm Boston Dynamics, Franka Robotics, LEM Surgical, LG Electronics, Neura Robotics và XRlabs, đang phát triển sản phẩm dựa trên nền tảng Isaac và mô hình cơ sở GR00T của NVIDIA, bao phủ nhiều lĩnh vực từ robot công nghiệp, robot phẫu thuật đến robot hình người, robot cấp tiêu dùng.

Tại hiện trường buổi ra mắt, phía sau Huang đứng đầy các robot với hình thái và công dụng khác nhau, chúng được trưng bày tập trung trên sân khấu phân tầng: từ robot hình người, robot dịch vụ hai chân và bánh xe, đến cánh tay máy công nghiệp, máy móc kỹ thuật, máy bay không người lái và thiết bị hỗ trợ phẫu thuật, thể hiện một "bức tranh hệ sinh thái robot".

Từ ứng dụng AI vật lý đến nền tảng tính toán RubinAI, rồi đến nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận và "cả tá" AI mã nguồn mở.

Những động thái mà NVIDIA thể hiện tại CES này, đã cấu thành nên tường thuật của họ về cơ sở hạ tầng AI trong thời đại suy luận. Như Huang đã nhiều lần nhấn mạnh, khi AI vật lý cần suy nghĩ liên tục, vận hành lâu dài, và thực sự bước vào thế giới thực, vấn đề không còn chỉ là sức mạnh tính toán có đủ hay không, mà là ai có thể thực sự dựng lên toàn bộ hệ thống.

Tại CES 2026, NVIDIA đã đưa ra một bản trả lời.

Câu hỏi Liên quan

QKiến trúc Rubin của NVIDIA có những cải tiến đáng kể nào so với thế hệ Blackwell?

AKiến trúc Rubin của NVIDIA có những cải tiến vượt bậc so với Blackwell: hiệu suất suy luận (inference) NVFP4 tăng lên 50 PFLOPS (gấp 5 lần), hiệu suất huấn luyện đạt 35 PFLOPS (gấp 3.5 lần), băng thông bộ nhớ HBM4 tăng lên 22 TB/s (gấp 2.8 lần) và băng thông kết nối NVLink trên mỗi GPU tăng gấp đôi lên 3.6 TB/s. Những cải tiến này giúp một GPU có thể xử lý nhiều tác vụ suy luận hơn và nhớ được ngữ cảnh dài hơn, từ đó giảm đáng kể sự phụ thuộc vào số lượng GPU.

QNền tảng Lưu trữ Bộ nhớ Ngữ cảnh Suy luận (Inference Context Memory Storage Platform) của NVIDIA giải quyết vấn đề gì?

ANền tảng Lưu trữ Bộ nhớ Ngữ cảnh Suy luận, được vận hành bởi BlueField-4, giải quyết 'nút thắt lưu trữ' trong các tác vụ AI phức tạp đòi hỏi suy luận nhiều bước. Nó tạo ra một 'lớp thứ ba' giữa bộ nhớ GPU đắt đỏ, dung lượng hạn chế và bộ lưu trữ thông thường có tốc độ truy cập chậm. Nền tảng này cung cấp một không gian lưu trữ vừa đủ nhanh, vừa có dung lượng lớn, hỗ trợ AI hoạt động lâu dài, cho phép chia sẻ ngữ cảnh nhanh chóng giữa các nút và nhiều tác nhân thông minh (AI Agent), từ đó giải phóng áp lực cho GPU và cải thiện hiệu suất tổng thể.

QMô hình Alpamayo của NVIDIA mang lại đột phá gì cho lĩnh vực xe tự hành?

AAlpamayo của NVIDIA là mô hình suy luận Thị giác-Ngôn ngữ-Hành động (VLA) mã nguồn mở đầu tiên cho xe tự hành, mang lại bước đột phá về khả năng 'suy luận'. Khác với hệ thống truyền thống chỉ hoạt động theo quy tắc định sẵn (nhận biết đèn đỏ thì dừng), Alpamayo có thể hiểu mối quan hệ nhân quả trong các tình huống phức tạp, dự đoán ý định của các phương tiện hoặc người đi bộ khác và đưa ra quyết định đòi hỏi nhiều bước suy nghĩ. Điều này nâng cấp khả năng lái xe từ 'tuân theo luật' sang 'suy nghĩ như con người'.

QDGX SuperPOD mới dựa trên kiến trúc Rubin có quy mô và thành phần cốt lõi như thế nào?

ADGX SuperPOD thế hệ mới dựa trên kiến trúc Rubin là một cụm máy chủ AI quy mô lớn, kết nối 8 giá (rack) Vera Rubin NVL72 lại với nhau, tương đương với 576 GPU hoạt động hiệp lực. Năm thành phần cốt lõi của nó bao gồm: 8 giá Vera Rubin NVL72 (cung cấp sức mạnh tính toán), mạng mở rộng NVLink 6 (để 576 GPU phối hợp như một siêu GPU), mạng mở rộng Spectrum-X Ethernet (kết nối các SuperPOD và ra bên ngoài), Nền tảng Lưu trữ Bộ nhớ Ngữ cảnh Suy luận (cung cấp bộ nhớ chia sẻ) và phần mềm NVIDIA Mission Control (quản lý, điều phối và tối ưu hóa toàn hệ thống). Đây là giải pháp 'mở hộp là chạy' cho cơ sở hạ tầng AI quy mô lớn.

QTập hợp mã nguồn mở (Open Model Universe) của NVIDIA tại CES 2026 bao gồm những lĩnh vực và công cụ nào nổi bật?

ATập hợp mã nguồn mở (Open Model Universe) của NVIDIA tại CES 2026 được mở rộng bao gồm sáu lĩnh vực chính: AI Y sinh (Clara), Mô phỏng Vật lý AI (Earth-2), AI dạng Tác nhân (Nemotron), AI Vật lý (Cosmos), Robot (GR00T) và Xe tự hành (Alpamayo). Nổi bật trong đó là bộ công cụ Nemotron, bao gồm các mô hình suy luận cỡ nhỏ (Nemotron 3 Nano), mô hình và thư viện cho RAG (Nemotron Embed VL, Rerank VL), công cụ an toàn nội dung (Nemotron Content Safety) và công cụ xử lý giọng nói (Nemotron ASR). Bộ công cụ này cung cấp từ dữ liệu, mô hình pre-trained, mã code đến kịch bản huấn luyện đầy đủ, giúp các doanh nghiệp và tổ chức nghiên cứu phát triển AI nhanh chóng và hiệu quả hơn.

Nội dung Liên quan

Hook Summer thực sự đã đến? Sato, Lo0p, FLOOD khởi động tương lai mới của Uniswap v4

Thị trường tiền điện tử đang chứng kiến sự nổi lên của một loạt đồng meme dựa trên giao thức Hook của Uniswap V4, mang đến làn gió mới cho hệ sinh thái Ethereum. Các đồng tiền như sato, sat1, Lo0p và FLOOD đã thu hút sự chú ý với vốn hóa từ vài triệu đến hàng chục triệu USD. Hook được ví như "plugin hợp đồng thông minh" cho các pool thanh khoản trên Uniswap V4, cho phép các nhà phát triển thêm logic tùy chỉnh vào các thời điểm then chốt, biến AMM thành những "viên gạch LEGO" có thể lập trình. - **sato**: Cơ chế đúc và đốt độc đáo, vốn hóa đạt đỉnh trên 38 triệu USD, hiện khoảng 28 triệu USD. - **sat1**: Được quảng bá là "phiên bản tối ưu của sato" nhưng nhanh chóng suy giảm, vốn hóa từ trên 10 triệu USD về còn khoảng 800.000 USD. - **Lo0p**: Tập trung vào giao thức cho vay AMM, cho phép người dùng thế chấp đồng LO0P để vay ETH, vốn hóa đỉnh gần 6,6 triệu USD. - **FLOOD**: Tích hợp với Aave v3 để tạo thu nhập thụ động từ dự trữ tài sản, vốn hóa đỉnh gần 6 triệu USD. Các đồng tiền Hook này được kỳ vọng sẽ thúc đẩy sự phát triển lâu dài của hệ sinh thái Uniswap, thu hút thêm tính thanh khoản và người dùng. Điều này, cùng với việc Uniswap đã bật công tắc phí để hủy UNI, tạo cơ bản tích cực cho UNI về dài hạn. Tuy nhiên, trong ngắn hạn, tác động trực tiếp lên giá UNI có thể hạn chế do các yếu tố như chu kỳ sống của đồng Hook, biến động giá và tình hình thị trường chung. Hiện tại, TVL của Uniswap V4 (khoảng 595 triệu USD) vẫn thấp hơn các phiên bản trước, cho thấy sự phát triển của hệ sinh thái Hook vẫn cần thời gian. *Lưu ý: Các dự án trên là sản phẩm thử nghiệm công nghệ giai đoạn đầu, tiềm ẩn nhiều rủi ro. Thông tin không phải là lời khuyên đầu tư.*

marsbit1 phút trước

Hook Summer thực sự đã đến? Sato, Lo0p, FLOOD khởi động tương lai mới của Uniswap v4

marsbit1 phút trước

Hook Summer thực sự đến rồi? sato、Lo0p、FLOOD châm ngòi câu chuyện mới của Uniswap v4

Thị trường meme coin trên hệ sinh thái Ethereum đang nóng trở lại, với sự nổi lên của các token như sato, sat1, Lo0p và FLOOD. Các đồng tiền này đều dựa trên cơ chế Hook của Uniswap V4 - một "hợp đồng thông minh dạng plugin" cho phép tùy chỉnh logic tự động tại các điểm then chốt trong vòng đời của nhóm thanh khoản (pool). Sato, với vốn hóa đỉnh trên 38 triệu USD, sử dụng cơ chế curve để đúc và đốt token. Lo0p, đạt đỉnh gần 6.6 triệu USD, tập trung vào tích hợp dịch vụ cho vay vào AMM để nâng cao hiệu quả vốn. Trong khi đó, FLOOD kết nối với Aave v3 để tài sản dự trữ tự động tạo ra lợi nhuận. Làn sóng token Hook này mang lại thanh khoản tập trung cho thị trường, hỗ trợ lâu dài cho sự phát triển hệ sinh thái Uniswap và có thể có lợi cho UNI về mặt cơ bản. Tuy nhiên, trong ngắn hạn, chúng khó có thể trực tiếp thúc đẩy giá UNI tăng mạnh do các yếu tố như tính bền vững của token, biến động giá và tình hình thị trường chung. TVL của Uniswap V4 hiện vẫn thấp hơn các phiên bản trước, cho thấy hệ sinh thái Hook vẫn cần thời gian để phát triển. Lưu ý: Các dự án trên là sản phẩm thử nghiệm công nghệ giai đoạn đầu, tiềm ẩn rủi ro như lỗi kỹ thuật. Thông tin không phải là lời khuyên đầu tư.

Odaily星球日报12 phút trước

Hook Summer thực sự đến rồi? sato、Lo0p、FLOOD châm ngòi câu chuyện mới của Uniswap v4

Odaily星球日报12 phút trước

Nhân viên Trung Quốc của SK Hynix bị 'thẳng tay': Tiền thưởng không bằng 5% so với người Hàn

Nhân viên Trung Quốc của SK Hynix bị tác động mạnh: Tiền thưởng thấp hơn 5% so với đồng nghiệp Hàn Quốc Dư luận gần đây xoay quanh dự báo tiền thưởng khổng lồ cho nhân viên SK Hynix, với mức có thể lên tới 3-6 triệu nhân dân tệ (khoảng 300-600 triệu VND) mỗi người vào năm 2026-2027, nhờ lợi nhuận tăng vọt từ cơn sốt nhu cầu bộ nhớ AI. Tuy nhiên, viễn cảnh này không đồng đều giữa các nhân viên tại Hàn Quốc và Trung Quốc. Một nhân viên kỹ thuật lâu năm của SK Hynix tại Trung Quốc tiết lộ: tiền thưởng năm của họ thấp hơn 5% so với đồng nghiệp Hàn Quốc. Trong khi nhân viên Hàn Quốc có thể nhận thưởng hàng trăm nghìn USD (tính theo tháng lương), mức thưởng cao nhất mà anh này nhận được ở Trung Quốc chỉ khoảng hơn 100.000 nhân dân tệ (khoảng 350 triệu VND). Trong giai đoạn khó khăn 2023-2024, thậm chí không có thưởng. Sự chênh lệch không chỉ ở tiền thưởng. Nhân viên Trung Quốc cũng ít có cơ hội thăng tiến lên vị trí quản lý cấp cao hoặc nhận các chính sách cổ phiếu ưu đãi so với đồng nghiệp Hàn Quốc. Các vị trí quản lý chủ chốt thường do người Hàn Quốc nắm giữ. SK Hynix có ba nhà máy chính tại Trung Quốc ở Vô Tích, Đại Liên và Trùng Khánh. Thông tin tuyển dụng cho thấy mức lương kỹ sư phổ biến từ 1-3,5 vạn nhân dân tệ/tháng (khoảng 35-120 triệu VND/tháng), với chế độ 13 tháng lương. Dù các dự báo lạc quan về thị trường bộ nhớ và nhu cầu HBM sẽ duy trì đà tăng trưởng trong 2-3 năm tới, sự khác biệt đáng kể trong chính sách đãi ngộ nội bộ này làm nổi bật khoảng cách giữa các chi nhánh của tập đoàn toàn cầu tại các thị trường khác nhau.

链捕手30 phút trước

Nhân viên Trung Quốc của SK Hynix bị 'thẳng tay': Tiền thưởng không bằng 5% so với người Hàn

链捕手30 phút trước

Nhân viên Trung Quốc tại SK Hynix chịu đòn: Tiền thưởng dưới 5% so với nhân viên Hàn Quốc

Bài viết thảo luận về chênh lệch tiền thưởng giữa nhân viên Hàn Quốc và Trung Quốc tại SK Hynix trong bối cảnh ngành công nghiệp bán dẫn đang bùng nổ do nhu cầu về bộ nhớ AI. Dự báo từ các tổ chức tài chính cho thấy tiền thưởng hàng năm cho nhân viên Hàn Quốc có thể lên tới hàng trăm triệu won, làm dấy lên làn sóng chú ý trong dư luận. Tuy nhiên, một nhân viên kỹ thuật Trung Quốc có hơn 10 năm kinh nghiệm tại SK Hynix tiết lộ rằng tiền thưởng của nhân viên Trung Quốc thấp hơn nhiều, thường dưới 5% so với đồng nghiệp Hàn Quốc, với mức cao nhất anh ta từng nhận là hơn 100.000 nhân dân tệ. Trong thời kỳ suy thoái 2023-2024, nhân viên thậm chí không có thưởng. Bài viết cũng đề cập đến sự khác biệt về cơ cấu lương, chính sách thưởng (Hàn Quốc trả một lần/năm, Trung Quốc hai lần/năm), và việc thiếu các chương trình khuyến khích như cổ phiếu cho nhân viên Trung Quốc, cũng như sự hiện diện hạn chế của nhân sự Trung Quốc trong vai trò quản lý. Dù vậy, triển vọng ngành vẫn rất lạc quan với nhu cầu HBM và sản phẩm cao cấp dự kiến vượt cung trong vài năm tới, chủ yếu từ khách hàng doanh nghiệp, có thể tiếp tục thúc đẩy tăng trưởng lợi nhuận cho công ty.

marsbit51 phút trước

Nhân viên Trung Quốc tại SK Hynix chịu đòn: Tiền thưởng dưới 5% so với nhân viên Hàn Quốc

marsbit51 phút trước

Phỏng vấn Michael Saylor: Tôi có nói sẽ bán coin, nhưng tuyệt đối không phải là bán ròng

Phỏng vấn Michael Saylor: "Tôi có nói sẽ bán Bitcoin, nhưng không bao giờ là người bán ròng" Trong một podcast gần đây, Michael Saylor, Chủ tịch điều hành của MicroStrategy, đã làm rõ tuyên bố gây tranh cãi trước đó về việc công ty có thể bán Bitcoin để chi trả cổ tức cho công cụ tín dụng STRC của mình. Ông nhấn mạnh rằng MicroStrategy sẽ không bao giờ là "người bán ròng" Bitcoin. Chiến lược cốt lõi là tiếp tục tích lũy Bitcoin thông qua việc phát hành các công cụ nợ như STRC, sử dụng số tiền huy động được để mua Bitcoin. Lợi nhuận từ việc Bitcoin tăng giá (khoảng 30-40% mỗi năm) sau đó sẽ được dùng để chi trả cổ tức. Saylor so sánh điều này với một công ty bất động sản dùng lợi nhuận từ dự án để trả nợ. Ông giải thích rằng với tốc độ phát hành STRC hiện tại, MicroStrategy mua vào số Bitcoin nhiều hơn đáng kể so với số cần bán để trả cổ tức (ví dụ: mua 30 BTC trong khi chỉ cần bán 1 BTC cho cổ tức). Điều này đảm bảo công ty luôn là người mua ròng. Saylor cũng bác bỏ ý kiến cho rằng các giao dịch lớn của MicroStrategy có thể thao túng thị trường Bitcoin, cho rằng thị trường có thanh khoản rất sâu và được dẫn dắt bởi các yếu tố vĩ mô. Ông khẳng định niềm tin vào Bitcoin với tư cách là "tư bản kỹ thuật số" và tiết lộ một ứng dụng quan trọng đang nổi lên của nó: làm tài sản thế chấp cho "tín dụng kỹ thuật số". STRC, một công cụ ưu đãi được thế chấp quá mức bằng Bitcoin, là minh chứng, đem lại lợi nhuận điều chỉnh rủi ro cao nhất trên thị trường. Saylor kết luận rằng mô hình kinh doanh của MicroStrategy là tạo ra giá trị bằng cách phát hành tín dụng để đầu tư vào tài sản tư bản (Bitcoin) có tốc độ tăng trưởng vượt trội.

Odaily星球日报1 giờ trước

Phỏng vấn Michael Saylor: Tôi có nói sẽ bán coin, nhưng tuyệt đối không phải là bán ròng

Odaily星球日报1 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai

Bài viết Nổi bật

AGENT S là gì

Agent S: Tương Lai của Tương Tác Tự Động trong Web3 Giới thiệu Trong bối cảnh không ngừng phát triển của Web3 và tiền điện tử, các đổi mới đang liên tục định nghĩa lại cách mà cá nhân tương tác với các nền tảng kỹ thuật số. Một dự án tiên phong như vậy, Agent S, hứa hẹn sẽ cách mạng hóa tương tác giữa con người và máy tính thông qua khung tác nhân mở của nó. Bằng cách mở đường cho các tương tác tự động, Agent S nhằm đơn giản hóa các nhiệm vụ phức tạp, cung cấp các ứng dụng chuyển đổi trong trí tuệ nhân tạo (AI). Cuộc khám phá chi tiết này sẽ đi sâu vào những phức tạp của dự án, các tính năng độc đáo của nó và những tác động đối với lĩnh vực tiền điện tử. Agent S là gì? Agent S đứng vững như một khung tác nhân mở đột phá, được thiết kế đặc biệt để giải quyết ba thách thức cơ bản trong việc tự động hóa các nhiệm vụ máy tính: Thu thập Kiến thức Cụ thể theo Miền: Khung này học một cách thông minh từ nhiều nguồn kiến thức bên ngoài và kinh nghiệm nội bộ. Cách tiếp cận kép này giúp nó xây dựng một kho lưu trữ phong phú về kiến thức cụ thể theo miền, nâng cao hiệu suất của nó trong việc thực hiện nhiệm vụ. Lập Kế Hoạch Qua Các Tầm Nhìn Nhiệm Vụ Dài Hạn: Agent S sử dụng lập kế hoạch phân cấp tăng cường kinh nghiệm, một cách tiếp cận chiến lược giúp phân chia và thực hiện các nhiệm vụ phức tạp một cách hiệu quả. Tính năng này nâng cao đáng kể khả năng quản lý nhiều nhiệm vụ con một cách hiệu quả và hiệu suất. Xử Lý Các Giao Diện Động, Không Đều: Dự án giới thiệu Giao Diện Tác Nhân-Máy Tính (ACI), một giải pháp đổi mới giúp nâng cao tương tác giữa các tác nhân và người dùng. Sử dụng các Mô Hình Ngôn Ngữ Lớn Đa Phương Thức (MLLMs), Agent S có thể điều hướng và thao tác các giao diện người dùng đồ họa đa dạng một cách liền mạch. Thông qua những tính năng tiên phong này, Agent S cung cấp một khung vững chắc giải quyết các phức tạp liên quan đến việc tự động hóa tương tác giữa con người với máy móc, mở ra nhiều ứng dụng trong AI và hơn thế nữa. Ai là Người Tạo ra Agent S? Mặc dù khái niệm về Agent S là hoàn toàn đổi mới, thông tin cụ thể về người sáng lập vẫn còn mơ hồ. Người sáng lập hiện vẫn chưa được biết đến, điều này làm nổi bật giai đoạn sơ khai của dự án hoặc sự lựa chọn chiến lược để giữ kín các thành viên sáng lập. Bất chấp sự ẩn danh, sự chú ý vẫn tập trung vào khả năng và tiềm năng của khung này. Ai là Các Nhà Đầu Tư của Agent S? Vì Agent S còn tương đối mới trong hệ sinh thái mã hóa, thông tin chi tiết về các nhà đầu tư và những người tài trợ tài chính của nó không được ghi chép rõ ràng. Sự thiếu vắng thông tin công khai về các nền tảng đầu tư hoặc tổ chức hỗ trợ dự án dấy lên câu hỏi về cấu trúc tài trợ và lộ trình phát triển của nó. Hiểu biết về sự hỗ trợ là rất quan trọng để đánh giá tính bền vững và tác động tiềm năng của dự án. Agent S Hoạt Động Như Thế Nào? Tại cốt lõi của Agent S là công nghệ tiên tiến cho phép nó hoạt động hiệu quả trong nhiều bối cảnh khác nhau. Mô hình hoạt động của nó được xây dựng xung quanh một số tính năng chính: Tương Tác Giống Như Con Người: Khung này cung cấp lập kế hoạch AI tiên tiến, cố gắng làm cho các tương tác với máy tính trở nên trực quan hơn. Bằng cách bắt chước hành vi của con người trong việc thực hiện nhiệm vụ, nó hứa hẹn nâng cao trải nghiệm người dùng. Ký Ức Tường Thuật: Được sử dụng để tận dụng các trải nghiệm cấp cao, Agent S sử dụng ký ức tường thuật để theo dõi lịch sử nhiệm vụ, từ đó nâng cao quy trình ra quyết định của nó. Ký Ức Tình Huống: Tính năng này cung cấp cho người dùng hướng dẫn từng bước, cho phép khung này cung cấp hỗ trợ theo ngữ cảnh khi các nhiệm vụ diễn ra. Hỗ Trợ OpenACI: Với khả năng chạy cục bộ, Agent S cho phép người dùng duy trì quyền kiểm soát đối với các tương tác và quy trình làm việc của họ, phù hợp với tinh thần phi tập trung của Web3. Tích Hợp Dễ Dàng với Các API Bên Ngoài: Tính linh hoạt và khả năng tương thích với nhiều nền tảng AI khác nhau đảm bảo rằng Agent S có thể hòa nhập liền mạch vào các hệ sinh thái công nghệ hiện có, làm cho nó trở thành lựa chọn hấp dẫn cho các nhà phát triển và tổ chức. Những chức năng này cùng nhau góp phần vào vị trí độc đáo của Agent S trong không gian tiền điện tử, khi nó tự động hóa các nhiệm vụ phức tạp, nhiều bước với sự can thiệp tối thiểu của con người. Khi dự án phát triển, các ứng dụng tiềm năng của nó trong Web3 có thể định nghĩa lại cách mà các tương tác kỹ thuật số diễn ra. Thời Gian Phát Triển của Agent S Sự phát triển và các cột mốc của Agent S có thể được tóm tắt trong một dòng thời gian nêu bật các sự kiện quan trọng của nó: 27 tháng 9, 2024: Khái niệm về Agent S được ra mắt trong một bài nghiên cứu toàn diện mang tên “Một Khung Tác Nhân Mở Sử Dụng Máy Tính Như Một Con Người,” trình bày nền tảng cho dự án. 10 tháng 10, 2024: Bài nghiên cứu được công bố công khai trên arXiv, cung cấp một cái nhìn sâu sắc về khung và đánh giá hiệu suất của nó dựa trên tiêu chuẩn OSWorld. 12 tháng 10, 2024: Một video trình bày được phát hành, cung cấp cái nhìn trực quan về khả năng và tính năng của Agent S, thu hút thêm sự quan tâm từ người dùng và nhà đầu tư tiềm năng. Những dấu mốc trong dòng thời gian không chỉ minh họa sự tiến bộ của Agent S mà còn chỉ ra cam kết của nó đối với sự minh bạch và sự tham gia của cộng đồng. Những Điểm Chính Về Agent S Khi khung Agent S tiếp tục phát triển, một số thuộc tính chính nổi bật, nhấn mạnh tính đổi mới và tiềm năng của nó: Khung Đổi Mới: Được thiết kế để cung cấp cách sử dụng máy tính trực quan giống như tương tác của con người, Agent S mang đến một cách tiếp cận mới cho việc tự động hóa nhiệm vụ. Tương Tác Tự Động: Khả năng tương tác tự động với máy tính thông qua GUI đánh dấu một bước tiến tới các giải pháp tính toán thông minh và hiệu quả hơn. Tự Động Hóa Nhiệm Vụ Phức Tạp: Với phương pháp mạnh mẽ của nó, nó có thể tự động hóa các nhiệm vụ phức tạp, nhiều bước, làm cho các quy trình nhanh hơn và ít sai sót hơn. Cải Tiến Liên Tục: Các cơ chế học tập cho phép Agent S cải thiện từ các trải nghiệm trước đó, liên tục nâng cao hiệu suất và hiệu quả của nó. Tính Linh Hoạt: Khả năng thích ứng của nó trên các môi trường hoạt động khác nhau như OSWorld và WindowsAgentArena đảm bảo rằng nó có thể phục vụ một loạt các ứng dụng rộng rãi. Khi Agent S định vị mình trong bối cảnh Web3 và tiền điện tử, tiềm năng của nó để nâng cao khả năng tương tác và tự động hóa quy trình đánh dấu một bước tiến quan trọng trong công nghệ AI. Thông qua khung đổi mới của mình, Agent S minh họa cho tương lai của các tương tác kỹ thuật số, hứa hẹn một trải nghiệm liền mạch và hiệu quả hơn cho người dùng trên nhiều ngành công nghiệp khác nhau. Kết luận Agent S đại diện cho một bước nhảy vọt táo bạo trong sự kết hợp giữa AI và Web3, với khả năng định nghĩa lại cách chúng ta tương tác với công nghệ. Mặc dù vẫn còn ở giai đoạn đầu, những khả năng cho ứng dụng của nó là rộng lớn và hấp dẫn. Thông qua khung toàn diện của mình giải quyết các thách thức quan trọng, Agent S nhằm đưa các tương tác tự động lên hàng đầu trong trải nghiệm kỹ thuật số. Khi chúng ta tiến sâu hơn vào các lĩnh vực tiền điện tử và phi tập trung, các dự án như Agent S chắc chắn sẽ đóng một vai trò quan trọng trong việc định hình tương lai của công nghệ và sự hợp tác giữa con người với máy tính.

Tổng lượt xem 767Xuất bản vào 2025.01.14Cập nhật vào 2025.01.14

AGENT S là gì

Làm thế nào để Mua S

Chào mừng bạn đến với HTX.com! Chúng tôi đã làm cho mua Sonic (S) trở nên đơn giản và thuận tiện. Làm theo hướng dẫn từng bước của chúng tôi để bắt đầu hành trình tiền kỹ thuật số của bạn.Bước 1: Tạo Tài khoản HTX của BạnSử dụng email hoặc số điện thoại của bạn để đăng ký tài khoản miễn phí trên HTX. Trải nghiệm hành trình đăng ký không rắc rối và mở khóa tất cả tính năng. Nhận Tài khoản của tôiBước 2: Truy cập Mua Crypto và Chọn Phương thức Thanh toán của BạnThẻ Tín dụng/Ghi nợ: Sử dụng Visa hoặc Mastercard của bạn để mua Sonic (S) ngay lập tức.Số dư: Sử dụng tiền từ số dư tài khoản HTX của bạn để giao dịch liền mạch.Bên thứ ba: Chúng tôi đã thêm những phương thức thanh toán phổ biến như Google Pay và Apple Pay để nâng cao sự tiện lợi.P2P: Giao dịch trực tiếp với người dùng khác trên HTX.Thị trường mua bán phi tập trung (OTC): Chúng tôi cung cấp những dịch vụ được thiết kế riêng và tỷ giá hối đoái cạnh tranh cho nhà giao dịch.Bước 3: Lưu trữ Sonic (S) của BạnSau khi mua Sonic (S), lưu trữ trong tài khoản HTX của bạn. Ngoài ra, bạn có thể gửi đi nơi khác qua chuyển khoản blockchain hoặc sử dụng để giao dịch những tiền kỹ thuật số khác.Bước 4: Giao dịch Sonic (S)Giao dịch Sonic (S) dễ dàng trên thị trường giao ngay của HTX. Chỉ cần truy cập vào tài khoản của bạn, chọn cặp giao dịch, thực hiện giao dịch và theo dõi trong thời gian thực. Chúng tôi cung cấp trải nghiệm thân thiện với người dùng cho cả người mới bắt đầu và người giao dịch dày dạn kinh nghiệm.

Tổng lượt xem 1.4kXuất bản vào 2025.01.15Cập nhật vào 2025.03.21

Làm thế nào để Mua S

Thảo luận

Chào mừng đến với Cộng đồng HTX. Tại đây, bạn có thể được thông báo về những phát triển nền tảng mới nhất và có quyền truy cập vào thông tin chuyên sâu về thị trường. Ý kiến ​​của người dùng về giá của S (S) được trình bày dưới đây.

活动图片