Đầu năm, sự bùng nổ của OpenClaw tại thị trường Trung Quốc đã cho mọi người thấy tiềm năng khổng lồ của Agent. Nhưng đi kèm theo đó là một câu hỏi mà tất cả các nhà cung cấp dịch vụ đám mây đều phải trả lời: Khi Agent bắt đầu sinh sôi nảy nở như tôm hùm cyber và gọi dữ liệu với tần suất cao, thì tầng cơ sở hạ tầng AI, đặc biệt là tầng dữ liệu, đã sẵn sàng chưa?
Ví dụ, khi các đội ngũ dữ liệu doanh nghiệp triển khai Agent vào môi trường sản xuất, họ thường gặp phải nút thắt ở cấp độ dữ liệu. Việc xây dựng Agent trên các nền tảng khác nhau như cơ sở dữ liệu vector, cơ sở dữ liệu quan hệ, cơ sở dữ liệu đồ thị và hồ dữ liệu, đòi hỏi phải đồng bộ hóa các đường ống dữ liệu để duy trì tính kịp thời của thông tin ngữ cảnh. Nhưng trong môi trường sản xuất thực tế, những thông tin ngữ cảnh này sẽ dần trở nên lỗi thời.
Sự cấp bách của vấn đề này bắt nguồn từ mô hình tiêu thụ dữ liệu hoàn toàn khác biệt giữa Agent và kỹ sư con người.
"Agent đang tiêu thụ dữ liệu một cách cực kỳ năng động và cực đoan, tần suất gọi dữ liệu đến kho dữ liệu hoặc hồ dữ liệu của nó là đáng kinh ngạc."
Phó chủ tịch kỹ thuật của Amazon Web Services, Mai-Lan Tomsen Bukovec, gần đây trong cuộc trao đổi với tác giả đã chỉ ra rằng, Agent hoạt động theo mô hình "tối ưu hóa song song": không phải một truy vấn tại một thời điểm, mà là hàng chục, hàng trăm truy vấn cùng lúc, thông qua so sánh để tìm ra con đường tối ưu nhất. Điều này khiến Agent trở thành một đối tượng tiêu thụ dữ liệu cực kỳ cực đoan so với con người — tần suất gọi dữ liệu cao hơn nhiều cấp số, lượng thông lượng dữ liệu tăng theo cấp số nhân.
Mai-Lan nói thêm, "Hiện tại khách hàng rất mong muốn xây dựng cơ sở hạ tầng Agent, chi phí hay nói cách khác là giá trị trên chi phí, không còn là yếu tố thứ yếu, mà đã trở thành yếu tố quyết định. Trong nửa năm đến một năm tới, cùng với sự bùng nổ của Agent, việc lựa chọn dịch vụ dữ liệu nền tảng sẽ trở nên cực kỳ quan trọng."
Ngày nay, không khí lễ hội của OpenClaw đang dần lắng xuống, để lại cảnh báo về bài kiểm tra áp lực đối với năng lực lưu trữ và xử lý nền tảng của các nhà cung cấp dịch vụ đám mây. Mai-Lan cho rằng, Amazon Web Services có lợi thế tự nhiên trong lĩnh vực này. Quy mô của Amazon S3 (Amazon Simple Storage Service), hiệu quả chi phí của Amazon Redshift và Amazon Athena dưới điều kiện tải cao, chính là được chuẩn bị cho cách thức tương tác dữ liệu siêu quy mô và tần suất siêu cao này của Agent.
Nhân kỷ niệm 20 năm ra đời sản phẩm Amazon S3, xoay quanh nhu cầu xử lý dữ liệu của khách hàng trong thời đại AI, Amazon S3 gần đây cũng đã thực hiện ba thay đổi lớn: S3 Table (định dạng bảng), S3 Files (tệp) và S3 Vector (vector).
Như việc S3 Table hỗ trợ natively cho Apache Iceberg. Mai-Lan chỉ ra rằng, khi xử lý dữ liệu, Agent có xu hướng tương tác trực tiếp với dữ liệu định dạng Iceberg thông qua SQL. Logic cơ bản nằm ở chỗ, Agent được xây dựng trên nền tảng mô hình lớn, và mô hình lớn trong quá trình huấn luyện đã hình thành khả năng xử lý trưởng thành đối với cú pháp SQL và định dạng dữ liệu Iceberg. Việc lưu trữ tất cả dữ liệu bảng dưới định dạng Iceberg trong S3 cho phép Agent xử lý dữ liệu hiệu quả mà không cần học nhiều API truy cập phức tạp khác nhau. Hiện tại, sự ăn khớp giữa Agent với S3 và Iceberg đang thể hiện ở mức độ cao.
Khi khả năng Iceberg được tích hợp vào S3, nó đã tạo ra một làn sóng sáng tạo Sina mới. Các nguồn dữ liệu như Postgres, Oracle bắt đầu ghi trực tiếp vào Iceberg, và hệ thống Agent có thể tương tác trực tiếp với các bảng này. Và với sự ra mắt của S3 Vectors, ngày càng nhiều ứng dụng AI bắt đầu sử dụng vector làm vật chứa bộ nhớ chia sẻ, từ đó truyền "trạng thái" vào trải nghiệm tương tác AI.
Mai-Lan cũng chỉ ra rằng, vector đã được giới thiệu như một kiểu dữ liệu gốc của S3. Ứng dụng của vector chủ yếu tập trung vào hai chiều: một là sử dụng vector để xây dựng thông tin ngữ cảnh cho dữ liệu được lưu trữ trong S3, hai là sử dụng vector như bộ nhớ chia sẻ. Trong năm tháng sau khi S3 Vectors được phát hành, phản hồi thị trường đúng như kỳ vọng. Một lượng lớn khách hàng bắt đầu sử dụng tính năng này, thông qua mô hình nhúng để tạo ra vector làm phong phú thêm ngữ cảnh của dữ liệu. Việc sử dụng S3 Vectors như không gian bộ nhớ cho hệ thống Agent đang tăng trưởng bùng nổ.
Đáng chú ý, S3 Files được phát hành vài tuần trước, cho phép Agent xử lý dữ liệu trong S3 thông qua tiêu chuẩn POSIX, tức là cách thức hệ thống tệp. Trong hệ thống Agent, mô hình lớn rất chú trọng đến hình thái "tệp", cho dù là thư viện Python hay tập lệnh Shell, đều là những nội dung quen thuộc trong quá trình huấn luyện mô hình lớn. Agent có xu hướng tự nhiên coi tệp là giao diện dữ liệu.
Vì lý do này, ý tưởng thiết kế của S3 Files là gắn kết một hệ thống tệp EFS lên bucket lưu trữ S3. Thông qua cơ chế này, người dùng có thể xử lý dữ liệu S3 trong hệ thống tệp dựa trên tiêu chuẩn POSIX: các tệp nhỏ có thể được truy cập nhanh hơn nhờ bộ nhớ đệm EFS, còn các tệp lớn thì được truyền trực tiếp từ S3 theo luồng. Điều này cho phép Agent tương tác nguyên bản với dữ liệu S3 bằng ngôn ngữ hệ thống tệp quen thuộc, và coi hệ thống tệp chia sẻ như "không gian bộ nhớ chia sẻ" từ S3.
Xét từ sự phát triển khả năng ghi nhớ của mô hình lớn, bước tiến này có ý nghĩa quan trọng. Trải nghiệm AI hiện tại đang dần được đưa vào ngữ cảnh hội thoại sâu hơn và tương tác cá nhân hóa — cho dù là giữa các Agent với nhau, giữa người và Agent, hay giữa Agent và dữ liệu, hiệu suất của mô hình đều đang không ngừng tiến hóa. Thông qua việc mở rộng hơn nữa giao diện tự nhiên này là hệ thống tệp, khả năng ghi nhớ của hệ thống Agent có triển vọng được nâng cao ở mức độ sâu hơn.
Tác giả lưu ý rằng, từ năm 2006 chủ yếu là dữ liệu bán cấu trúc như hình ảnh, đến dữ liệu phân tích sau này, từ kho dữ liệu ban đầu đến sự trỗi dậy của hồ dữ liệu, hiện tại Amazon Web Services đang tích cực thúc đẩy Amazon S3 trở thành nền tảng then chốt đảm nhận tải công việc AI, để đáp ứng nhu cầu của khách hàng hiện tại. Mai-Lan cho rằng, thiết kế cốt lõi của Amazon S3 là thúc đẩy sự phát triển của các kiểu dữ liệu chủ đạo một cách kinh tế, và luôn kiên trì các nguyên tắc về tính khả dụng, độ bền và khả năng phục hồi của dữ liệu. Và đây cũng chính là lý do khách hàng trong 20 năm qua tiếp tục giao phó hoạt động dữ liệu của họ cho S3, và nó cũng sẽ đảm nhận khả năng trong 20 năm tiếp theo.
(Tác giả | Dương Lệ, Biên tập | Dương Lâm)







