Awal tahun ini, popularitas OpenClaw di pasar Tiongkok membuat semua orang melihat potensi besar Agent. Namun, yang mengikutinya adalah sebuah pertanyaan ujian yang harus dijawab oleh semua penyedia layanan cloud: Ketika Agent mulai berkembang biak seperti lobster siber dan memanggil data dengan frekuensi tinggi, apakah infrastruktur cloud AI, terutama lapisan datanya, sudah siap?
Misalnya, tim data perusahaan sering menghadapi hambatan di tingkat data saat men-deploy Agent ke lingkungan produksi. Membangun Agent di platform yang berbeda seperti basis data vektor, basis data relasional, basis data grafik, dan danau/gudang data, memerlukan penyinkronan pipa data untuk menjaga ketepatan waktu informasi konteks. Namun, dalam lingkungan produksi yang sebenarnya, informasi konteks ini secara bertahap akan menjadi usang.
Urgensi masalah ini berasal dari pola konsumsi data Agent yang sangat berbeda dengan insinyur manusia.
"Agent sedang mengonsumsi data dengan cara yang sangat aktif dan agresif. Frekuensi pemanggilannya terhadap data warehouse atau danau data sungguh menakjubkan."
Mai-Lan Tomsen Bukovec, Wakil Presiden Teknis Amazon Web Services, baru-baru ini dalam diskusi dengan penulis menekankan bahwa Agent bekerja dengan mode "parallel search for the best" atau pencarian paralel untuk yang terbaik: bukan satu kueri dalam satu waktu, melainkan puluhan hingga ratusan kueri secara bersamaan, membandingkan untuk menemukan jalur terbaik. Ini membuat Agent menjadi konsumen data yang jauh lebih agresif daripada manusia — frekuensi pemanggilan lebih tinggi beberapa tingkat besaran, dan throughput data mengalami pertumbuhan eksponensial.
Mai-Lan lebih lanjut menyatakan, "Saat ini pelanggan sangat ingin membangun infrastruktur Agent. Biaya, atau dengan kata lain nilai untuk uang, bukan lagi faktor sekunder, melainkan menjadi faktor penentu. Dalam enam bulan hingga satu tahun ke depan, seiring dengan ledakan Agent, pemilihan layanan data dasar akan menjadi sangat krusial."
Saat ini, euforia OpenClaw mulai mereda, menyisakan peringatan uji tekanan terhadap kemampuan penyimpanan dan komputasi dasar penyedia cloud. Mai-Lan percaya bahwa Amazon Web Services memiliki keunggulan alami di bidang ini. Skala Amazon S3 (Amazon Simple Storage Service), serta efisiensi biaya Amazon Redshift dan Amazon Athena dalam konteks konkurensi tinggi, memang dipersiapkan untuk mode interaksi data Agent yang sangat besar dan berfrekuensi ultra-tinggi ini.
Bertepatan dengan ulang tahun ke-20 produk Amazon S3, seputar tuntutan pemrosesan data pelanggan di era AI, Amazon S3 baru-baru ini juga mewujudkan tiga transformasi besar: S3 Table (format tabel), S3 Files (file), dan S3 Vector (vektor).
Seperti dukungan native S3 Table untuk Apache Iceberg. Mai-Lan menunjukkan bahwa saat Agent memproses data, ia cenderung berinteraksi langsung dengan data format Iceberg melalui SQL. Logika dasarnya adalah bahwa Agent dibangun di atas model besar (LLM), dan model besar tersebut selama proses pelatihan telah mengembangkan kemampuan pemrosesan yang matang untuk sintaks SQL dan format data Iceberg. Menyimpan semua data tabel dalam format Iceberg di S3 memungkinkan Agent memproses data dengan efisien tanpa perlu mempelajari berbagai API akses yang kompleks. Saat ini, Agent menunjukkan tingkat kecocokan yang tinggi dengan S3 dan Iceberg.
Ketika kemampuan Iceberg diperkenalkan ke S3, hal itu memicu gelombang inovasi baru. Sumber data seperti Postgres, Oracle mulai menulis langsung ke Iceberg, dan sistem Agent dapat berinteraksi langsung dengan tabel-tabel ini. Dan dengan diluncurkannya S3 Vectors, semakin banyak aplikasi AI yang mulai menggunakan vektor sebagai pembawa memori bersama, sehingga menyuntikkan "keadaan" (state) ke dalam pengalaman interaksi AI.
Mai-Lan juga mencatat bahwa vektor telah diperkenalkan sebagai tipe data native S3. Penerapan vektor terutama berpusat pada dua dimensi: pertama, menggunakan vektor untuk membangun informasi konteks bagi data yang disimpan di S3; kedua, menggunakan vektor sebagai memori bersama. Dalam lima bulan setelah peluncuran S3 Vectors, umpan balik pasar sesuai dengan harapan. Banyak pelanggan mulai menggunakan fitur ini, menghasilkan vektor melalui model embedding untuk memperkaya konteks data. Penggunaan S3 Vectors sebagai ruang memori untuk sistem Agent mengalami pertumbuhan yang eksplosif.
Perlu disebutkan bahwa S3 Files dirilis beberapa minggu yang lalu, memungkinkan Agent memproses data di S3 melalui standar POSIX, yaitu dengan cara sistem file. Dalam sistem Agent, model besar sangat memperhatikan bentuk "file". Baik pustaka Python maupun skrip Shell adalah konten yang familiar selama proses pelatihan model besar. Agent secara alami cenderung menggunakan file sebagai antarmuka data.
Untuk itu, ide desain S3 Files adalah memasang sistem file EFS pada bucket penyimpanan S3. Melalui mekanisme ini, pengguna dapat memproses data S3 berdasarkan standar POSIX dalam sistem file: file kecil dapat diakses lebih cepat melalui cache EFS, sedangkan file besar dapat ditransmisikan secara streaming langsung dari S3. Hal ini memungkinkan Agent berinteraksi secara native dengan data S3 menggunakan bahasa sistem file yang familiar, dan melihat sistem file bersama sebagai "ruang memori bersama" dari S3.
Dari perspektif perkembangan kemampuan memori model besar, kemajuan ini sangat berarti. Pengalaman AI saat ini secara bertahap memperkenalkan konteks percakapan yang lebih dalam dan interaksi personalisasi — baik di antara Agent, antara manusia dan Agent, maupun antara Agent dan data, kinerja model terus berkembang. Dengan perluasan lebih lanjut melalui antarmuka alami sistem file ini, kemampuan memori sistem Agent diharapkan dapat ditingkatkan ke tingkat yang lebih dalam.
Penulis menyadari, dari tahun 2006 yang didominasi data semi-terstruktur seperti gambar, hingga data analitik di kemudian hari, dari data warehouse awal hingga kebangkitan danau data, Amazon Web Services saat ini sedang mendorong Amazon S3 dengan kuat untuk menjadi landasan kunci yang menangani beban kerja AI, guna menyesuaikan diri dengan tuntutan pelanggan saat ini. Mai-Lan berpendapat bahwa inti desain Amazon S3 adalah mendorong pertumbuhan tipe data utama dengan cara yang ekonomis, dan selalu berpegang pada prinsip-prinsip seperti ketersediaan, daya tahan, dan ketahanan data. Dan inilah alasan mengapa pelanggan terus mempercayakan bisnis datanya kepada S3 selama 20 tahun, dan ini juga akan menopang kemungkinannya untuk 20 tahun ke depan.
(Penulis artikel | Yang Li, Editor | Yang Lin)







