Diálogo con Mai-Lan de Amazon Web Services: El próximo campo de batalla de S3, cómo enfrentar la ola de consumo de datos en la era de los Agentes

marsbitPublicado a 2026-05-08Actualizado a 2026-05-08

Resumen

Al comienzo del año, el éxito de OpenClaw en el mercado chino reveló el enorme potencial de los agentes de IA. Sin embargo, esto planteó una pregunta crucial para todos los proveedores de servicios en la nube: ¿está preparada la infraestructura subyacente, especialmente la capa de datos, para manejar la proliferación y el consumo masivo de datos por parte de estos agentes? Mai-Lan Tomsen Bukovec, Vicepresidenta de Tecnología de Amazon Web Services, destaca que los agentes consumen datos de manera "extremadamente activa y agresiva", con una frecuencia de consultas que supera en varios órdenes de magnitud a la de los humanos. Este modelo de trabajo paralelo y masivo convierte el costo-efectividad en un factor decisivo para la infraestructura de agentes. Para abordar esta demanda en la era de la IA, Amazon S3 ha evolucionado con tres innovaciones clave: S3 Table (con soporte nativo para Apache Iceberg, facilitando la interacción de los agentes mediante SQL), S3 Vector (introduciendo vectores como tipo de dato nativo para contextualizar datos y actuar como memoria compartida) y S3 Files (permitiendo a los agentes interactuar con datos en S3 a través de un sistema de archivos POSIX familiar). Estas capacidades, basadas en los principios de disponibilidad, durabilidad y resiliencia de S3, posicionan al servicio como un pilar fundamental para soportar las cargas de trabajo de IA y el consumo intensivo de datos por parte de los agentes en los próximos años.

A principios de año, el éxito de OpenClaw en el mercado chino permitió que todos vieran el enorme potencial de los Agentes. Pero a esto le siguió una pregunta que todos los proveedores de la nube deben responder: cuando los Agentes empiezan a reproducirse como langostas cibernéticas y a invocar datos a alta frecuencia, ¿está preparada la infraestructura de la nube de IA, especialmente la capa de datos?

Por ejemplo, al desplegar Agentes en entornos de producción, los equipos de datos empresariales a menudo encuentran cuellos de botella a nivel de datos. La construcción de Agentes en diferentes plataformas como bases de datos vectoriales, relacionales, de grafos y data lakes/warehouses requiere de pipelines de sincronización de datos para mantener la actualidad de la información contextual. Sin embargo, en entornos de producción reales, esta información contextual se desactualiza gradualmente.

La urgencia de este problema radica en el patrón de consumo de datos de los Agentes, radicalmente distinto al de los ingenieros humanos.

"Los Agentes están consumiendo datos de una manera extremadamente activa y agresiva; su frecuencia de invocación a los data warehouses o data lakes es asombrosa."

Mai-Lan Tomsen Bukovec, Vicepresidenta de Tecnología de Amazon Web Services, señaló recientemente en una conversación con el autor que los Agentes operan en un modo de "selección paralela", es decir: no realizan una consulta a la vez, sino docenas o cientos simultáneamente en paralelo, comparando para encontrar la mejor ruta. Esto convierte a los Agentes en consumidores de datos mucho más agresivos que los humanos: con una frecuencia de invocación varios órdenes de magnitud mayor y un volumen de procesamiento de datos que crece exponencialmente.

Mai-Lan señaló además: "Ahora los clientes tienen un gran deseo de construir infraestructura para Agentes. El costo, o mejor dicho, la relación costo-beneficio, ya no es un factor secundario, sino decisivo. En los próximos seis meses a un año, con la explosión de los Agentes, la elección de los servicios de datos subyacentes será crucial."

La euforia por OpenClaw ahora está disminuyendo, dejando precisamente una advertencia sobre las pruebas de estrés a la capacidad de almacenamiento y cómputo subyacente de los proveedores de la nube. Mai-Lan cree que Amazon Web Services tiene una ventaja natural en este campo; la escala de Amazon S3 (Amazon Simple Storage Service) y la eficiencia de costo de Amazon Redshift y Amazon Athena bajo alta concurrencia están precisamente preparadas para esta forma de interacción de datos de los Agentes, de escala masiva y frecuencia ultraelevada.

Coincidiendo con el 20º aniversario del producto Amazon S3, y en torno a las demandas de los clientes en la era de la IA para el procesamiento de datos, Amazon S3 ha implementado recientemente tres grandes transformaciones: S3 Table (formato de tabla), S3 Files (archivos) y S3 Vector (vectorial).

Como el soporte nativo de S3 Table para Apache Iceberg. Mai-Lan señala que los Agentes tienden a interactuar directamente con datos en formato Iceberg a través de SQL. La lógica subyacente es que los Agentes se construyen sobre modelos de lenguaje grandes (LLMs), y estos LLMs han desarrollado una capacidad madura para manejar sintaxis SQL y formato de datos Iceberg durante su entrenamiento. Almacenar todos los datos de las tablas en formato Iceberg en S3 permite que los Agentes procesen datos de manera eficiente sin necesidad de aprender múltiples y complejas API de acceso. Actualmente, los Agentes muestran un alto grado de compatibilidad con S3 e Iceberg.

Cuando la capacidad Iceberg se introdujo en S3, desencadenó una nueva ola de innovación. Fuentes de datos como Postgres, Oracle, etc., comenzaron a escribir directamente en Iceberg, y los sistemas de Agentes pueden interactuar directamente con estas tablas. Y con el lanzamiento de S3 Vectors, cada vez más aplicaciones de IA están utilizando vectores como portadores de memoria compartida, inyectando así "estado" en la experiencia de interacción con la IA.

Mai-Lan también señala que los vectores se han introducido como un tipo de dato nativo de S3. La aplicación de vectores se concentra principalmente en dos dimensiones: primero, usar vectores para construir información contextual para los datos almacenados en S3; y segundo, usar vectores como memoria compartida. En los cinco meses posteriores al lanzamiento de S3 Vectors, la retroalimentación del mercado ha estado en línea con las expectativas. Muchos clientes comenzaron a usar esta funcionalidad, generando vectores a través de modelos de embedding para enriquecer el contexto de los datos. El uso de S3 Vectors como espacio de memoria para sistemas de Agentes ha experimentado un crecimiento explosivo.

Vale la pena destacar que S3 Files se lanzó hace unas semanas, permitiendo que los Agentes procesen datos en S3 a través del estándar POSIX, es decir, de la manera del sistema de archivos. En los sistemas de Agentes, los LLMs prestan gran atención a la "forma de archivo"; tanto las bibliotecas de Python como los scripts de Shell son contenidos familiares durante el entrenamiento de los LLMs. Los Agentes tienden naturalmente a utilizar archivos como interfaz de datos.

Por ello, el enfoque de diseño de S3 Files es montar un sistema de archivos EFS en un bucket de S3. A través de este mecanismo, los usuarios pueden procesar datos de S3 en el sistema de archivos basándose en el estándar POSIX: los archivos pequeños pueden accederse más rápido mediante la caché de EFS, mientras que los archivos grandes se transmiten directamente desde S3 en flujo. Esto permite que los Agentes interactúen de forma nativa con los datos de S3 usando el lenguaje familiar del sistema de archivos, y vean el sistema de archivos compartido como un "espacio de memoria compartida" proveniente de S3.

Desde la perspectiva del desarrollo de la capacidad de memoria de los LLMs, este avance es significativo. La experiencia actual de IA está introduciendo gradualmente contextos de conversación más profundos e interacciones personalizadas, ya sea entre Agentes, entre personas y Agentes, o entre Agentes y datos, el rendimiento del modelo continúa evolucionando. Al expandir aún más esta interfaz natural del sistema de archivos, se espera que la capacidad de memoria de los sistemas de Agentes obtenga una mejora más profunda.

El autor observa que, desde 2006, cuando predominaban datos semiestructurados como imágenes, pasando por los datos analíticos posteriores, y desde los primeros data warehouses hasta el auge de los data lakes, Amazon Web Services está impulsando actualmente con fuerza que Amazon S3 se convierta en una base clave para las cargas de trabajo de IA, adaptándose a las demandas actuales de los clientes. Mai-Lan cree que el núcleo del diseño de Amazon S3 es impulsar el crecimiento de los tipos de datos principales de manera económica, y siempre adherirse a principios como la disponibilidad, durabilidad y resiliencia de los datos. Y esta es precisamente la razón por la cual los clientes han confiado sus operaciones de datos a S3 durante 20 años, y lo que también sustentará sus posibilidades durante los próximos 20 años.

(Autor | Yang Li, Editor | Yang Lin)

Preguntas relacionadas

Q¿Cómo describe Mai-Lan Tomsen Bukovec el patrón de consumo de datos de los Agent en comparación con los ingenieros humanos?

AMai-Lan señala que los Agent consumen datos de manera extremadamente activa y agresiva, con una frecuencia de consulta a los lagos o almacenes de datos que es asombrosa. Su patrón de trabajo es de 'selección paralela óptima', ejecutando decenas o cientos de consultas simultáneas para encontrar la mejor ruta, lo que los convierte en consumidores de datos mucho más agresivos que los humanos, con una frecuencia de llamadas varios órdenes de magnitud mayor y un crecimiento exponencial en el rendimiento de datos.

Q¿Qué tres transformaciones principales se mencionan en el artículo que Amazon S3 ha implementado recientemente para adaptarse a la era de la IA y los Agent?

ALas tres transformaciones principales de Amazon S3 mencionadas son: S3 Table (formato tabular con soporte nativo para Apache Iceberg), S3 Files (acceso a datos vía sistema de archivos POSIX) y S3 Vectors (vectores como tipo de datos nativo para enriquecer contexto y actuar como memoria compartida).

QSegún el artículo, ¿qué ventaja clave ofrece el soporte de Apache Iceberg en S3 Table para la interacción de los Agent con los datos?

AEl soporte nativo de Apache Iceberg en S3 Table permite a los Agent interactuar eficientemente con los datos mediante SQL, ya que los modelos de lenguaje grande (LLM) en los que se basan están entrenados para manejar sintaxis SQL y el formato Iceberg. Esto elimina la necesidad de que los Agent aprendan múltiples API complejas para acceder a los datos almacenados en S3.

Q¿Cómo funciona S3 Files para permitir que los Agent interactúen con los datos de S3, y por qué este enfoque es natural para ellos?

AS3 Files permite a los Agent acceder a los datos en S3 a través del estándar POSIX, montando un sistema de archivos EFS en un bucket de S3. Los Agent pueden interactuar con los datos como archivos, ya sea accediendo a archivos pequeños desde la caché de EFS o transmitiendo archivos grandes directamente desde S3. Este enfoque es natural para los Agent porque los LLM están familiarizados con el concepto de 'archivos' (como bibliotecas de Python o scripts de Shell) durante su entrenamiento.

Q¿Qué papel juegan los vectores (S3 Vectors) en los sistemas de Agent según las observaciones de Mai-Lan tras su lanzamiento?

ATras el lanzamiento de S3 Vectors, Mai-Lan observa que los vectores se utilizan principalmente en dos dimensiones: para construir información de contexto alrededor de los datos almacenados en S3, y para actuar como una memoria compartida en los sistemas de Agent. En los cinco meses posteriores a su lanzamiento, el uso de S3 Vectors como espacio de memoria para los Agent ha experimentado un crecimiento explosivo, permitiendo experiencias de IA con mayor contexto conversacional e interacciones personalizadas.

Lecturas Relacionadas

GensynAI : Que la IA no repita los errores de Internet

En los últimos meses, el auge de la IA ha atraído talento del sector cripto. Muchos proyectos exploran cómo la blockchain puede integrarse en la infraestructura de IA, pero pocos logran un modelo de negocio cerrado. Gensyn se distingue al enfocarse en el núcleo más costoso: el entrenamiento de modelos. Su propuesta es organizar recursos de GPU dispersos globalmente en una red abierta para entrenamiento de IA. Los desarrolladores pueden enviar tareas, los nodos aportan capacidad de cálculo, y la red verifica los resultados y distribuye incentivos. Esto aborda un problema crítico: la creciente centralización del poder de cálculo en grandes tecnológicas, donde el acceso a GPUs como la H100 se ha convertido en una barrera clave para la innovación. Gensyn destaca por cuatro razones: 1. Ataca la capa de infraestructura central de la IA (entrenamiento), no solo aplicaciones. 2. Ofrece un modelo de colaboración abierto que puede optimizar costes y eficiencia para equipos más pequeños. 3. Su principal barrera tecnológica y ventaja es la capacidad de verificar resultados y garantizar fiabilidad en un entorno distribuido. 4. Responde a una demanda real y creciente en un mercado ya validado, más allá de la narrativa cripto. En conclusión, la frontera entre cripto e IA se desdibuja. La IA necesita coordinación de recursos e incentivos para la colaboración global, áreas donde la tecnología blockchain puede aportar soluciones. Gensyn representa un paso hacia una infraestructura de IA más abierta y accesible, no solo controlada por unos pocos gigantes.

marsbitHace 4 hora(s)

GensynAI : Que la IA no repita los errores de Internet

marsbitHace 4 hora(s)

¿Por qué el desarrollo de la IA en China es tan rápido? La respuesta está dentro de sus laboratorios

El artículo explora las razones del rápido desarrollo de la IA en China, centrándose en la cultura organizativa de sus laboratorios. A diferencia del ecosistema estadounidense, que prioriza la innovación disruptiva, el capital y las "estrellas" científicas individuales, el enfoque chino se caracteriza por un pragmatismo basado en la ejecución en equipo, la ingeniería eficiente, la rápida iteración y un fuerte deseo de controlar la pila tecnológica clave. Los laboratorios chinos sobresalen como "seguidores rápidos", optimizando direcciones ya establecidas. Una cultura que valora menos el ego individual y más el trabajo en equipo, combinada con una gran afluencia de jóvenes investigadores y estudiantes integrados en proyectos centrales, facilita una adaptación ágil y un enfoque en tareas prácticas de mejora de modelos. Existe un respeto general dentro del ecosistema, que se percibe más como una comunidad que como tribus en competencia. En el ámbito industrial, se observa una mentalidad de "construir, no comprar", con muchas grandes empresas tecnológicas desarrollando sus propios modelos LLM fundamentales para mantener la soberanía tecnológica. El apoyo gubernamental existe pero es descentralizado. La demanda interna de IA está creciendo, potencialmente similar al mercado de la nube, y los desarrolladores muestran una fuerte admiración por herramientas como Claude. Aunque hay una gran necesidad de chips de Nvidia, también se utilizan alternativas locales como Huawei para inferencia. El ecosistema de datos es menos maduro que en Occidente, lo que fomenta soluciones internas. En conclusión, se están formando dos trayectorias distintas: una carrera impulsada por el capital y el prestigio en EE.UU. frente a una competencia industrial impulsada por la capacidad de ejecución, el ecosistema de código abierto y la autonomía tecnológica en China. El autor destaca la calidez y el enfoque pragmático de los investigadores chinos, subrayando que la competencia futura dependerá no solo de los modelos, sino también de las capacidades organizativas y la fuerza del ecosistema.

marsbitHace 6 hora(s)

¿Por qué el desarrollo de la IA en China es tan rápido? La respuesta está dentro de sus laboratorios

marsbitHace 6 hora(s)

3 años, 5 veces: el renacimiento de una fábrica de vidrio centenaria

Según CRU, la demanda de fibra óptica en centros de datos de IA creció un 75,9% anual, ampliando el déficit de oferta del 6% al 15%. Los precios de la fibra se triplicaron en meses. NVIDIA invirtió en Corning, Lumentum y Coherent (total 45 mil millones USD) para asegurar la cadena de suministro óptica. Corning, fundada en 1851, ve su valor subir un 316,81% en el último año, alcanzando 160 mil millones USD. Su crecimiento se debe a dos factores clave: la rigidez de la oferta (el proceso de fabricación de preformas es complejo y lento) y la transición forzada de cobre a fibra en infraestructuras de IA para mayor eficiencia y menor consumo energético. La fibra es crucial para la IA: su uso en bastidores de IA es 5-10 veces mayor que en centros tradicionales. Se espera que la demanda de fibra para IA represente el 35% del mercado total para 2027. Corning lidera en fibra especializada de baja pérdida, alta densidad y resistencia a la curvatura, esencial para transmisiones de 800G a 1,6T. Sus ingresos en comunicación óptica para empresas se duplicaron en dos años, superando los 30 mil millones USD en 2025, respaldados por acuerdos a largo plazo con Meta, NVIDIA y otros grandes clientes. Aunque no es el mayor fabricante global, Corning destaca en I+D (más de 10 mil millones USD anuales) y en su enfoque en el segmento premium de centros de datos de IA. El aumento de precios beneficia a toda la industria, como muestran los resultados de empresas chinas. El despliegue de Óptica de Co-Embalaje (CPO) y la posible adopción de fibra hueca son variables futuras clave. Sin embargo, la rápida apreciación de las acciones de Corning (multiplicando por 3 su relación P/E) ya refleja grandes expectativas, lo que podría aumentar la volatilidad si los pedidos no cumplen con el ritmo esperado.

marsbitHace 6 hora(s)

3 años, 5 veces: el renacimiento de una fábrica de vidrio centenaria

marsbitHace 6 hora(s)

Trading

Spot
Futuros

Artículos destacados

Cómo comprar ERA

¡Bienvenido a HTX.com! Hemos hecho que comprar Caldera (ERA) sea simple y conveniente. Sigue nuestra guía paso a paso para iniciar tu viaje de criptos.Paso 1: crea tu cuenta HTXUtiliza tu correo electrónico o número de teléfono para registrarte y obtener una cuenta gratuita en HTX. Experimenta un proceso de registro sin complicaciones y desbloquea todas las funciones.Obtener mi cuentaPaso 2: ve a Comprar cripto y elige tu método de pagoTarjeta de crédito/débito: usa tu Visa o Mastercard para comprar Caldera (ERA) al instante.Saldo: utiliza fondos del saldo de tu cuenta HTX para tradear sin problemas.Terceros: hemos agregado métodos de pago populares como Google Pay y Apple Pay para mejorar la comodidad.P2P: tradear directamente con otros usuarios en HTX.Over-the-Counter (OTC): ofrecemos servicios personalizados y tipos de cambio competitivos para los traders.Paso 3: guarda tu Caldera (ERA)Después de comprar tu Caldera (ERA), guárdalo en tu cuenta HTX. Alternativamente, puedes enviarlo a otro lugar mediante transferencia blockchain o utilizarlo para tradear otras criptomonedas.Paso 4: tradear Caldera (ERA)Tradear fácilmente con Caldera (ERA) en HTX's mercado spot. Simplemente accede a tu cuenta, selecciona tu par de trading, ejecuta tus trades y monitorea en tiempo real. Ofrecemos una experiencia fácil de usar tanto para principiantes como para traders experimentados.

484 Vistas totalesPublicado en 2025.07.17Actualizado en 2025.07.17

Cómo comprar ERA

Discusiones

Bienvenido a la comunidad de HTX. Aquí puedes mantenerte informado sobre los últimos desarrollos de la plataforma y acceder a análisis profesionales del mercado. A continuación se presentan las opiniones de los usuarios sobre el precio de ERA (ERA).

活动图片