Dialogue avec Mai-Lan d'Amazon Web Services : Le prochain champ de bataille de S3, comment répondre au raz-de-marée de consommation de données à l'ère des Agents

marsbitPublié le 2026-05-08Dernière mise à jour le 2026-05-08

Résumé

Le récent engouement en Chine pour OpenClaw a mis en lumière le potentiel des Agents IA, mais aussi un défi crucial pour les fournisseurs de cloud : leurs infrastructures de données sont-elles prêtes pour la consommation frénétique de données par ces Agents ? Mai-Lan Tomsen Bukovec, vice-présidente technique d'Amazon Web Services, explique que les Agents consomment les données de manière "agressive" et parallèle, avec des appels aux entrepôts de données qui augmentent de façon exponentielle en fréquence et en volume. Face à cela, le choix des services de données sous-jacents devient déterminant pour le coût et la performance. Amazon S3, à l'occasion de ses 20 ans, se positionne comme socle clé pour ces charges de travail IA grâce à trois évolutions majeures. S3 Table, avec son support natif d'Apache Iceberg, permet aux Agents d'interagir facilement via SQL. S3 Vectors, en faisant du vecteur un type de données natif, sert à la fois à contextualiser les données et de "mémoire partagée" pour les Agents. Enfin, S3 Files permet aux Agents d'accéder aux données via une interface système de fichiers POSIX familière. Ces innovations visent à permettre aux Agents d'interagir de manière native et efficace avec les données, en utilisant S3 comme un espace de mémoire partagé et durable. La philosophie de S3 – économie, disponibilité, résilience – qui a fidélisé les clients pendant 20 ans, est ainsi adaptée pour soutenir l'ère des Agents IA.

Début d'année, le succès retentissant d'OpenClaw en Chine a permis à tout le monde d'entrevoir l'immense potentiel des Agents. Cependant, cela a aussi soulevé une question cruciale à laquelle tous les fournisseurs de cloud doivent répondre : lorsque les Agents commencent à se multiplier comme des écrevisses cybernétiques et à interroger les données à haute fréquence, l'infrastructure cloud de l'IA, en particulier la couche de données, est-elle prête ?

Par exemple, les équipes de données des entreprises rencontrent souvent des goulots d'étranglement au niveau des données lorsqu'elles déploient des Agents en environnement de production. Construire des Agents sur différentes plateformes (bases de données vectorielles, relationnelles, orientées graphes, lacs de données, etc.) nécessite de synchroniser les pipelines de données pour maintenir l'actualité des informations contextuelles. Mais dans des environnements de production réels, ces informations contextuelles deviennent progressivement obsolètes.

L'urgence de ce problème vient du mode de consommation des données radicalement différent entre les Agents et les ingénieurs humains.

« Les Agents consomment les données d'une manière extrêmement active et agressive, leur fréquence d'interrogation des entrepôts de données ou des lacs de données est stupéfiante. »

Mai-Lan Tomsen Bukovec, Vice-Présidente Technique chez Amazon Web Services, a récemment indiqué lors d'un échange avec l'auteur que les Agents fonctionnent selon un mode opératoire de « sélection parallèle optimale ». C'est-à-dire qu'au lieu d'une requête à la fois, ils en exécutent des dizaines, voire des centaines, en parallèle, en comparant les résultats pour trouver le meilleur chemin. Cela fait des Agents des consommateurs de données bien plus agressifs que les humains, avec une fréquence d'appel supérieure de plusieurs ordres de grandeur et une augmentation exponentielle du débit de données.

Mai-Lan ajoute : « Actuellement, les clients souhaitent vivement construire une infrastructure pour Agents, et le coût, ou plutôt le rapport qualité-prix, n'est plus un facteur secondaire, il devient déterminant. Dans les six mois à un an à venir, avec l'explosion des Agents, le choix des services de données sous-jacents deviendra crucial. »

Aujourd'hui, l'euphorie autour d'OpenClaw retombe, laissant place à un avertissement sous forme de test de résistance sur les capacités de stockage et de calcul de base des fournisseurs de cloud. Mai-Lan estime qu'Amazon Web Services possède un avantage naturel dans ce domaine : l'échelle d'Amazon S3 (Amazon Simple Storage Service), ainsi que l'efficacité en termes de coût d'Amazon Redshift et d'Amazon Athena sous haute concurrence, sont précisément conçues pour ce type d'interaction avec les données, à très grande échelle et très haute fréquence, propre aux Agents.

À l'occasion du 20ème anniversaire d'Amazon S3, ce service a récemment connu trois évolutions majeures pour répondre aux besoins des clients à l'ère de l'IA en matière de traitement des données : S3 Table (format table), S3 Files (fichiers) et S3 Vector (vecteur).

Comme le support natif d'Apache Iceberg par S3 Table. Mai-Lan souligne que lorsqu'ils traitent des données, les Agents ont tendance à interagir directement via SQL avec des données au format Iceberg. La logique sous-jacente est que les Agents sont construits sur des grands modèles linguistiques, et ces derniers, pendant leur entraînement, ont développé une capacité mature à traiter la syntaxe SQL et le format de données Iceberg. Stocker toutes les données tabulaires au format Iceberg dans S3 permet aux Agents de traiter efficacement les données sans avoir à apprendre de multiples API d'accès complexes. Actuellement, les Agents, S3 et Iceberg présentent une compatibilité remarquable.

L'introduction de la fonctionnalité Iceberg dans S3 a déclenché une nouvelle vague d'innovation. Des sources de données comme Postgres, Oracle, etc., commencent à écrire directement en Iceberg, et les systèmes d'Agents peuvent interagir directement avec ces tables. Avec le lancement de S3 Vectors, de plus en plus d'applications d'IA utilisent les vecteurs comme support de mémoire partagée, injectant ainsi un « état » dans l'expérience d'interaction avec l'IA.

Mai-Lan note également que le type de données « vecteur » a été introduit en natif dans S3. L'application des vecteurs se concentre principalement sur deux dimensions : premièrement, utiliser les vecteurs pour construire un contexte informationnel pour les données stockées dans S3 ; deuxièmement, utiliser les vecteurs comme mémoire partagée. Cinq mois après le lancement de S3 Vectors, les retours du marché sont conformes aux attentes. De nombreux clients ont commencé à utiliser cette fonctionnalité, générant des vecteurs via des modèles d'embedding pour enrichir le contexte de leurs données. L'utilisation de S3 Vectors comme espace mémoire pour les systèmes d'Agents connaît une croissance explosive.

Il est à noter que S3 Files a été lancé il y a quelques semaines, permettant aux Agents de traiter les données dans S3 via le standard POSIX, c'est-à-dire de manière système de fichiers. Dans les systèmes d'Agents, les grands modèles linguistiques accordent une grande attention à la forme « fichier ». Que ce soient les bibliothèques Python ou les scripts Shell, ce sont des contenus familiers pendant l'entraînement des grands modèles, et les Agents ont naturellement tendance à considérer les fichiers comme interface de données.

Dans cet esprit, le concept de S3 Files est de monter un système de fichiers EFS (Elastic File System) sur un bucket S3. Grâce à ce mécanisme, les utilisateurs peuvent traiter les données S3 dans le système de fichiers selon le standard POSIX : les petits fichiers peuvent être accélérés via le cache EFS, tandis que les gros fichiers sont transmis en flux directement depuis S3. Cela permet aux Agents d'interagir nativement avec les données S3 via le langage familier du système de fichiers et de considérer le système de fichiers partagé comme un « espace de mémoire partagée » provenant de S3.

Du point de vue de l'évolution des capacités de mémoire des grands modèles linguistiques, cette avancée est significative. L'expérience d'IA actuelle introduit progressivement des contextes de conversation plus profonds et des interactions plus personnalisées, que ce soit entre Agents, entre humains et Agents, ou entre Agents et données, les performances des modèles évoluent constamment. En étendant encore cette interface naturelle qu'est le système de fichiers, les capacités de mémoire des systèmes d'Agents pourraient connaître une amélioration plus profonde.

L'auteur constate qu'Amazon Web Services, depuis ses débuts en 2006 avec des données semi-structurées comme les images, puis les données analytiques, depuis les premiers entrepôts de données jusqu'à l'essor des lacs de données, s'efforce aujourd'hui vigoureusement de faire d'Amazon S3 la pierre angulaire pour supporter les charges de travail de l'IA, adaptée aux demandes actuelles des clients. Mai-Lan considère que le cœur de la conception d'Amazon S3 est de favoriser la croissance des principaux types de données de manière économique, tout en restant fidèle à des principes tels que la disponibilité, la durabilité et la résilience des données. Et c'est précisément pour ces raisons que les clients continuent de confier leurs activités données à S3 depuis 20 ans, et c'est aussi ce qui portera ses possibilités pour les 20 prochaines années.

(Auteur | Yang Li, Éditeur | Yang Lin)

Questions liées

QQuels sont les trois principaux changements récents apportés à Amazon S3 pour répondre aux besoins des clients à l'ère de l'IA ?

AAmazon S3 a récemment introduit trois évolutions majeures : S3 Table (prise en charge native d'Apache Iceberg), S3 Files (accès via le standard POSIX) et S3 Vector (vecteur en tant que type de données natif).

QPourquoi Mai-Lan Tomsen Bukovec souligne-t-elle que les Agents consomment les données de manière 'extrêmement active et agressive' ?

AParce que les Agents fonctionnent sur un mode de 'sélection parallèle', exécutant des dizaines voire des centaines de requêtes simultanément pour comparer et trouver le meilleur chemin, ce qui entraîne une fréquence d'appel et un débit de données exponentiellement plus élevés que ceux des humains.

QComment S3 Files permet-il aux Agents d'interagir plus naturellement avec les données ?

AS3 Files permet de monter un système de fichiers EFS sur un compartiment S3. Les Agents peuvent ainsi traiter les données via l'interface familière du système de fichiers POSIX : les petits fichiers sont accélérés par le cache EFS, et les gros fichiers sont diffusés en flux directement depuis S3.

QQuel rôle le format Apache Iceberg joue-t-il dans l'interaction entre les Agents et Amazon S3 ?

AApache Iceberg permet aux Agents d'interagir directement avec les données via SQL, un langage que les grands modèles maîtrisent déjà. Stocker toutes les données tabulaires au format Iceberg dans S3 évite aux Agents d'apprendre des API complexes et rend le traitement des données plus efficace.

QQuelle est l'importance des vecteurs (S3 Vectors) dans le contexte des systèmes d'Agents selon l'article ?

ALes vecteurs sont utilisés dans deux dimensions clés : pour construire un contexte informationnel autour des données stockées dans S3, et comme 'mémoire partagée' pour les systèmes d'Agents, permettant des interactions conversationnelles plus profondes et personnalisées.

Lectures associées

Hyperliquid Surpasse le Bitcoin de 71 % lors du pire trimestre crypto depuis 2018 — Un rapport révèle pourquoi

L'échange décentralisé Hyperliquid a généré 215 millions de dollars de revenus bruts au premier trimestre 2026, surperformant le Bitcoin de 71,5 points de pourcentage lors du pire trimestre crypto depuis 2018. Malgré un marché en baisse, un événement a marqué son ascension institutionnelle : le 28 février, suite à des frappes américano-israéliennes en Iran, Hyperliquid est devenu le lieu de découverte de prix *de facto* du pétrole brut pendant la fermeture des bourses de matières premières traditionnelles. La transformation structurelle s'est opérée via HIP-3, une fonctionnalité permettant des dérivés perpétuels sur actifs réels (RWA). Son volume a explosé de 175% sur le trimestre, représentant 33,6% du volume total des perpétuels en mars. Le contrat sur l'indice S&P 500, officiellement licencié et lancé le 18 mars, a atteint 2 milliards de dollars de volume en deux semaines. Côté token, le Fonds d'Assistance a racheté près de 5 millions de HYPE, dont le cours a progressé de 44,8% sur la période. L'équipe fondatrice n'a réclamé que 5,1% de ses tokens alloués, renonçant volontairement à environ 849 millions de dollars. Quatre demandes de ETF sur HYPE ont été déposées. Le rapport souligne que ces résultats sont obtenus sans participation du marché américain, interdit d'accès. Hyperliquid évolue ainsi d'une simple histoire DeFi à une histoire d'infrastructure financière émergente, attirant l'attention des institutions.

bitcoinistIl y a 26 mins

Hyperliquid Surpasse le Bitcoin de 71 % lors du pire trimestre crypto depuis 2018 — Un rapport révèle pourquoi

bitcoinistIl y a 26 mins

55 milliards de dollars, l'« usine à puces » de Musk commence à devenir réalité

Dans les années 1980, l'industrie japonaise des semi-conducteurs dominait le monde. Aujourd'hui, c'est Elon Musk qui, face à une dépendance similaire, lance un projet stratégique pour maîtriser sa propre chaîne d'approvisionnement en puces. SpaceX a proposé d'investir 55 milliards de dollars (pourrait atteindre 119 milliards) dans l'usine "Terafab" au Texas. Cette initiative conjointe avec Tesla vise à répondre aux énormes besoins en puissance de calcul (pour xAI, Starlink, l'autopiloté Tesla, Optimus) de l'écosystème d'entreprises de Musk, réduisant ainsi sa dépendance envers Nvidia. Il s'agit moins d'une simple usine que d'une stratégie d'infrastructure IA verticalement intégrée, contrôlant la production, l'énergie et le déploiement. Cependant, la réalité industrielle est rude : la construction prend des années (première production optimiste mi-2028), nécessite une expertise et des équipements de pointe (comme les machines EUV d'ASML), et les retards sont fréquents. Ce projet reflète une course plus large à l'autonomie en matière de calcul dans l'ère de l'IA, où la puissance de traitement est une ressource stratégique. Son annonce, coïncidant avec la future introduction en bourse de SpaceX, sert également de récit capitalistique, liant Tesla au récit porteur de l'IA et du supercalcul. Ainsi, alors que SpaceX continue ses lancements de fusées, le projet Terafab, bien qu'encore sur le papier, symbolise la redéfinition des frontières industrielles par Musk, transformant potentiellement la future chaîne d'approvisionnement des semi-conducteurs pour l'IA.

marsbitIl y a 32 mins

55 milliards de dollars, l'« usine à puces » de Musk commence à devenir réalité

marsbitIl y a 32 mins

SpaceX, valorée à des milliers de milliards : quel est son "seul substitut abordable" ?

SpaceX, valorisée jusqu’à 2 000 milliards de dollars, s’apprête à réaliser son introduction en bourse. Dans le marché naissant des sociétés spatiales commerciales cotées, Rocket Lab (RKLB) émerge comme le principal « concurrent alternatif ». Son action a bondi de 240 % sur un an. Cette perception repose sur sa stratégie calquée sur celle de SpaceX : maîtriser d’abord les petits lanceurs réutilisables, puis développer un lanceur moyen-lourd. Sa fusée légère Electron est déjà le lanceur commercial opérationnel le plus fréquent au monde après le Falcon 9 de SpaceX, avec une technologie de récupération éprouvée. Le cœur du potentiel de croissance réside dans son futur lanceur moyen-lourd Neutron, conçu pour concurrencer directement le Falcon 9. Avec des innovations comme son coiffe fixe réutilisable « HungryHippo », Neutron vise une efficacité supérieure. Son premier vol est prévu fin 2026. À l’instar de SpaceX (Starlink), Rocket Lab possède également une activité « Systèmes spatiaux » (plateformes satellites, etc.), qui génère près de 70 % de ses revenus, formant un écosystème intégré « fabrication + lancement ». Avec une capitalisation d’environ 45 milliards de dollars, très éloignée des milliers de milliards de SpaceX, Rocket Lab offre un levier d’investissement attractif. Son succès dépendra cependant entièrement du développement réussi et ponctuel de Neutron. Tout retard ou échec constituerait un risque majeur pour sa valorisation.

Odaily星球日报Il y a 37 mins

SpaceX, valorée à des milliers de milliards : quel est son "seul substitut abordable" ?

Odaily星球日报Il y a 37 mins

La société qui fabrique le verre de l'iPhone a vu son action quintupler grâce à l'IA

L'entreprise Corning, connue pour fournir le verre Gorilla Glass aux iPhones, voit son action multipliée par cinq, portée par la demande liée à l'IA. Récemment, Nvidia a investi 500 millions de dollars (avec une option pour porter le total à 3,2 milliards), faisant grimper l'action de Corning de 14%. En quelques mois, Corning a signé plusieurs contrats à long terme de plusieurs milliards de dollars avec des géants de la tech comme Meta et d'autres sociétés non nommées. La transformation clé réside dans son activité historique de communications optiques (fibre). Alors qu'elle fournissait traditionnellement les opérateurs télécoms, la demande explosive des centres de données pour l'entraînement d'IA a radicalement changé la donne. L'IA nécessite une densité de fibre optique bien supérieure aux architectures cloud classiques, car le trafic est principalement "est-ouest" entre des milliers de GPU, exigeant une latence ultra-faible. Corning a répondu avec des innovations comme des câbles à fibres ruban qui permettent de loger jusqu'à six fois plus de fibres dans les mêmes conduits, réduisant drastiquement le temps et les coûts d'installation pour les centres de données pressés par le temps. Ce virage est au cœur du plan "Springboard" de Corning, qui a dopé sa rentabilité. Ses revenus annuels en communications optiques ont triplé en cinq ans pour atteindre 6,3 milliards de dollars en 2025. L'investissement de Nvidia, faisant partie d'une stratégie plus large pour contrôler la chaîne d'approvisionnement des "usines d'IA", consolide la position de Corning en tant que fournisseur clé de l'infrastructure nerveuse de la révolution de l'IA.

marsbitIl y a 55 mins

La société qui fabrique le verre de l'iPhone a vu son action quintupler grâce à l'IA

marsbitIl y a 55 mins

Trading

Spot
Futures

Articles tendance

Comment acheter ERA

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Caldera (ERA) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Caldera (ERA).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Caldera (ERA)Après avoir acheté vos Caldera (ERA), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Caldera (ERA)Tradez facilement Caldera (ERA) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

477 vues totalesPublié le 2025.07.17Mis à jour le 2025.07.17

Comment acheter ERA

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de ERA (ERA) sont présentées ci-dessous.

活动图片