Amazon investit 25 milliards de dollars supplémentaires dans Anthropic, la course aux armements de l'infrastructure IA s'intensifie

marsbitPublié le 2026-04-21Dernière mise à jour le 2026-04-21

Résumé

Amazon annonce un investissement supplémentaire de 25 milliards de dollars dans Anthropic, portant son engagement total à 33 milliards de dollars, et verrouille un accord d'infrastructure cloud de plus de 100 milliards de dollars sur AWS pour la décennie à venir. Cette décision, intervenue deux mois après un investissement similaire de 50 milliards de dollars dans OpenAI, vise à résoudre la crise de capacité de calcul d'Anthropic, dont le revenu annuel dépasse les 30 milliards de dollars. En échange, Anthropic bénéficiera d'une capacité de calcul allant jusqu'à 5 gigawatts pour former et déployer ses modèles Claude. L'intégration technique s'intensifie avec le déploiement natif de la plateforme Claude sur AWS, rejoignant ainsi les offres sur Google Cloud et Microsoft Azure. Cette course à l'infrastructure AI pousse Amazon à prévoir des dépenses d'investissement de 200 milliards de dollars cette année.

Auteur : Claude, Deep Tide TechFlow

Guide Deep Tide : Amazon a annoncé lundi un investissement supplémentaire allant jusqu'à 25 milliards de dollars (dont 5 milliards immédiatement) dans Anthropic, assorti d'un engagement de dépenses sur AWS dépassant 1000 milliards de dollars sur les dix prochaines années.

Il s'agit du deuxième chèque de plusieurs dizaines de milliards qu'Amazon adresse à un laboratoire d'IA de premier plan en deux mois — après avoir déjà investi 50 milliards de dollars dans OpenAI.

Les revenus annualisés d'Anthropic ont dépassé les 30 milliards de dollars, mais des goulots d'étranglement en capacité de calcul nuisent à l'expérience utilisateur ; l'objectif central de cet accord est de résoudre la crise de capacité de production.

Amazon parie simultanément sur les deux plus grands laboratoires d'IA, et les enjeux ne cessent de croître.

Selon des reportages de CNBC, Bloomberg et d'autres médias datés du 20 avril, Amazon a annoncé un investissement supplémentaire allant jusqu'à 25 milliards de dollars dans Anthropic, dont 5 milliards sont versés immédiatement, le reste de 200 milliards étant conditionné à l'atteinte de jalons commerciaux spécifiques. Cet investissement est exécuté sur la base de la valorisation de 380 milliards de dollars du tour de table de série G d'Anthropic en février dernier. Cumulé avec les 8 milliards de dollars investis précédemment, l'engagement total d'Amazon envers Anthropic atteint désormais un plafond de 33 milliards de dollars.

Il y a deux mois, Amazon venait d'investir 50 milliards de dollars dans OpenAI, le principal concurrent d'Anthropic, et avait conclu un accord de services cloud d'une ampleur similaire. Andy Jassy, PDG d'Amazon, a déclaré dans un communiqué qu'Anthropic s'engageait à exécuter ses grands modèles de langage sur AWS Trainium pendant dix ans, « ce qui reflète les progrès réalisés dans le domaine des puces sur mesure ».

Après l'annonce, l'action d'Amazon a augmenté d'environ 2,5 % en trading après-clôture.

Un engagement cloud de mille milliards contre 5 gigawatts de puissance de calcul, en réponse aux accusations d'OpenAI sur le « manque de puissance »

Le cœur de cet accord ne réside pas seulement dans l'investissement en actions, mais aussi dans un protocole d'infrastructure profondément lié.

Anthropic s'engage à investir plus de 1000 milliards de dollars au cours des dix prochaines années dans la technologie AWS, couvrant les puces IA sur mesure d'Amazon Trainium (de Trainium2 à Trainium4 et aux générations futures) et des dizaines de millions de cœurs de CPU Graviton. En échange, Anthropic obtiendra une capacité de calcul maximale de 5 gigawatts pour entraîner et déployer les modèles Claude. Selon le blog d'Anthropic, la société utilise déjà plus d'un million de puces Trainium2 pour entraîner et servir Claude, et prévoit de mettre en service près d'1 gigawatt de capacité Trainium2 et Trainium3 d'ici fin 2026.

Cette expansion de la capacité de calcul répond directement aux attaques publiques récentes d'OpenAI. La directrice des revenus d'OpenAI, Denise Dresser, a déclaré la semaine dernière dans une note interne qu'Anthropic avait commis « une erreur stratégique en ne sécurisant pas suffisamment de puissance de calcul », et a prédit qu'OpenAI disposerait de 30 gigawatts de puissance de calcul d'ici 2030, contre seulement 7 à 8 gigawatts pour Anthropic fin 2027. Anthropic a quant à lui reconnu dans son annonce du jour que la demande des entreprises et des développeurs pour Claude accélérait sa croissance, que l'utilisation grand public connaissait également une « hausse rapide », exerçant une « pression inévitable » sur l'infrastructure, affectant la fiabilité et les performances aux heures de pointe.

Dario Amodei, PDG d'Anthropic, a déclaré : « Les utilisateurs nous disent que Claude devient de plus en plus important pour leur façon de travailler, et nous devons construire l'infrastructure pour suivre une demande en croissance rapide. »

Amazon émet des chèques de plusieurs dizaines de milliards à deux laboratoires d'IA en deux mois

La stratégie d'investissement d'Amazon est désormais très claire : parier simultanément sur les deux principaux acteurs de la course à l'IA.

En février dernier, Amazon a annoncé un investissement allant jusqu'à 50 milliards de dollars dans OpenAI, assorti lui aussi d'un engagement de dépenses de services cloud AWS de 1000 milliards de dollars. La structure de l'accord avec Anthropic est presque identique — 25 milliards d'investissement plus un verrouillage de dépenses cloud supérieur à 1000 milliards. Selon GeekWire, Amazon exécute « le même scénario » avec les deux laboratoires.

Les deux grandes sociétés d'IA rivalisent également pour démontrer leur solidité aux investisseurs. Selon CNBC, Anthropic et OpenAI se préparent toutes deux à une introduction en bourse potentielle dès cette année. OpenAI a été valorisé à plus de 850 milliards de dollars lors de son dernier tour de financement, Anthropic à 380 milliards. Anthropic affiche des revenus annualisés dépassant les 30 milliards de dollars (contre environ 9 milliards fin 2025), tandis qu'OpenAI, dans sa note interne, accuse ce chiffre d'être gonflé d'environ 8 milliards de dollars, car Anthropic comptabiliserait en brut et non en net les revenus de ses partenariats cloud avec Amazon et Google.

Microsoft parie également sur les deux tableaux — après avoir déjà investi plus de 13 milliards de dollars dans OpenAI, elle a investi jusqu'à 5 milliards de dollars dans Anthropic en novembre 2025, ce dernier s'engageant à acheter pour 30 milliards de dollars de puissance de calcul Azure.

La plateforme Claude arrive sur AWS, la bataille pour plus de 100 000 clients

Au-delà de l'investissement, l'intégration au niveau des produits se renforce.

Selon l'annonce, la plateforme native Claude d'Anthropic sera intégrée directement à AWS, permettant aux utilisateurs d'accéder à la console complète de Claude via leurs comptes AWS existants, leurs contrôles d'autorisation et leur système de facturation, sans inscription supplémentaire ou nouveau contrat. Cela va plus loin que la précédente offre des services Claude via le marketplace Amazon Bedrock. Amazon révèle que plus de 100 000 organisations utilisent déjà le modèle Claude sur Amazon Bedrock.

Anthropic souligne également dans son blog que Claude est le seul modèle d'IA de pointe disponible simultanément sur les trois grandes plateformes cloud mondiales (AWS Bedrock, Google Cloud Vertex AI, Microsoft Azure Foundry). Cette stratégie multi-plateformes permet aux clients entreprises de choisir flexiblement leur chemin de déploiement selon leurs besoins, et constitue un avantage différenciant d'Anthropic face à OpenAI.

Coté client, Lyft, après avoir utilisé Claude via Amazon Bedrock pour alimenter son assistant IA clientèle, a réduit son temps moyen de résolution des demandes de 87 %. Pfizer utilise Claude pour aider ses scientifiques à effectuer des recherches vocales dans la documentation de développement de médicaments, économisant ainsi environ 16 000 heures de temps de recherche par an.

La course à l'infrastructure IA : Les dépenses en capital d'Amazon devraient atteindre 2000 milliards de dollars cette année

Cet accord s'inscrit dans le contexte plus large de la course aux armements de l'infrastructure IA entre les géants du cloud computing.

Amazon a indiqué en février dernier que ses dépenses en capital devraient atteindre environ 2000 milliards de dollars en 2026, la grande majorité étant consacrée à l'infrastructure IA. Le projet Rainier, fruit de leur collaboration précédente (un cluster de calcul à très grande échelle possédant près de 500 000 puces Trainium2), était l'un des plus grands clusters de calcul IA au monde ; Anthropic l'utilise pour entraîner et déployer les versions actuelles et futures de Claude.

Anthropic a également élargi sa collaboration avec Google et Broadcom plus tôt ce mois-ci, verrouillant une capacité de calcul de « plusieurs gigawatts », dont la mise en service est prévue à partir de 2027. Ajouté à l'accord de 5 gigawatts avec Amazon, Anthropic augmente ses réserves de capacité de calcul sur plusieurs fronts simultanément.

L'activité de puces sur mesure d'Amazon elle-même accélère. Jassy a récemment révélé que le chiffre d'affaires annualisé de cette activité dépassait les 20 milliards de dollars, doublant par rapport aux 10 milliards de dollars rapportés plus tôt dans l'année, pour reprendre ses termes, c'est « extrêmement populaire ».

Questions liées

QQuel est le montant total de l'investissement d'Amazon dans Anthropic suite à cette annonce, et comment est-il structuré ?

AAmazon annonce un investissement supplémentaire allant jusqu'à 25 milliards de dollars dans Anthropic, dont 5 milliards de dollars sont versés immédiatement et les 20 milliards de dollars restants sont liés à des étapes commerciales spécifiques. Cet investissement porte l'engagement total d'Amazon envers Anthropic à un plafond de 33 milliards de dollars.

QQuel est l'engagement d'Anthropic envers AWS en échange de cet investissement et de l'accès à la capacité de calcul ?

AEn échange, Anthropic s'engage à dépenser plus de 1000 milliards de dollars sur les dix prochaines années en services cloud AWS, notamment sur les puces IA personnalisées Trainium d'Amazon et des dizaines de millions de cœurs CPU Graviton. Cela lui donnera accès à une capacité de calcul allant jusqu'à 5 gigawatts pour former et déployer ses modèles Claude.

QComment cette transaction répond-elle aux allégations récentes d'OpenAI concernant les capacités de calcul d'Anthropic ?

ACette expansion massive de la capacité de calcul est une réponse directe aux attaques d'OpenAI, qui affirmait qu'Anthropic avait commis une « erreur stratégique en n'acquérant pas suffisamment de puissance de calcul ». L'accord avec Amazon permet à Anthropic de combler cet écart perçu et de répondre à la demande croissante pour Claude.

QQuelle est la stratégie d'investissement d'Amazon dans le paysage de l'IA, comme le montre cette annonce ?

ALa stratégie d'Amazon est de parier simultanément sur les deux principaux acteurs de l'IA. Deux mois seulement après avoir investi jusqu'à 50 milliards de dollars dans OpenAI, Amazon réplique avec un investissement majeur dans son concurrent direct, Anthropic, verrouillant ainsi des engagements de dépenses massives sur AWS pour les deux sociétés.

QQuels sont les avantages produits de l'intégration approfondie entre Claude d'Anthropic et AWS ?

ALa plateforme native Claude sera intégrée directement dans AWS, permettant aux utilisateurs d'accéder à la console complète de Claude via leurs comptes AWS existants, sans inscription supplémentaire. Cette intégration approfondie offre une expérience seamless et renforce la position de Claude comme le seul modèle d'IA de pointe disponible sur les trois grandes plateformes cloud (AWS, Google Cloud et Microsoft Azure).

Lectures associées

DeFi Summer, six ans plus tard : comment la révolution de la finance décentralisée se poursuit-elle ?

Le secteur de la finance décentralisée (DeFi) traverse une crise de confiance majeure en 2026, marquée par une série d'incidents de sécurité à grande échelle. Des piratages comme celui de KelpDAO (292 millions de dollars volés), Drift Protocol (285 millions) et Venus (14,9 millions) ont provoqué un retrait massif d'environ 10 milliards de dollars du secteur sur un week-end. Contrairement aux vulnérabilités classiques des smart contracts, ces incidents révèlent des risques systémiques plus profonds : abus de privilèges administratifs, failles de signature, actifs collatéraux frauduleux et complexité inter-chaînes. Pourtant, la finance on-chain continue de croître. Les stablecoins (USDT et USDC totalisent 2630 milliards de dollars) et les obligations américaines tokenisées (10,93 milliards) attirent les capitaux, tandis que des acteurs traditionnels comme Visa intensifient l’utilisation des stablecoins pour les règlements institutionnels (3,5 milliards de dollars annuels en USDC). Le paysage se polarise : les produits conformes et sécurisés captent les flux, tandis que le DeFi natif, miné par les risques opérationnels, voit son rôle se réduire à celui de laboratoire d’innovation. La bataille pour le contrôle de l’infrastructure financière on-chain est désormais dominée par les solutions régulées, au détriment des protocoles décentralisés traditionnels.

marsbitIl y a 11 mins

DeFi Summer, six ans plus tard : comment la révolution de la finance décentralisée se poursuit-elle ?

marsbitIl y a 11 mins

Votre or est-il vraiment « accessible » ? La zone d'ombre géographique de la garde derrière l'or tokenisé

Lorsqu'ils évaluent l'or tokenisé, les investisseurs se concentrent souvent sur la liquidité, les frais ou la blockchain utilisée, mais négligent une question fondamentale : où l'or physique est-il réellement stocké, et comment le récupérer ? Contrairement aux stablecoins, dont les actifs sous-jacents (comme les obligations) sont fongibles et indépendants de leur localisation géographique, l'or tokenisé représente une créance sur un actif physique spécifique, situé dans un lieu spécifique et soumis à un système juridique particulier. La géographie n'est pas accessoire ; elle fait partie intégrante de l'actif. L'ancrage du prix de l'or tokenisé à l'or physique dépend de mécanismes d'arbitrage efficaces, qui nécessitent que le processus de rachat de l'or physique soit rapide et réalisable à l'échelle institutionnelle. Si l'or est stocké dans une juridiction éloignée, les délais et coûts logistiques et juridiques rendent l'arbitrage impraticable, compromettant ainsi la parité des prix. La liquidité seule ne suffit pas ; elle doit être soutenue par une infrastructure de rachat fiable et locale. Pour les institutions, en particulier en Asie (comme à Singapour ou Hong Kong), la localisation du stockage est cruciale pour des questions de conformité réglementaire, d'acceptation en tant que collatéral et d'intégration dans les infrastructures financières locales. Un or tokenisé stocké localement est plus facile à vérifier, à utiliser et à récupérer dans le cadre juridique et opérationnel familier. Ainsi, l'or tokenisé ne convergera pas vers un marché global unique, mais se segmentera régionalement en fonction des infrastructures de custody, des systèmes juridiques et des réseaux de rachat locaux. La vraie question n'est pas de savoir si l'or est "entièrement garanti", mais s'il est "entièrement accessible" dans votre juridiction au moment où vous en avez besoin.

marsbitIl y a 41 mins

Votre or est-il vraiment « accessible » ? La zone d'ombre géographique de la garde derrière l'or tokenisé

marsbitIl y a 41 mins

Crise Fermi : un échantillon de décélération d'une action d'électricité IA

Fermi, une entreprise prometteuse du secteur de l'énergie pour l'IA, a vu son cours s'effondrer à 5,4 dollars, après un pic à 37 dollars peu après son introduction en bourse en octobre dernier. Sans revenus, locataires ou produit viable, elle avait pourtant levé 785 millions de dollars et atteint une valorisation de 12,5 milliards. Son projet phare, "Project Matador", visait à construire le plus grand campus de centres de données au monde au Texas, alimenté au gaz puis au nucléaire. Mais le projet a rapidement déraillé : le principal locataire présumé (Amazon) a résilié son contrat, les travaux ont été arrêtés et le PDG ainsi que le CFO ont démissionné. Des initiés ont vendu pour 68 millions d'actions dès la levée de la période de blocage. Ce fiasco illustre les risques de la bulle des infrastructures énergétiques pour l'IA. De nombreux projets sont annoncés, mais peu sont en construction, freinés par des délais d'approvisionnement en équipements électriques et un réseau inadapté. Des géants comme Microsoft ou Meta investissent des milliards, mais la capacité de livraison est bien en deçà des promesses. Fermi, qui n'avait ni centrale ni client, appartenait à la couche la plus spéculative de cette chaîne. Son effondrement préfigure probablement d'autres échecs, alors qu'un écart énorme sépare les projets annoncés des réalisations concrètes.

marsbitIl y a 41 mins

Crise Fermi : un échantillon de décélération d'une action d'électricité IA

marsbitIl y a 41 mins

Trading

Spot
Futures
活动图片