En 4 jours, Amazon a annoncé un investissement supplémentaire de 25 milliards de dollars, et Google a annoncé un investissement allant jusqu'à 40 milliards de dollars — deux concurrents directs, misant plus de 65 milliards de dollars sur la même startup d'IA. Plutôt que d'examiner le développement d'Anthropic sous l'angle du capital-risque, il faut y voir le début du dernier round de la guerre du cloud.
Google et Amazon sont des concurrents directs sur le marché mondial du cloud, et le fait qu'ils misent simultanément sur la même entreprise de modèles est en soi un signal anormal — ils préfèrent se contenir mutuellement plutôt que de laisser l'autre独占 (monopoliser) cet actif stratégique. Trois signaux cachés peuvent s'y cacher :
- Les géants investissent dans Anthropic, n'achètent pas des actions, mais des précommandes de puissance de calcul. Les 65 milliards de dollars donnés par Amazon et Google, chaque centime est assorti de clauses de rétrocession — l'argent obtenu par Anthropic doit être dépensé, à hauteur de milliers de milliards de dollars, dans les services cloud et les puces des investisseurs. La nature de cette transaction est que les fournisseurs de calcul trouvent un gros client pour leur capacité de production.
- La logique concurrentielle du marché du cloud a été complètement réécrite. Auparavant, les entreprises choisissaient le cloud en fonction du prix et de la stabilité, maintenant elles choisissent "sur quel cloud tourne le meilleur modèle". Le modèle a kidnappé la puissance de calcul, celui qui perd le point d'ancrage au niveau des modèles perd les clients entreprises. OpenAI est soudé à Microsoft, Anthropic est devenu la seule cible de concurrence pour Google et Amazon.
- Les infrastructures d'IA en Chine et aux États-Unis présentent des tendances d'évolution différentes — mais ce n'est pas une simple opposition binaire "fermé vs ouvert". Les deux marchés ont simultanément une ligne fermée et une ligne ouverte, la différence réside dans la proportion des forces dominantes et la profondeur des liens. La voie open-source de DeepSeek offre au marché chinois une option alternative différente du système fermé tripolaire américain, mais la pérennité de cette option reste à vérifier.
Le mot "investissement" obscurcit la véritable structure transactionnelle
65 milliards de dollars,流向 (affluent vers) la même entreprise, le même adversaire, pour争夺 (s'emparer d') un point d'ancrage qui ne peut être perdu.
Traduit en langage commercial et décomposé, les clauses d'Amazon sont : 5 milliards de dollars versés d'abord, 20 milliards de dollars supplémentaires à réaliser selon des "jalons commerciaux spécifiques". En contrepartie, Anthropic s'engage à investir plus de 1000 milliards de dollars dans les produits technologiques AWS au cours des dix prochaines années, couvrant les produits existants et nouvelle génération des puces AI auto-développées par Amazon, Trainium.
Les clauses de Google sont : 10 milliards de dollars versés d'abord, si Anthropic atteint ses objectifs de performance, 30 milliards de dollars supplémentaires sont ajoutés, et Google Cloud fournira environ 5 gigawatts de puissance de calcul au cours des cinq prochaines années. Que représentent 5 gigawatts ? L'équivalent de la puissance de sortie d'une centrale électrique de taille moyenne.
L'argent circule dans les deux sens.
Anthropic a obtenu un financement, mais en obtenant l'argent, il doit aussi le dépenser — dans les services cloud des investisseurs, dans leurs puces, dans leurs clusters de calcul construits. Ce n'est pas le modele VC du "donner de l'argent pour que tu brûles", c'est plus proche du financement par le fournisseur de calcul : les géants utilisent l'investissement pour verrouiller un gros client, essentiellement pour obtenir des précommandes pour leur capacité de calcul.
Plus simplement : Google et Amazon ne parient pas sur la valorisation d'Anthropic, ils parient sur la quantité de calcul que Claude continuera à consommer.
Parmi cela, "pourquoi Anthropic" est plus digne de réponse que "pourquoi investir autant d'argent".
Pour comprendre pourquoi Google et Amazon doivent miser sur Anthropic, il faut d'abord comprendre ce que Microsoft a déjà acquis, et pourquoi ils n'ont pas de second choix.
Microsoft a commencé à se lier profondément avec OpenAI dès 2019, alors qu'un investissement de 1 milliard de dollars加上 (ajouté au) support exclusif de calcul Azure, a obtenu le droit de déploiement prioritaire des modèles OpenAI sur le cloud Azure. Par la suite, avec l'explosion de GPT-3, GPT-4, d'innombrables clients entreprises ont migré vers Azure pour utiliser les modèles les plus avancés — pas pour les serveurs de Microsoft, mais pour les modèles d'OpenAI. Le droit de choisir la puissance de calcul a été kidnappé par le modèle. De plus, la relation entre Microsoft et OpenAI s'est approfondie ces dernières années, les clauses d'exclusivité rendant presque impossible l'intervention d'autres fabricants de cloud.
La concurrence sur le marché du cloud est passée de "quel serveur est moins cher" à "sur quel cloud tourne le meilleur modèle". Celui qui perd le point d'ancrage au niveau des modèles perd le coût de migration des clients entreprises. Le point d'ancrage OpenAI, longtemps considéré comme acquis par Microsoft, montre en fait des fissures depuis un an — OpenAI a multiplié les actions de distribution multi-cloud et avance la disposition indépendante de ses propres infrastructures de calcul, ne considérant plus Azure comme son unique débouché commercial.
Cela rend Google et Amazon encore plus anxieux : ils misent sur Anthropic, pas seulement parce qu'ils n'ont pas accès à OpenAI, mais aussi parce qu'OpenAI grandit seul, construit seul sa puissance de calcul, et personne ne peut l'avoir pour lui seul éternellement.
Google a Gemini, Amazon a Nova, mais la pénétration de ces deux modèles auto-développés côté entreprise est loin derrière Claude et GPT. Dans la fenêtre de cette génération de modèles, rattraper son retard rapidement n'est pas forcément rentable, lier une entreprise de modèles déjà performante est plus pragmatique. Claude d'Anthropic est justement la seule cible digne d'être liée dans cette fenêtre.
Un chiffre suffit à le montrer : le 7 avril 2026, Anthropic a divulgué que son chiffre d'affaires annualisé (ARR) avait atteint 30 milliards de dollars, une croissance de 233% par rapport aux 9 milliards de dollars de fin 2025. Un ARR de 30 milliards de dollars n'est pas une vision sur PPT, c'est un revenu construit par des contrats payants — Claude est devenu le modèle non auto-développé le plus irremplaçable sur le marché de l'IA enterprise.
Et ce mois-ci, Anthropic a également acquis pour environ 400 millions de dollars la startup d'IA biotechnologique Coefficient Bio, âgée de seulement 8 mois, s'étendant pour la première fois dans le domaine des sciences de la vie. L'histoire d'Anthropic n'est plus seulement celle d'une entreprise de modèles — elle devient une couche d'infrastructure IA s'étendant sur plusieurs verticales industrielles.
C'est pourquoi Google et Amazon préfèrent "nourrir un concurrent" plutôt que de le laisser être lié par quelqu'un d'autre.
Pourquoi maintenant — La guerre du cloud "accapare" à nouveau les terres
Si l'explosion des grands modèles en 2023 était l'année zéro de la technologie, 2025 l'année zéro du déploiement multimodal et des Agents, alors la ligne principale de 2026 est déjà devenue : Les ressources d'IA s'accélèrent向 (vers) les plateformes de tête, la structure de la guerre du cloud est en train d'être réécrite.
Plusieurs événements dignes d'être notés se sont produits ces derniers mois :
- Septembre 2025, Anthropic complète un financement de série F de 13 milliards de dollars, sa valorisation s'envole à 183 milliards de dollars ;
- Le même mois, Anthropic annonce une collaboration avec Google et Broadcom pour construire un cluster TPU de niveau 3,5 gigawatts ;
- Février 2026, Anthropic complète un financement de série G (montant non divulgué), valorisation d'environ 350 milliards de dollars ;
- 12 mars 2026, Anthropic annonce le Claude Partner Network, investissement de 100 millions de dollars pour construire un écosystème de déploiement enterprise ;
- 6 avril 2026, les documents SEC de Broadcom divulguent qu'Anthropic a signé un accord avec Google et Broadcom pour obtenir environ 3,5 gigawatts de puissance de calcul TPU de next-gen à partir de 2027, l'accord se poursuivant jusqu'en 2031.
Cette série d'actions pointe vers la même conclusion : Anthropic a dépassé le stade "prouver qu'il est capable", et entre dans l'orbite de "l'expansion à l'échelle". Ses besoins sont la puissance de calcul, les talents et les clients ; les besoins des géants du cloud sont de verrouiller ce client, d'empêcher l'adversaire de le verrouiller. Les intérêts des deux parties se croisent avec précision à ce moment.
350 milliards de dollars — ce chiffre validé indépendamment par Amazon et Google en 4 jours — est le prix fixé par le marché pour cette bataille d'accaparement.
Pour Anthropic, ces deux sommes d'argent sont bien sûr une bonne chose. ARR破 (dépassant) 30 milliards, deux grands fabricants de cloud assurant la protection, des jetons IPO exceptionnellement suffisants — c'est la meilleure période.
Mais l'autre face de la pièce est tout aussi réelle.
Première contrainte : L'indépendance est en train d'être érodée. Être actionnarisé simultanément par deux concurrents directs est extrêmement rare dans l'histoire commerciale. Google a Gemini, Amazon pousse Nova, ils sont à la fois en relation de coopération et de concurrence potentielle avec Anthropic. Lorsque les intérêts divergent — par exemple, si la roadmap produit d'Anthropic entre en conflit direct avec les modèles auto-développés des investisseurs — Anthropic devra marcher sur une corde raide entre deux "propriétaires".
Lorsque Google est entré dans Anthropic en 2023 avec un premier tour de 300 millions de dollars, il a obtenu environ 10% des actions, et a continuellement augmenté sa mise ensuite. Maintenant que deux géants ont simultanément un pouvoir de parole dans le conseil d'administration, chaque décision stratégique d'Anthropic devra trouver un point d'équilibre dans l'étau de deux lignes d'intérêt.
Seconde contrainte : Le récit de sécurité est sous pression. Anthropic s'est construit sur "l'IA Constitutionnelle", traçant une ligne de démarcation avec OpenAI avec la "sécurité first". Mais le modèle phare Claude Mythos, qui a provoqué un déploiement exceptionnel de la Maison Blanche ce mois-ci, l'a été précisément parce que ses puissantes capacités de cyberattaque et de défense ont soulevé des considérations complexes de sécurité nationale. Plus tôt, en février 2026, l'administration Trump avait ordonné aux agences fédérales de cesser d'utiliser Claude. L'effet à double tranchant du récit de sécurité se manifeste — Anthropic a pour la première fois été incapable d'agir selon ses propres principes parce que son modèle était trop puissant. Alors que la pression commerciale continue de croître, il sera de plus en plus difficile de s'en tenir aux "limites de sécurité".
Troisième contrainte : L'épée de Damoclès de l'IPO. Derrière une valorisation de 350 milliards de dollars, il y a des investisseurs qui ont besoin d'une voie de sortie. La patience du marché public pour les histoires de croissance est limitée, lorsque "l'idéal de Dario" rencontre la pression des résultats trimestriels, combien de temps le récit de "l'entreprise à but public" peut-il tenir, c'est le suspense laissé pour 2027. Des voix du marché estiment que si l'on estime selon les proportions de dilution habituelles, l'ampleur de la levée de fonds de l'IPO d'Anthropic pourrait atteindre des dizaines de milliards de dollars — et cette estimation n'a pas encore été confirmée officiellement.
Industrie IA chinoise : Les mêmes deux lignes, des proportions différentes
Revenant au niveau industriel, l'impact profond de ces deux transactions devra peut-être être évalué dans de nombreuses années.
Un contexte doit être précisé : Claude d'Anthropic et GPT d'OpenAI suivent la même voie commerciale fermée — les poids du modèle ne sont pas ouverts, les entreprises ne peuvent appeler que via l'API officielle d'Anthropic ou des plateformes cloud partenaires (AWS Bedrock, Google Cloud Vertex AI). Cela signifie que lorsque les trois plus grands fournisseurs de services cloud — Microsoft, Google, Amazon — lient par des moyens capitalistiques des entreprises de modèles fermés, ils forment trois groupes de liaisons exclusives "modèle-cloud" : OpenAI ne peut obtenir des conditions de déploiement optimales que sur Azure, les engagements de calcul de Claude doivent dépenser l'argent de retour sur AWS et Google Cloud.
Si les clients entreprises appellent simplement l'API de Claude pour générer du texte, changer de modèle et modifier quelques lignes de code peut être fait, le coût de migration n'est pas élevé. Mais si Claude est déjà intégré en profondeur dans le flux opérationnel — un système Agent complet construit sur Claude, tout l'engineering prompt optimisé pour Claude, la base de connaissances interne intégrée en profondeur avec Claude Enterprise, utilisant simultanément les services de conformité et d'audit d'AWS — alors changer de modèle ne coûte pas seulement changer un endpoint API. Le comportement de l'Agent deviendra imprévisible à cause des différences de modèle, les prompts devront être réoptimisés, la chaîne d'appels d'outils devra être réécrite, le système de conformité devra être réadapté.
Alors que l'intégration de l'IA côté entreprise continue de s'approfondir, ce coût de migration ne fera qu'augmenter. La structure de l'infrastructure IA évolue vers un "système fermé tripolaire". À l'intérieur de chaque pôle, modèle, puissance de calcul, services cloud forment une boucle interne, pour les clients entreprises intégrés en profondeur, l'espace de choix se rétrécit.
Mais ce n'est pas toute la réalité américaine. Le modèle Llama de Meta a toujours été open-source, possédant l'écosystème de modèles open-source le plus vaste au monde ; Musk a open-sourcé Grok en 2025 ; Mistral suit également la voie open-source. Ces modèles open-source peuvent également être librement déployés par n'importe quel fabricant de cloud, n'importe quelle entreprise. Sur la carte de l'IA américaine, le "système fermé tripolaire" et les "biens publics open-source" coexistent, mais les premiers sont actuellement bien plus importants que les seconds en termes d'échelle commerciale et d'investissement en capital.
Ramener le regard sur la Chine.
L'investissement conjoint d'Alibaba et Tencent dans DeepSeek — une entreprise réputée pour ses modèles open-source — cet événement est presque同步 (synchronisé) dans le temps avec l'investissement conjoint de Google et Amazon dans Anthropic, et il est facile d'y lire une version sino-américaine de la même histoire. Mais la logique sous-jacente est très différente.
Regardons d'abord la nature du modèle lui-même. Claude est fermé, les poids du modèle n'ont jamais été ouverts, les entreprises ne peuvent appeler que via l'API officielle d'Anthropic ou des plateformes cloud spécifiques. DeepSeek suit la voie open-source, les poids du modèle sont publiés publiquement, n'importe quel fabricant de cloud, n'importe quelle entreprise peut le déployer自行 (soi-même). Cette différence fondamentale détermine que la structure de jeu des deux investissements est complètement différente : un modèle fermé peut être独占 (monopolisé) par un fabricant de cloud, utilisé pour verrouiller les clients entreprises ; un modèle open-source n'a naturellement pas d'exclusivité, tout fabricant de cloud peut le déployer, il n'existe pas de "droit de modèle exclusif".
Regardons ensuite la structure transactionnelle. L'investissement de 65 milliards de dollars de Google et Amazon est une précommande de calcul : chaque centime obtenu par Anthropic est accompagné d'un engagement d'achat de services cloud, côté Amazon des dépenses AWS超 (dépassant) mille milliards de dollars sur dix ans, côté Google une consommation de calcul d'environ 5 gigawatts sur cinq ans. L'argent entre à gauche, sort à droite, formant une boucle fermée. Ce que veulent les investisseurs n'est pas une appréciation des actions, c'est que la société investie continue à consommer leur propre calcul.
Et l'investissement d'Alibaba Tencent dans DeepSeek, les informations actuellement divulguées sont plus proches d'un investissement en actions pur, sans clauses de liaison d'achat de calcul similaires apparues. Les deux structures résolvent des problèmes différents : la précommande de calcul résout la digestion de la capacité de production du cloud, l'investissement en actions pur résout le verrouillage de la position stratégique.
Mais il faut aussi admettre que le marché du cloud chinois也存在 (existe aussi) des forces de boucle fermée. Alibaba a Tongyi Qianwen, Tencent a Hunyuan, Baidu a Wenxin, Huawei a Pangu — les modèles auto-développés des quatre grands fabricants de cloud sont également en mode d'appel API fermé, formant également sur leurs propres plateformes cloud une relation de liaison "modèle-cloud". Le produit核心 (noyau) de Zhipu, ChatGLM, fournit également une API fermée. Les clients entreprises chinois qui intègrent en profondeur le modèle auto-développé d'un fabricant de cloud seront également confrontés à un problème de coût de migration croissant.
La différence réside dans la proportion et les forces de contrepoids.
Ce qui mérite plus d'attention, c'est l'effet d'écosystème que ce mode松耦合 (lâchement couplé) pourrait apporter. Les États-Unis évoluent vers un "système fermé tripolaire" : Microsoft+OpenAI, Google+Anthropic, Amazon+Anthropic, chaque boucle fermée est une liaison exclusive entre un modèle fermé et une plateforme cloud spécifique.
Les modèles open-source, en tant que "biens publics" de la couche d'infrastructure IA, abaissent le seuil d'utilisation des modèles de toute l'industrie, permettant à plus de PME et de développeurs d'applications de participer à l'innovation IA. De ce point de vue, l'existence de DeepSeek offre vraiment au marché chinois une option alternative différente de la pure voie fermée.
Mais la pérennité de cette option dépend de trois conditions : que la voie open-source de DeepSeek puisse tenir sous la pression commerciale, que l'investissement d'Alibaba Tencent n'évolue pas progressivement vers une liaison exclusive de calcul, et que les entreprises de modèles indépendantes chinoises puissent continuer à investir dans la pursuit de la diversification du calcul.
Pour l'instant, ces trois conditions n'ont pas de réponse确定的 (déterminée).
65 milliards de dollars en 4 jours, n'achètent pas l'avenir d'Anthropic. Ils achètent : à l'ère où l'IA redéfinit tout, le billet pour ne pas être défini comme "spectateur".
Et ce billet devient de plus en plus cher — si cher qu'aucun géant n'ose être absent, et qu'aucune startup n'ose continuer à se débrouiller seule. (Cet article a été publié pour la première fois sur Titan Media APP, auteur | AGI Signal, éditeur | Qin Conghui)







