Google et Amazon investissent simultanément dans un concurrent, la logique commerciale la plus absurde de l'ère IA devient réalité

marsbitPublié le 2026-04-26Dernière mise à jour le 2026-04-26

Résumé

En l'espace de 4 jours, Amazon a annoncé un investissement supplémentaire de 25 milliards de dollars et Google jusqu'à 40 milliards de dollars dans Anthropic, une startup d'IA. Ces deux concurrents directs ont ainsi engagé plus de 65 milliards de dollars dans la même entreprise. Cet investissement massif ne relève pas d'une logique capitalistique traditionnelle, mais marque le début d'un nouveau round dans la guerre du cloud. L'enjeu pour Google et Amazon n'est pas la simple possession d'une part d'Anthropic, mais la sécurisation de contrats de pré-achat de puissance de calcul (ou "pré-vente de calcul"). Les fonds investis sont conditionnés à ce qu'Anthropic les dépense en services cloud et puces des investisseurs. Amazon a obtenu un engagement de dépense de plus de 1000 milliards de dollars sur AWS sur dix ans, et Google fournira environ 5 gigawatts de puissance de calcul. La concurrence dans le cloud a changé : les entreprises ne choisissent plus un fournisseur pour son prix ou sa stabilité, mais pour savoir "quel modèle d'IA de pointe tourne sur son cloud". Le modèle détermine le choix de la puissance de calcul. OpenAI étant déjà étroitement lié à Microsoft, Anthropic et son modèle Claude sont devenus la seule cible stratégique disponible pour Google et Amazon pour ne pas perdre des clients entreprises. Anthropic, avec un revenu annuel récurrent (ARR) de 30 milliards de dollars, est devenu un acteur infrastructurel incontournable. Cependant, cette dépendance financière ...

En 4 jours, Amazon a annoncé un investissement supplémentaire de 25 milliards de dollars, et Google a annoncé un investissement allant jusqu'à 40 milliards de dollars — deux concurrents directs, misant plus de 65 milliards de dollars sur la même startup d'IA. Plutôt que d'examiner le développement d'Anthropic sous l'angle du capital-risque, il faut y voir le début du dernier round de la guerre du cloud.

Google et Amazon sont des concurrents directs sur le marché mondial du cloud, et le fait qu'ils misent simultanément sur la même entreprise de modèles est en soi un signal anormal — ils préfèrent se contenir mutuellement plutôt que de laisser l'autre独占 (monopoliser) cet actif stratégique. Trois signaux cachés peuvent s'y cacher :

  1. Les géants investissent dans Anthropic, n'achètent pas des actions, mais des précommandes de puissance de calcul. Les 65 milliards de dollars donnés par Amazon et Google, chaque centime est assorti de clauses de rétrocession — l'argent obtenu par Anthropic doit être dépensé, à hauteur de milliers de milliards de dollars, dans les services cloud et les puces des investisseurs. La nature de cette transaction est que les fournisseurs de calcul trouvent un gros client pour leur capacité de production.
  2. La logique concurrentielle du marché du cloud a été complètement réécrite. Auparavant, les entreprises choisissaient le cloud en fonction du prix et de la stabilité, maintenant elles choisissent "sur quel cloud tourne le meilleur modèle". Le modèle a kidnappé la puissance de calcul, celui qui perd le point d'ancrage au niveau des modèles perd les clients entreprises. OpenAI est soudé à Microsoft, Anthropic est devenu la seule cible de concurrence pour Google et Amazon.
  3. Les infrastructures d'IA en Chine et aux États-Unis présentent des tendances d'évolution différentes — mais ce n'est pas une simple opposition binaire "fermé vs ouvert". Les deux marchés ont simultanément une ligne fermée et une ligne ouverte, la différence réside dans la proportion des forces dominantes et la profondeur des liens. La voie open-source de DeepSeek offre au marché chinois une option alternative différente du système fermé tripolaire américain, mais la pérennité de cette option reste à vérifier.

Le mot "investissement" obscurcit la véritable structure transactionnelle

65 milliards de dollars,流向 (affluent vers) la même entreprise, le même adversaire, pour争夺 (s'emparer d') un point d'ancrage qui ne peut être perdu.

Traduit en langage commercial et décomposé, les clauses d'Amazon sont : 5 milliards de dollars versés d'abord, 20 milliards de dollars supplémentaires à réaliser selon des "jalons commerciaux spécifiques". En contrepartie, Anthropic s'engage à investir plus de 1000 milliards de dollars dans les produits technologiques AWS au cours des dix prochaines années, couvrant les produits existants et nouvelle génération des puces AI auto-développées par Amazon, Trainium.

Les clauses de Google sont : 10 milliards de dollars versés d'abord, si Anthropic atteint ses objectifs de performance, 30 milliards de dollars supplémentaires sont ajoutés, et Google Cloud fournira environ 5 gigawatts de puissance de calcul au cours des cinq prochaines années. Que représentent 5 gigawatts ? L'équivalent de la puissance de sortie d'une centrale électrique de taille moyenne.

L'argent circule dans les deux sens.

Anthropic a obtenu un financement, mais en obtenant l'argent, il doit aussi le dépenser — dans les services cloud des investisseurs, dans leurs puces, dans leurs clusters de calcul construits. Ce n'est pas le modele VC du "donner de l'argent pour que tu brûles", c'est plus proche du financement par le fournisseur de calcul : les géants utilisent l'investissement pour verrouiller un gros client, essentiellement pour obtenir des précommandes pour leur capacité de calcul.

Plus simplement : Google et Amazon ne parient pas sur la valorisation d'Anthropic, ils parient sur la quantité de calcul que Claude continuera à consommer.

Parmi cela, "pourquoi Anthropic" est plus digne de réponse que "pourquoi investir autant d'argent".

Pour comprendre pourquoi Google et Amazon doivent miser sur Anthropic, il faut d'abord comprendre ce que Microsoft a déjà acquis, et pourquoi ils n'ont pas de second choix.

Microsoft a commencé à se lier profondément avec OpenAI dès 2019, alors qu'un investissement de 1 milliard de dollars加上 (ajouté au) support exclusif de calcul Azure, a obtenu le droit de déploiement prioritaire des modèles OpenAI sur le cloud Azure. Par la suite, avec l'explosion de GPT-3, GPT-4, d'innombrables clients entreprises ont migré vers Azure pour utiliser les modèles les plus avancés — pas pour les serveurs de Microsoft, mais pour les modèles d'OpenAI. Le droit de choisir la puissance de calcul a été kidnappé par le modèle. De plus, la relation entre Microsoft et OpenAI s'est approfondie ces dernières années, les clauses d'exclusivité rendant presque impossible l'intervention d'autres fabricants de cloud.

La concurrence sur le marché du cloud est passée de "quel serveur est moins cher" à "sur quel cloud tourne le meilleur modèle". Celui qui perd le point d'ancrage au niveau des modèles perd le coût de migration des clients entreprises. Le point d'ancrage OpenAI, longtemps considéré comme acquis par Microsoft, montre en fait des fissures depuis un an — OpenAI a multiplié les actions de distribution multi-cloud et avance la disposition indépendante de ses propres infrastructures de calcul, ne considérant plus Azure comme son unique débouché commercial.

Cela rend Google et Amazon encore plus anxieux : ils misent sur Anthropic, pas seulement parce qu'ils n'ont pas accès à OpenAI, mais aussi parce qu'OpenAI grandit seul, construit seul sa puissance de calcul, et personne ne peut l'avoir pour lui seul éternellement.

Google a Gemini, Amazon a Nova, mais la pénétration de ces deux modèles auto-développés côté entreprise est loin derrière Claude et GPT. Dans la fenêtre de cette génération de modèles, rattraper son retard rapidement n'est pas forcément rentable, lier une entreprise de modèles déjà performante est plus pragmatique. Claude d'Anthropic est justement la seule cible digne d'être liée dans cette fenêtre.

Un chiffre suffit à le montrer : le 7 avril 2026, Anthropic a divulgué que son chiffre d'affaires annualisé (ARR) avait atteint 30 milliards de dollars, une croissance de 233% par rapport aux 9 milliards de dollars de fin 2025. Un ARR de 30 milliards de dollars n'est pas une vision sur PPT, c'est un revenu construit par des contrats payants — Claude est devenu le modèle non auto-développé le plus irremplaçable sur le marché de l'IA enterprise.

Et ce mois-ci, Anthropic a également acquis pour environ 400 millions de dollars la startup d'IA biotechnologique Coefficient Bio, âgée de seulement 8 mois, s'étendant pour la première fois dans le domaine des sciences de la vie. L'histoire d'Anthropic n'est plus seulement celle d'une entreprise de modèles — elle devient une couche d'infrastructure IA s'étendant sur plusieurs verticales industrielles.

C'est pourquoi Google et Amazon préfèrent "nourrir un concurrent" plutôt que de le laisser être lié par quelqu'un d'autre.

Pourquoi maintenant — La guerre du cloud "accapare" à nouveau les terres

Si l'explosion des grands modèles en 2023 était l'année zéro de la technologie, 2025 l'année zéro du déploiement multimodal et des Agents, alors la ligne principale de 2026 est déjà devenue : Les ressources d'IA s'accélèrent向 (vers) les plateformes de tête, la structure de la guerre du cloud est en train d'être réécrite.

Plusieurs événements dignes d'être notés se sont produits ces derniers mois :

  • Septembre 2025, Anthropic complète un financement de série F de 13 milliards de dollars, sa valorisation s'envole à 183 milliards de dollars ;
  • Le même mois, Anthropic annonce une collaboration avec Google et Broadcom pour construire un cluster TPU de niveau 3,5 gigawatts ;
  • Février 2026, Anthropic complète un financement de série G (montant non divulgué), valorisation d'environ 350 milliards de dollars ;
  • 12 mars 2026, Anthropic annonce le Claude Partner Network, investissement de 100 millions de dollars pour construire un écosystème de déploiement enterprise ;
  • 6 avril 2026, les documents SEC de Broadcom divulguent qu'Anthropic a signé un accord avec Google et Broadcom pour obtenir environ 3,5 gigawatts de puissance de calcul TPU de next-gen à partir de 2027, l'accord se poursuivant jusqu'en 2031.

Cette série d'actions pointe vers la même conclusion : Anthropic a dépassé le stade "prouver qu'il est capable", et entre dans l'orbite de "l'expansion à l'échelle". Ses besoins sont la puissance de calcul, les talents et les clients ; les besoins des géants du cloud sont de verrouiller ce client, d'empêcher l'adversaire de le verrouiller. Les intérêts des deux parties se croisent avec précision à ce moment.

350 milliards de dollars — ce chiffre validé indépendamment par Amazon et Google en 4 jours — est le prix fixé par le marché pour cette bataille d'accaparement.

Pour Anthropic, ces deux sommes d'argent sont bien sûr une bonne chose. ARR破 (dépassant) 30 milliards, deux grands fabricants de cloud assurant la protection, des jetons IPO exceptionnellement suffisants — c'est la meilleure période.

Mais l'autre face de la pièce est tout aussi réelle.

Première contrainte : L'indépendance est en train d'être érodée. Être actionnarisé simultanément par deux concurrents directs est extrêmement rare dans l'histoire commerciale. Google a Gemini, Amazon pousse Nova, ils sont à la fois en relation de coopération et de concurrence potentielle avec Anthropic. Lorsque les intérêts divergent — par exemple, si la roadmap produit d'Anthropic entre en conflit direct avec les modèles auto-développés des investisseurs — Anthropic devra marcher sur une corde raide entre deux "propriétaires".

Lorsque Google est entré dans Anthropic en 2023 avec un premier tour de 300 millions de dollars, il a obtenu environ 10% des actions, et a continuellement augmenté sa mise ensuite. Maintenant que deux géants ont simultanément un pouvoir de parole dans le conseil d'administration, chaque décision stratégique d'Anthropic devra trouver un point d'équilibre dans l'étau de deux lignes d'intérêt.

Seconde contrainte : Le récit de sécurité est sous pression. Anthropic s'est construit sur "l'IA Constitutionnelle", traçant une ligne de démarcation avec OpenAI avec la "sécurité first". Mais le modèle phare Claude Mythos, qui a provoqué un déploiement exceptionnel de la Maison Blanche ce mois-ci, l'a été précisément parce que ses puissantes capacités de cyberattaque et de défense ont soulevé des considérations complexes de sécurité nationale. Plus tôt, en février 2026, l'administration Trump avait ordonné aux agences fédérales de cesser d'utiliser Claude. L'effet à double tranchant du récit de sécurité se manifeste — Anthropic a pour la première fois été incapable d'agir selon ses propres principes parce que son modèle était trop puissant. Alors que la pression commerciale continue de croître, il sera de plus en plus difficile de s'en tenir aux "limites de sécurité".

Troisième contrainte : L'épée de Damoclès de l'IPO. Derrière une valorisation de 350 milliards de dollars, il y a des investisseurs qui ont besoin d'une voie de sortie. La patience du marché public pour les histoires de croissance est limitée, lorsque "l'idéal de Dario" rencontre la pression des résultats trimestriels, combien de temps le récit de "l'entreprise à but public" peut-il tenir, c'est le suspense laissé pour 2027. Des voix du marché estiment que si l'on estime selon les proportions de dilution habituelles, l'ampleur de la levée de fonds de l'IPO d'Anthropic pourrait atteindre des dizaines de milliards de dollars — et cette estimation n'a pas encore été confirmée officiellement.

Industrie IA chinoise : Les mêmes deux lignes, des proportions différentes

Revenant au niveau industriel, l'impact profond de ces deux transactions devra peut-être être évalué dans de nombreuses années.

Un contexte doit être précisé : Claude d'Anthropic et GPT d'OpenAI suivent la même voie commerciale fermée — les poids du modèle ne sont pas ouverts, les entreprises ne peuvent appeler que via l'API officielle d'Anthropic ou des plateformes cloud partenaires (AWS Bedrock, Google Cloud Vertex AI). Cela signifie que lorsque les trois plus grands fournisseurs de services cloud — Microsoft, Google, Amazon — lient par des moyens capitalistiques des entreprises de modèles fermés, ils forment trois groupes de liaisons exclusives "modèle-cloud" : OpenAI ne peut obtenir des conditions de déploiement optimales que sur Azure, les engagements de calcul de Claude doivent dépenser l'argent de retour sur AWS et Google Cloud.

Si les clients entreprises appellent simplement l'API de Claude pour générer du texte, changer de modèle et modifier quelques lignes de code peut être fait, le coût de migration n'est pas élevé. Mais si Claude est déjà intégré en profondeur dans le flux opérationnel — un système Agent complet construit sur Claude, tout l'engineering prompt optimisé pour Claude, la base de connaissances interne intégrée en profondeur avec Claude Enterprise, utilisant simultanément les services de conformité et d'audit d'AWS — alors changer de modèle ne coûte pas seulement changer un endpoint API. Le comportement de l'Agent deviendra imprévisible à cause des différences de modèle, les prompts devront être réoptimisés, la chaîne d'appels d'outils devra être réécrite, le système de conformité devra être réadapté.

Alors que l'intégration de l'IA côté entreprise continue de s'approfondir, ce coût de migration ne fera qu'augmenter. La structure de l'infrastructure IA évolue vers un "système fermé tripolaire". À l'intérieur de chaque pôle, modèle, puissance de calcul, services cloud forment une boucle interne, pour les clients entreprises intégrés en profondeur, l'espace de choix se rétrécit.

Mais ce n'est pas toute la réalité américaine. Le modèle Llama de Meta a toujours été open-source, possédant l'écosystème de modèles open-source le plus vaste au monde ; Musk a open-sourcé Grok en 2025 ; Mistral suit également la voie open-source. Ces modèles open-source peuvent également être librement déployés par n'importe quel fabricant de cloud, n'importe quelle entreprise. Sur la carte de l'IA américaine, le "système fermé tripolaire" et les "biens publics open-source" coexistent, mais les premiers sont actuellement bien plus importants que les seconds en termes d'échelle commerciale et d'investissement en capital.

Ramener le regard sur la Chine.

L'investissement conjoint d'Alibaba et Tencent dans DeepSeek — une entreprise réputée pour ses modèles open-source — cet événement est presque同步 (synchronisé) dans le temps avec l'investissement conjoint de Google et Amazon dans Anthropic, et il est facile d'y lire une version sino-américaine de la même histoire. Mais la logique sous-jacente est très différente.

Regardons d'abord la nature du modèle lui-même. Claude est fermé, les poids du modèle n'ont jamais été ouverts, les entreprises ne peuvent appeler que via l'API officielle d'Anthropic ou des plateformes cloud spécifiques. DeepSeek suit la voie open-source, les poids du modèle sont publiés publiquement, n'importe quel fabricant de cloud, n'importe quelle entreprise peut le déployer自行 (soi-même). Cette différence fondamentale détermine que la structure de jeu des deux investissements est complètement différente : un modèle fermé peut être独占 (monopolisé) par un fabricant de cloud, utilisé pour verrouiller les clients entreprises ; un modèle open-source n'a naturellement pas d'exclusivité, tout fabricant de cloud peut le déployer, il n'existe pas de "droit de modèle exclusif".

Regardons ensuite la structure transactionnelle. L'investissement de 65 milliards de dollars de Google et Amazon est une précommande de calcul : chaque centime obtenu par Anthropic est accompagné d'un engagement d'achat de services cloud, côté Amazon des dépenses AWS超 (dépassant) mille milliards de dollars sur dix ans, côté Google une consommation de calcul d'environ 5 gigawatts sur cinq ans. L'argent entre à gauche, sort à droite, formant une boucle fermée. Ce que veulent les investisseurs n'est pas une appréciation des actions, c'est que la société investie continue à consommer leur propre calcul.

Et l'investissement d'Alibaba Tencent dans DeepSeek, les informations actuellement divulguées sont plus proches d'un investissement en actions pur, sans clauses de liaison d'achat de calcul similaires apparues. Les deux structures résolvent des problèmes différents : la précommande de calcul résout la digestion de la capacité de production du cloud, l'investissement en actions pur résout le verrouillage de la position stratégique.

Mais il faut aussi admettre que le marché du cloud chinois也存在 (existe aussi) des forces de boucle fermée. Alibaba a Tongyi Qianwen, Tencent a Hunyuan, Baidu a Wenxin, Huawei a Pangu — les modèles auto-développés des quatre grands fabricants de cloud sont également en mode d'appel API fermé, formant également sur leurs propres plateformes cloud une relation de liaison "modèle-cloud". Le produit核心 (noyau) de Zhipu, ChatGLM, fournit également une API fermée. Les clients entreprises chinois qui intègrent en profondeur le modèle auto-développé d'un fabricant de cloud seront également confrontés à un problème de coût de migration croissant.

La différence réside dans la proportion et les forces de contrepoids.

Ce qui mérite plus d'attention, c'est l'effet d'écosystème que ce mode松耦合 (lâchement couplé) pourrait apporter. Les États-Unis évoluent vers un "système fermé tripolaire" : Microsoft+OpenAI, Google+Anthropic, Amazon+Anthropic, chaque boucle fermée est une liaison exclusive entre un modèle fermé et une plateforme cloud spécifique.

Les modèles open-source, en tant que "biens publics" de la couche d'infrastructure IA, abaissent le seuil d'utilisation des modèles de toute l'industrie, permettant à plus de PME et de développeurs d'applications de participer à l'innovation IA. De ce point de vue, l'existence de DeepSeek offre vraiment au marché chinois une option alternative différente de la pure voie fermée.

Mais la pérennité de cette option dépend de trois conditions : que la voie open-source de DeepSeek puisse tenir sous la pression commerciale, que l'investissement d'Alibaba Tencent n'évolue pas progressivement vers une liaison exclusive de calcul, et que les entreprises de modèles indépendantes chinoises puissent continuer à investir dans la pursuit de la diversification du calcul.

Pour l'instant, ces trois conditions n'ont pas de réponse确定的 (déterminée).

65 milliards de dollars en 4 jours, n'achètent pas l'avenir d'Anthropic. Ils achètent : à l'ère où l'IA redéfinit tout, le billet pour ne pas être défini comme "spectateur".

Et ce billet devient de plus en plus cher — si cher qu'aucun géant n'ose être absent, et qu'aucune startup n'ose continuer à se débrouiller seule. (Cet article a été publié pour la première fois sur Titan Media APP, auteur | AGI Signal, éditeur | Qin Conghui)

Questions liées

QPourquoi Google et Amazon investissent-ils massivement dans Anthropic, alors qu'ils sont concurrents dans le cloud ?

AGoogle et Amazon investissent dans Anthropic pour sécuriser un actif stratégique et éviter que l'autre ne le contrôle exclusivement. L'investissement est essentiellement une précommande de capacité de calcul : l'argent est investi à condition qu'Anthropic dépense des milliards en services cloud et puces des investisseurs. Sans un point d'ancrage comme Anthropic (puisqu'OpenAI est déjà lié à Microsoft), ils risquaient de perdre des clients entreprises qui choisissent leur fournisseur cloud en fonction des meilleurs modèles d'IA disponibles.

QQuelle est la nature réelle de la transaction entre les géants du cloud et Anthropic ?

ALa transaction ne ressemble pas à un investissement VC classique. C'est une forme de "financement de prévente de puissance de calcul". Les clauses stipulent qu'Anthropic doit dépenser l'argent qu'il reçoit (jusqu'à 1000 milliards de dollars sur AWS et environ 5 GW de calcul sur Google Cloud) dans les services cloud et les puces de ses investisseurs. Les géants du cloud parient moins sur la valorisation future d'Anthropic que sur la consommation future de calcul de ses modèles Claude.

QComment la concurrence sur le marché du cloud computing a-t-elle évolué avec l'émergence de l'IA ?

ALa concurrence a radicalement changé. Auparavant, les entreprises choisissaient un fournisseur cloud en fonction du prix et de la stabilité. Aujourd'hui, le critère principal est devenu "quel cloud exécute les meilleurs modèles d'IA". Le modèle a pris le pas sur la puissance de calcul brute. Perdre le point d'ancrage d'un modèle de pointe comme Claude ou GPT signifie perdre des clients entreprises, d'où la course effrénée pour les lier exclusivement à sa plateforme.

QQuelles sont les contraintes auxquelles Anthropic est confronté malgré ces investissements massifs ?

AAnthropic fait face à trois contraintes majeures : 1) L'érosion de son indépendance : être détenu par deux concurrents directs (Google et Amazon) crée un conflit d'intérêts potentiel et complexifie la prise de décision stratégique. 2) La pression sur son récit de sécurité : son modèle Claude Mythos, bien que puissant, a soulevé des inquiétudes en matière de sécurité nationale, remettant en cause son principe de "IA constitutionnelle". 3) La pression pour une introduction en bourse (IPO) : une valorisation de 3500 milliards de dollars crée une attente de liquidité pour les investisseurs, ce qui pourrait entrer en conflit avec la vision à long terme de l'entreprise.

QEn quoi la situation du marché de l'IA en Chine diffère-t-elle de celle des États-Unis, notamment concernant l'investissement dans DeepSeek ?

ALa différence fondamentale réside dans la nature des modèles et la structure des transactions. Aux États-Unis, l'investissement dans Anthropic (modèle fermé) crée un écosystème "cloud-modèle" fermé et exclusif. En Chine, l'investissement d'Alibaba et Tencent dans DeepSeek (modèle open-source) est, pour l'instant, présenté comme un investissement actionnaire pur, sans clauses de préachat de calcul contraignantes. Le modèle open-source de DeepSeek en fait un bien public accessible à tous les cloud providers, offrant une alternative non exclusive à la voie fermée des modèles propriétaires comme Tongyi Qianwen ou Hunyuan. Cependant, la pérennité de cette approche open-source face aux pressions commerciales reste une question ouverte.

Lectures associées

Test pratique de Hunyuan Hy3 preview : L'IA de Tencent est-elle enfin compétitive ?

Le modèle de langage Hy3 preview de Tencent, récemment lancé en open source, présente des capacités améliorées en raisonnement complexe, génération de code, compréhension contextuelle et interaction naturelle. Avec 295 milliards de paramètres et une prise en charge de contexte jusqu'à 256K, il est présenté comme le modèle le plus performant de la série Hunyuan. Les tests montrent des forces dans le raisonnement logique structuré et l'extraction d'informations en contexte bruité, mais une certaine instabilité face aux pièges logiques ou aux questions ambiguës. En génération de code et en tant qu'agent intelligent (via WorkBuddy), il excède dans les tâches simples et fermées (comme créer un jeu Snake) mais peine à mener à bien des missions complexes nécessitant une analyse approfondie et une livraison complète de résultats. Ses progrès les plus notables concernent le dialogue naturel et l'écriture créative, où il produit des textes fluides, moins stéréotypés et mieux contextualisés, imitant même des styles littéraires spécifiques avec succès. Bien que Hy3 preview ne soit pas révolutionnaire dans tous les domaines, il se positionne comme un modèle pratique et polyvalent. Son lancement marque un virage important pour Tencent, qui cherche à rattraper son retard perçu dans la course à l'IA et à intégrer un modèle performant dans son écosystème de produits (QQ, Tencent Docs, etc.). Une version plus grande est attendue prochainement.

marsbitIl y a 1 h

Test pratique de Hunyuan Hy3 preview : L'IA de Tencent est-elle enfin compétitive ?

marsbitIl y a 1 h

DeepSeek V4 fait sensation : La Silicon Valley « construit des murs », la Chine « construit des routes »

**DeepSeek V4 et l'approche collaborative chinoise face au modèle fermé de la Silicon Valley** Le 24 avril, DeepSeek a lancé son modèle V4, acclamé pour ses innovations majeures : une capacité de contexte étendue à un million de tokens avec une réduction de 90% de la consommation mémoire (KV Cache), et une compatibilité native avec les puces chinoises comme celles de Huawei. Contrairement à la concurrence agressive observée entre OpenAI, Google et Anthropic — marquée par des rivalités techniques et des guerres médiatiques — la Chine adopte une stratégie collaborative et open-source. Des entreprises comme DeepSeek et MoonShot AI (créateur de Kimi) partagent ouvertement leurs avancées, comme l’architecture MLA (Multi-head Latent Attention) ou l’optimiseur Muon, permettant une évolution synergique plutôt qu’une compétition destructive. Cette approche open-source réduit les coûts de formation (ex. : DeepSeek V3 formé pour moins de 600M$ contre 5Mds$ pour GPT-5) et stimule l’adoption. Alors que les géants américains se enferment dans des modèles fermés pour préserver leurs avantages, la Chine construit écosystème ouvert, optimisé pour les puces locales et orienté vers les agents IA. Malgré des revenus encore inférieurs à ceux des acteurs US, la croissance du trafic de tokens et la réduction des coûts laissent présager un avantage à long terme grâce à l’innovation collective et l’autonomie technologique.

marsbitIl y a 1 h

DeepSeek V4 fait sensation : La Silicon Valley « construit des murs », la Chine « construit des routes »

marsbitIl y a 1 h

Capacité de calcul limitée : pourquoi DeepSeek-V4 est-il open source ?

Face à des contraintes de calcul, DeepSeek a choisi de rendre son modèle DeepSeek-V4 open source, tout en proposant une version Pro aux capacités avancées mais limitée en débit en raison de ressources de calcul haute performance insuffisantes. Le modèle exploite une architecture MoE (Mixture of Experts) avec 1,6T de paramètres au total mais seulement 49B activés lors de l'inférence, permettant une gestion de contexte longue (1 million de tokens). Une version Flash, avec 284B de paramètres totaux et seulement 13B activés, est conçue pour une adoption massive sur du matériel moins performant, visant ainsi les PME et développeurs. Le modèle excelle dans des tâches exigeantes comme la génération de code et le raisonnement complexe, rivalisant avec des modèles fermés leaders. DeepSeek a également collaboré avec des fabricants de puces chinoises (Huawei, Cambricon, Hygon) pour optimiser l'exécution sur du matériel local, bien que des défis persistent en termes de performance pure et d’approvisionnement. Cette stratégie intervient dans un contexte de concurrence intense sur le marché chinois des modèles de langage et de départs clés dans l’équipe R&D. DeepSeek cherche également à lever des fonds à une valorisation élevée, et cette version open source constitue une démonstration de sa résilience technologique et de son orientation pragmatique vers une IA accessible malgré les limites actuelles du calcul.

marsbitIl y a 8 h

Capacité de calcul limitée : pourquoi DeepSeek-V4 est-il open source ?

marsbitIl y a 8 h

Trading

Spot
Futures

Articles tendance

Comment acheter ERA

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Caldera (ERA) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Caldera (ERA).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Caldera (ERA)Après avoir acheté vos Caldera (ERA), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Caldera (ERA)Tradez facilement Caldera (ERA) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

467 vues totalesPublié le 2025.07.17Mis à jour le 2025.07.17

Comment acheter ERA

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de ERA (ERA) sont présentées ci-dessous.

活动图片