Par | Xiang Xianzhi
Dans Le Problème à trois corps, Liu Cixin a créé une image qui a été citée d'innombrables fois par la suite – la forêt sombre. Chaque civilisation est un chasseur armé ; celui qui se révèle en premier meurt le premier. La forêt n'est pas déserte, mais chacun sait qu'allumer une lumière attirera des balles, alors tout le monde éteint sa lampe.
Au printemps 2026, les meilleurs laboratoires d'IA sont entré dans cette forêt sombre.
Le 16 avril, Anthropic a été le premier à publier Claude Opus 4.7. Le même jour, ils ont fait un geste inhabituel – reconnaître publiquement que les performances d'Opus 4.7 n'étaient pas à la hauteur d'un modèle encore non publié, Mythos, pour des raisons de sécurité (safety concerns).
Le 23 avril, OpenAI a affiché GPT-5.5 sur son site officiel. Le même jour, Anthropic a publié sur son blog officiel un rapport d'analyse d'incident intitulé « An update on recent Claude Code quality reports », reconnaissant que Claude Code était effectivement devenu moins performant au cours du dernier mois – l'un présente une nouvelle carte, l'autre admet une erreur. Mais ce « nouveau champion » semblait presque fanfaronner : nous admettons que Claude est temporairement moins intelligent – mais n'oubliez pas, nous avons encore un Mythos en réserve que nous n'avons pas sorti.
Le 24 avril, la « mystérieuse force orientale » DeepSeek V4 Preview est mise en ligne, l'équipe de Liang Wenfeng annonce pour la première fois un partenariat officiel profond entre le modèle et le Huawei Ascend 950PR ; mais tout le monde a compris – la version « pleine puissance » V4 Pro Max ne sera disponible qu'après la production en masse des super-nœuds Ascend 950 prévue pour le second semestre.
Trois entreprises, trois actions. En surface, ce sont leurs propres calendriers produits, mais vus ensemble, une chose émerge :
Chacun a au moins une « arme » en main – un modèle plus puissant que la version publique, une architecture de nouvelle génération pas encore accessible au public, un super-nœud de puces pas encore largement déployé. Mais personne n'ose brandir cette arme le premier.
Parce que dans cette industrie, le prix à payer pour « se montrer en premier » va bien au-delà de la simple fuite d'informations. Se montrer le premier signifie remettre volontairement son plafond de capacités à l'adversaire comme référence ; signifie assumer le feu nourri des examens de sécurité, du resserrement de la réglementation, de la pression médiatique ; signifie se transformer en cible mobile que tous les concurrents viseront au prochain round. Il n'y a pas d'héroïsme dans la forêt – chaque personne qui tire la première devient la prochaine à être visée.
Donc, le choix le plus rationnel pour les chasseurs est d'éteindre les lumières, de retenir leur souffle, de cacher leurs armes dans leur dos.
C'est la solution optimale du jeu.
L'assurance tranquille d'Anthropic
Du côté de Claude, le dernier mois a été probablement la pire sortie de version.
Après avoir mis à jour Opus 4.7 bien à l'avance, Anthropic dominait toujours les classements, et avait en main Mythos – réservé aux clients entreprises – affichant un air parfaitement détendu.
Mais le cycle d'Opus 4.7 a été l'un des pires en termes d'expérience utilisateur pour Claude, « un flot de critiques négatives ».
Début mars, Anthropic a modifié la profondeur de raisonnement par défaut de Claude Code, passant de high à medium. L'intention derrière cette décision est compréhensible : en mode high, l'interface utilisateur donnait souvent l'impression d'être plantée, la lenteur des réponses exaspérait les utilisateurs payants. Le problème, c'est qu'ils ne l'ont pas annoncé à l'époque.
Fin mars, une « optimisation d'efficacité » a été déployée – si une session Claude Code restait inactive pendant plus d'une heure, le système supprimait les anciens blocs de raisonnement. Conçu pour économiser de la puissance de calcul, l'effet réel fut que après chaque tour de dialogue, Claude semblait souffrir d'amnésie, oubliant complètement le contexte. La communauté de développeurs a été inondée de plaintes ces semaines-là : « Claude ne se souvient plus de ce que je lui ai demandé au tour précédent. »
Jusqu'à récemment, une troisième chose est arrivée – l'ajout d'une instruction dans l'invite système pour compresser la verbosité. De l'aveu même d'Anthropic par la suite, cette instruction a fait chuter la qualité de codage de Claude Code de 3%.
Ces trois événements combinés ont conduit un senior director d'AMD à écrire sur GitHub cette phrase – « Claude has regressed to the point it cannot be trusted to perform complex engineering » (Claude a régressé au point de ne plus pouvoir être considéré comme fiable pour des tâches d'ingénierie complexes). L'article d'Axios du 16 avril « Anthropic's AI downgrade stings power users » l'a porté à l'attention du grand public.
Et alors seulement Anthropic a reconnu qu'il y avait effectivement un problème.
Le 7 avril, ils ont discrètement annulé l'ajustement du reasoning effort ; le 10 avril, ils ont corrigé le bug de cache ; le 20 avril, ils ont retiré l'invite système de compression de la verbosité. Mais le véritable rapport d'analyse d'incident n'a été publié que le 23 avril – jour même de la sortie publique de GPT-5.5.
Ce sentiment teinté d'une certaine désinvolture – « oh, ma stratégie d'ingénierie avait un bug, c'est réparé » – et la sortie importante d'OpenAI sont arrivées à quelques jours d'intervalle. Il est difficile de croire à une coïncidence.
Plus intriguant encore, lors de la sortie d'Opus 4.7, Anthropic a fait un geste反常 : reconnaître publiquement que les performances d'Opus 4.7 étaient inférieures à celles d'un modèle non encore publié – Mythos. C'est clairement un « repli stratégique » – Anthropic garde sa capacité la plus forte côté entreprise, ne se pressant pas pour la proposer au grand public, car l'équipe n'est pas encore prête à sortir Mythos.
Cette explication est crédible. Mais d'un point de vue narratif commercial, l'autre moitié est tout aussi vraie : Anthropic a attendu six semaines pour reconnaître publiquement la régression de Claude Code, attendant le jour où OpenAI allait jouer sa nouvelle carte pour exposer le problème. Si la pression concurrentielle n'avait pas été suffisante, si Opus 4.7 n'avait pas prouvé « nous avons d'autres cartes en main », cette déclaration ne serait peut-être jamais venue.
Du côté de Claude, « faire du dentifrice » ne signifie pas délibérément rogner les capacités, mais plutôt : le rythme de libération des capacités, le rythme de divulgation des problèmes, suivent le rythme des concurrents.
Dévoiler ses capacités les plus avancées, c'est s'exposer à être pris pour cible. Ou pour le dire autrement, de l'avis d'Anthropic, la pression exercée par la version 4.6 sur les concurrents ne s'est pas encore dissipée – dans ce cas, il n'est pas nécessaire de jouer la carte la plus forte tout de suite.
La vieille tactique d'OpenAI
Si Anthropic « cache un Mythos non publié », la tactique de « dentifrice » d'OpenAI est plus subtile – elle laisse le contrôle de la libération des capacités entre les mains de la courbe de charge de ses serveurs et d'un mécanisme de catégorisation appelé auto-router.
Le jour même de la sortie de GPT-5.5, le 23 avril, Simon Willison (co-créateur du framework Django, évaluateur indépendant bien connu dans le milieu de l'IA) a écrit sur son blog une phrase prudente : « It's not a dramatic departure from what we've had before. » (Ce n'est pas un bond en avant dramatique par rapport à ce que nous avions auparavant).
Il a ajouté une information cruciale : GPT-5.5 est le premier modèle de base entièrement réentraîné par OpenAI depuis GPT-4.5 ; ce qui signifie que les versions 5.1, 5.2, 5.3, 5.4 publiées au cours des six derniers mois n'étaient que des mises à jour incrémentielles. En d'autres termes, pour ces quatre mises à jour mineures, OpenAI a publié en retenant sa force – parce qu'ils ne savaient pas ce que les concurrents allaient sortir.
« Publier en retenant sa force » a une explication plus simple : faire du dentifrice.
Mais une scène plus mémorable s'est produite quelques heures après la mise en ligne de GPT-5.5. Les utilisateurs de Codex ont soumis l'Issue #19241 sur GitHub, se plaignant que le Fast mode était vraiment rapide au début, puis ralentissait visiblement une fois que plus d'utilisateurs étaient admis, tout en étant facturé au tarif Fast. La formulation était familière : « OpenAI, veuillez enquêter pour savoir si le mode Fast de GPT-5.5 est rétrogradé sous forte charge. »
C'était presque une répétition exacte de ce qui s'était passé le jour du lancement de GPT-5, le 7 août 2025 – à l'époque, le subreddit r/ChatGPT avait fait monter « GPT-5 is horrible » à plus de 4600 upvotes, et Sam Altman avait admis le lendemain lors d'un AMA que « the autoswitcher broke... GPT-5 seemed way dumber » – reconnaissant que le router avait secrètement rétrogradé les utilisateurs.
Le même scénario, rejoué huit mois plus tard.
Plus ironiquement, la veille de la sortie officielle de GPT-5.5, Codex d'OpenAI a accidentellement poussé l'environnement de staging interne en production, capturé par quelques utilisateurs Pro, corrigé en quelques minutes, mais le contenu divulgué s'était déjà répandu. Ce qui apparaissait dans le sélecteur, outre GPT-5.5 lui-même, était une série appelée Glacier (tooltip indiquant « Intelligence that moves continents »), un modèle de sciences de la vie appelé Heisenberg, un modèle à usage inconnu appelé Arcanine, ainsi que plusieurs versions dont le code oai-2.1.
Autrement dit, au moment même où OpenAI présentait GPT-5.5 comme la « prochaine génération », au moins 5 à 6 lignes de produits parallèles tournaient en interne, aucune n'étant encore accessible au public.
OpenAI l'a d'ailleurs admis. Dans leur feuille de route annuelle officielle pour 2026, ils ont utilisé un terme discuté depuis longtemps dans les milieux universitaires – capability overhang (surcapacité latente) – reconnaissant qu'il existe un énorme fossé entre la capacité réelle des grands modèles actuels et les effets que les utilisateurs peuvent réellement en tirer.
Cela vous semble familier ? C'est presque la même rhétorique qu'Anthropic a utilisée pour Mythos. Même si la fuite de Codex du 22 avril était vraiment une erreur, le fait qu'OpenAI ait volontairement inclus le terme capability overhang dans sa feuille de route envoie un signal très clair – nous en avons bien plus en réserve, à vous de voir.
Ce n'est que si vous avez bien plus que ce que vous vendez aux utilisateurs que vous pouvez vous permettre de faire du dentifrice. Les 24 heures de GPT-5.5 ont une fois de plus transformé cette prémisse en direct.
L'attente patiente de DeepSeek
Du côté de DeepSeek, la manière de « faire du dentifrice » a complètement changé – il ne cache pas des capacités, il attend un moment de déploiement plus opportun.
1.6T MoE, contexte de 1M, double spécification Pro/Flash, prix de 3.48 $ pour 1M de tokens – une fraction du prix de GPT-5.5, un écart d'ordre de grandeur par rapport à Opus 4.7. Les évaluateurs indépendants à l'étranger en ont conclu deux choses : performances proches mais légèrement inférieures à GPT-5.4 / Gemini 3.1-Pro, prix qui « pulvérise l'économie des laboratoires de pointe ».
Mais dans le propre référentiel de DeepSeek, V4 Preview est déjà nettement plus cher que le prix « étrangement bas » de V3. Tout le monde savait – ce n'est pas la version pleine puissance.
L'histoire complète de DeepSeek V4 ne se termine pas avec sa publication, et ne commence certainement pas avec elle.
Il faut remonter à cette publication avortée de R2 en 2025. R2 devait initialement sortir en mai 2025, mais a finalement été reporté à l'automne/hiver. Toute l'infrastructure de base de DeepSeek Chine migrait vers l'écosystème CANN de Huawei. Pour n'importe quel laboratoire, ce n'est pas un projet qui peut être achevé en un trimestre – compilateur, opérateurs, bibliothèques de communication, framework d'inférence, routage MoE, tout devait être réécrit.
Et cette fois, avec V4, c'est la première fois que DeepSeek mentionne officiellement Ascend dans la liste du matériel d'entraînement. V4 est la première version entraînée de manière hybride – Ascend fait son entrée.
Mais la puce de nouvelle génération optimisée pour l'entraînement à grande échelle, l'Ascend 950DT, selon la feuille de route de Huawei, ne sera produite en masse qu'au Q4 2026. Autrement dit, l'entraînement de V4 a pu être réalisé en assemblant la génération précédente, le 950PR ; pour que la version pleine puissance comme V4 Pro Max, ce MoE de 1.6T, soit à la fois parfaitement entraînée et puisse être déployée à grande échelle pour l'inférence, il faut attendre que la prochaine génération soit disponible.
La véritable difficulté technique n'est pas « V4 peut-il être entraîné » – il l'a été – mais « comment faire tourner V4 à pleine capacité, de manière stable et économique sur Ascend ».
L'Ascend 950PR est produit en masse au Q1 2026, avec une puissance FP4 de 1.56 PFLOPS, une mémoire on-chip de 112GB, des spécifications sur papier comparables voire supérieures au Nvidia H20. Mais qu'une puce puisse fonctionner est une chose, qu'un super-nœud entier puisse servir de manière stable des millions de requêtes d'inférence de tokens par seconde en est une autre. La version pleine puissance de V4 Pro Max est conditionnée par ce « super-nœud » – la version cluster à grande échelle de la série Ascend 950, qui arrivera progressivement au second semestre 2026.
Cela constitue une stratégie totalement différente de celle des deux autres. La logique du dentifrice pour Anthropic et OpenAI est : j'ai une version plus forte, je ne te la donne pas pour l'instant ; la logique du dentifrice pour DeepSeek est : ma version pleine puissance attend le moment où le prix pourra descendre d'un cran supplémentaire.
Cette différence est importante.
Le véritable atout de DeepSeek n'a jamais été « être à la pointe des performances », mais « offrir des performances suffisantes à un prix que les autres n'osent pas proposer ». V4 Preview est adapté aux cartes Nvidia et à l'Ascend 950PR, mais pour atteindre une inférence pleine puissance à l'échelle de production, il faut attendre les super-nœuds. Une fois ce moment venu, deux choses se produiront simultanément : premièrement, les capacités de V4 Pro Max pourront être libérées au maximum ; deuxièmement, le coût d'inférence et le prix de l'API baisseront encore d'un cran – pour une entreprise qui perce le marché par les prix, ce dernier point est plus crucial que le premier.
Le véritable « moment DeepSeek » que les gens attendaient, celui qui s'était produit début 2025, ne s'est pas reproduit lors de cette sortie. Et la publication de V4 Preview est en fait une bande-annonce, le véritable point culminant étant le « moment DeepSeek + Huawei Ascend » prévu pour le second semestre.
Sous cet angle, ce que l'équipe de Liang Wenfeng fait n'est pas un « cache-cache » forcé, mais un choix commercial réfléchi – choisir de confier la première de la version la plus puissante au scénario où elle a le plus de poids : le premier jour suivant le déploiement à grande échelle des super-nœuds nationaux. En attendant, utiliser V4 Preview pour consolider une fois de plus le récit du rapport qualité-prix.
Ce que DeepSeek porte n'a jamais été le « récit du point fort » qui consiste à faire monter un grand modèle national en tête d'un classement, mais le « récit systémique » qui fait avancer simultanément quatre axes : les puces, l'entraînement, l'inférence et la tarification – ce dernier est bien plus important.
Il y a quelques jours à peine, Jensen Huang, dans le podcast de Dwarkesh Patel, a déclaré que si DeepSeek sortait en premier sur les puces Huawei, « ce serait un résultat horrible pour notre nation » (« a horrible outcome for our nation »).
Actuellement, Nvidia contrôle encore la puissance de calcul de pointe. Mais selon le « gâteau à cinq couches de l'IA » que Jensen Huang lui-même a décrit – énergie, puces, infrastructure, modèles, applications – l'industrie des grands modèles nationaux dispose déjà, à chaque niveau, de solutions nationales viables, et l'écart se réduit à vue d'œil. Combler cette dernière pièce du puzzle qu'est la puce, l'histoire des grands modèles open source de DeepSeek devient une histoire plus grande que celle des grands modèles américains : c'est une étape cruciale pour permettre au monde entier d'accéder à une société intelligente et efficace sans avoir à supporter des coûts excessifs, en contournant la puissance de calcul avancée contrôlée par certaines hégémonies.
Permettre au monde entier de contourner certaines puissances de calcul avancées contrôlées par des hégémonies et d'entrer dans une société intelligente et efficace.
Épilogue
Le « cache-cache » d'Anthropic – est actif. Ils ont Mythos, ne l'ont pas sorti, pour des raisons de sécurité.
Le « cache-cache » d'OpenAI – est structurel. Ils ont le niveau Pro, ne vous le donnent pas souvent, pour des raisons d'infrastructure et de stratification des prix.
Le « cache-cache » de DeepSeek – est nécessaire. Il concerne l'ensemble du récit d'une transition vers une intelligence sociétale.
Mais sous un autre angle, cela ressemble étrangement à la forêt sombre décrite par Liu Cixin : dans cette forêt intelligente et obscure, aucun chasseur d'élite ne tirera le premier coup de feu.
Se dévoiler signifie être sans réserve, signifie n'avoir aucun atout dans sa manche, signifie devenir la cible vivante d'un autre chasseur.
Personne ne sait qui tirera le coup fatal le premier. Mais une chose est sûre : chaque modèle que vous utilisez aujourd'hui n'est pas sa véritable forme.








