Par | Usine de modèles mondiaux
Il ne reste plus qu'un point d'interrogation sur l'internet chinois : DeepSeek V4, sera-t-il publié ou non ?
Depuis plus d'un an, la compétition mondiale des modèles est entrée dans une phase de confrontation directe.
Les géants comme OpenAI, Anthropic, Google maintiennent généralement des itérations majeures tous les 2-3 mois, voire tous les mois, avec de nouvelles versions rapidement mises sur le marché pour validation, itération et revalidation.
Mais DeepSeek a ralenti ses mises à jour majeures au cours des 15 derniers mois, avec de multiples retards pour V4, son rythme est clairement en retard, passant de leader du secteur à celui qui a toujours un temps de retard.
L'anxiété de l'attente s'est transformée en un tourbillon de suspicions.
Début avril, certains médias ont soudainement laissé entendre : V4 pourrait être publié dans les prochaines semaines, mais il ne faut pas s'attendre à trop de DeepSeek V4.
Pourquoi une version tant attendue nécessite-t-elle de prévenir à l'avance ?
Que s'est-il passé chez DeepSeek cette année ?
La lourde tâche de la localisation
La vérité se cache peut-être dans une nouvelle passée inaperçue pour la plupart.
En janvier 2025, un reportage de Reuters a révélé un détail : après la sortie de Deepseek R1, les autorités concernées ont encouragé DeepSeek à utiliser les processeurs Huawei Ascend, plutôt que de continuer à utiliser Nvidia.
Le mot "encouragé", dans le contexte de l'époque, avait un poids bien supérieur à son sens littéral.
DeepSeek n'est pas une startup ordinaire, c'est le premier succès chinois en IA à briser le blocus technologique américain.
Cette symbolique a rapidement transformé DeepSeek d'une entreprise technologique en un pion clé sur l'échiquier stratégique national d'autonomie et de contrôle.
Peu après, en février, Liang Wenfeng a participé à cette réunion très attendue des entreprises privées.
Il était assis au premier rang, aux côtés des grands noms de la tech comme Ma Huateng, Ren Zhengfei, Lei Jun, devenant un représentant de l'équipe nationale de la nouvelle productive.
Les engrenages de l'orientation politique ont commencé à tourner.
Selon des médias étrangers, DeepSeek a effectivement tenté début 2025 d'utiliser les puces Huawei Ascend 910C pour entraîner la prochaine génération de modèles.
Mais le processus a rencontré de multiples obstacles techniques : stabilité d'entraînement insuffisante, plantages fréquents dans les scénarios distribués à grande échelle, vitesse de communication entre puces inférieure aux attentes.
Huawei a envoyé une équipe d'ingénieurs sur le site de DeepSeek pour fournir un support sur place, mais n'a pas réussi à résoudre les problèmes d'adaptation lors de la phase d'entraînement.
Le résultat est un compromis : DeepSeek continue d'utiliser les GPU Nvidia pour la phase d'entraînement, les puces Ascend étant réservées à l'inférence.
Cela signifie qu'au moins pour cette phase cruciale qu'est l'entraînement, DeepSeek a perdu près d'un an en essais et erreurs.
Mais les travaux d'adaptation n'ont pas cessé. En 2026, de nouveaux développements concernant la version V4 ont émergé.
Selon des fuites, DeepSeek n'a pas accordé de droits de test anticipés à Nvidia, mais a plutôt prioritairement fourni la version pré-publiée à la nouvelle puce Huawei Ascend 950PR pour adaptation.
Simultanément, pour disperser les risques, une adaptation a également été réalisée pour les puces Cambricon.
Mais les défis techniques restent significatifs.
Selon les médias, l'objectif cette fois est d'effectuer une migration au niveau du code source, passant complètement de l'écosystème CUDA de Nvidia au framework CANN de Huawei, réalisant ainsi un remplacement localisé complet de la chaîne d'entraînement et d'inférence.
Selon des sources proches du projet, la difficulté centrale des travaux d'adaptation réside dans l'alignement de la précision, garantissant que le modèle produit des sorties cohérentes sur différents écosystèmes matériels, ce qui implique d'importants ajustements de code bas niveau.
Le coût en temps en découle.
Alors que les principaux acteurs mondiaux maintiennent un rythme d'itération de modèles de 2-3 mois, DeepSeek devient de plus en plus lent, une proportion probablement importante de ses ressources techniques ayant été investie dans l'adaptation aux puces locales.
Après tout, les puces locales présentent un écart générationnel en termes de performances, de maturité de l'écosystème et de complétude de la chaîne d'outils par rapport à Nvidia, le processus d'adaptation des modèles est extrêmement chronophage.
Ceci constitue une divergence nette avec la voie initiale de DeepSeek, purement axée sur l'amélioration des performances du modèle.
Des联动 au niveau de la chaîne industrielle se produisent également.
Début 2026, le marché a rapporté qu'Alibaba, ByteDance et Tencent avaient commandé des centaines de milliers de puces Ascend 950PR à Huawei.
Une hypothèse raisonnable est : les principaux fournisseurs de cloud attendent les résultats de validation de DeepSeek V4 pour évaluer l'utilisabilité réelle des puces locales dans l'entraînement d'IA à grande échelle.
Si V4 fonctionne avec succès, le Huawei 950PR passera de prototype technique à produit commercialisable. Si les attentes ne sont pas atteintes, cela aura délimité les capacités actuelles des puces locales pour le secteur.
Compte tenu des exigences extrêmement élevées de Liang Wenfeng pour la publication des modèles - jamais publié si les attentes ne sont pas atteintes - le fait que V4 soit sur le point d'être dévoilé signifie probablement qu'il a passé les tests d'effet côté inférence.
Si la validation réussie est confirmée, ce sera une étape clé pour DeepSeek et même pour l'IA chinoise vers l'autonomie et le contrôle.
Le coût de la transformation identitaire
En assumant activement la lourde tâche de validation de l'écosystème de calcul local, DeepSeek ressemble plus à une entreprise de mission nationale qu'à un acteur purement market axé sur le profit.
Mais le coût de cette transformation est évident : ralentissement à court terme, pression accrue sur les talents, compétitivité temporairement en pause.
Selon des évaluations indépendantes et des données communautaires de mars-avril 2026, les capacités de génération de code de DeepSeek dans les tests de référence tiers ont été significativement dépassées par la série Claude 4 (Opus 4.6 / Sonnet 4.6).
La capacité de traitement multimodal de DeepSeek est également principalement limitée au texte + image, loin derrière les performances de Claude et GPT en analyse d'image, utilisation informatique et compréhension vidéo.
En 2026, DeepSeek a recentré ses produits sur l'ingénierie système Agent, plus challenging.
Selon les retours actuels de la communauté, DeepSeek est proche du premier tier dans les domaines des Agents de code et de recherche en chinois, mais il existe toujours un écart significatif en ingénierie système avec les modèles internationaux de pointe comme OpenAI et Google concernant la协同 multi-outils, l'exécution de tâches à longue chaîne et la robustesse en environnement réel.
Cet écart n'est pas nécessairement un déclin des capacités techniques, mais plutôt le résultat d'un arbitrage entre la concurrence market et la stratégie nationale.
Le coût au niveau organisationnel est tout aussi visible.
À partir du second semestre 2025, l'équipe核心 de DeepSeek a commencé à se fissurer.
Selon LatePost, Wang Bingxuan (auteur核心 de la première génération de grands modèles), Guo Daya (auteur核心 de R1), Wei Haoran (responsable OCR), Ruan Chong (responsable multimodal) ont quitté l'entreprise successivement.
Derrière ces noms se cache l'héritage technique de DeepSeek de V1 à R1.
Les raisons des départs sont complexes, mais le désavantage relatif du système de rémunération est un facteur visible.
Les chasseurs de têtes透露 que les conditions offertes par les concurrents sont "deux à trois fois" celles de DeepSeek, certaines grandes entreprises offrant directement des packages totaux à huit chiffres.
DeepSeek, en tant que startup non financée extérieurement (la maison mère étant幻方量化), bien que la rémunération absolue ne soit pas faible, ne peut rivaliser avec les incitations en actions et la prime de valorisation des géants market comme ByteDance, Alibaba, Tencent.
Liang Wenfeng a commencé à promouvoir les travaux d'évaluation de l'entreprise, clarifier le prix des stock-options, pour donner plus de certitude à l'équipe.
Mais dans le contexte des introductions en bourse et de la hausse des cours des actions de pairs comme智谱 et MiniMax, la pression pour retenir les talents de pointe reste importante.
Aujourd'hui, DeepSeek s'enfonce dans une certaine ambiguïté identitaire.
Il a toujours besoin de se commercialiser, de retenir les talents, mais en même temps, on attend de lui qu'il s'adapte à la localisation.
Le conflit né de cette double identité est peut-être la logique profonde du ralentissement progressif de DeepSeek cette année.
Par conséquent, les attentes du marché concernant les performances de V4 sont également revues à la baisse.
Il ne deviendra pas nécessairement un modèle fracassant qui fera again le buzz, mais pourrait être une milestone industrielle, prouvant que les modèles de pointe chinois peuvent atteindre un niveau utilisable sur l'écosystème matériel local.
La copie rendue par V4 pourrait être plus importante pour l'orientation à long terme de l'industrie chinoise de l'IA.







