DeepSeek V4 enfin publié, brise le monopole des modèles propriétaires les plus puissants et annonce un partenariat avec les puces Huawei

marsbitPublié le 2026-04-24Dernière mise à jour le 2026-04-24

Résumé

DeepSeek V4 est désormais disponible en deux versions : DeepSeek-V4-Pro, un modèle haute performance avec 1,6 T de paramètres et 49B d'activation, et DeepSeek-V4-Flash, une version plus légère et économique avec 284B de paramètres et 13B d'activation. Les deux versions prennent en charge un contexte d’1 million de tokens, une capacité auparavant réservée aux modèles exclusifs comme Gemini. DeepSeek-V4-Pro rivalise avec les meilleurs modèles propriétaires en matière de capacités d'agent, de connaissances générales et de raisonnement. Il est déjà utilisé en interne et surpasse Sonnet 4.5, approchant les performances d'Opus 4.6 en mode non-réfléchi. DeepSeek-V4-Flash offre des performances similaires pour des tâches simples à un coût réduit. Le modèle introduit un nouveau mécanisme d'attention permettant une compression des tokens et réduisant significativement les besoins en calcul et en mémoire. De plus, DeepSeek annonce un futur support des puces Huawei pour le calcul et met à jour ses API, tout en retirant progressivement les anciens noms de modèles. La version est open-source et disponible sur Hugging Face et ModelScope.

À l'instant, DeepSeek-V4 est arrivé !

La version préliminaire est officiellement lancée et open source simultanément.

Deux versions au total :

DeepSeek-V4-Pro : Équivalent aux modèles propriétaires de pointe, 1,6 T, 49B activés, longueur de contexte 1M ;

DeepSeek-V4-Flash : Version économique plus petite et plus rapide, 284B, 13B activés, longueur de contexte 1M.

La déclaration officielle est : Des capacités d'Agent, des connaissances mondiales et des performances de raisonnement toutes à la pointe en Chine et dans le domaine open source.

Et :

Actuellement, DeepSeek-V4 est déjà le modèle Agentic Coding utilisé en interne par les employés de l'entreprise. Selon les retours d'évaluation, l'expérience d'utilisation est meilleure que Sonnet 4.5, et la qualité de livraison est proche d'Opus 4.6 en mode non-réflexion. Mais il reste un écart avec le mode réflexion d'Opus 4.6.

Actuellement, le site officiel et l'application sont mis à jour, le service API est également synchronisé.

Concernant la puissance de calcul nationale qui préoccupe tout le monde, point important, support de la puissance de calcul Huawei au second semestre.

Choix haut de gamme et économique, deux versions lancées ensemble

Cette fois, V4 sort deux versions d'un coup.

V4-Pro, performances comparables aux modèles propriétaires de pointe.

L'officiel donne trois critères :

Capacités d'Agent considérablement améliorées : Dans l'évaluation Agentic Coding, V4-Pro a atteint le meilleur niveau actuel des modèles open source, et excelle également dans d'autres évaluations liées à l'Agent. En évaluation interne, en mode Agent Coding, l'expérience V4 est meilleure que Sonnet 4.5, la qualité de livraison est proche d'Opus 4.6 en mode non-réflexion, mais un écart subsiste avec le mode réflexion d'Opus 4.6.

Connaissances mondiales riches : DeepSeek-V4-Pro dans les évaluations de connaissances mondiales devance largement les autres modèles open source, juste légèrement inférieur au modèle propriétaire de pointe Gemini-Pro-3.1.

Performances de raisonnement de classe mondiale : Dans les évaluations de mathématiques, STEM et code compétitif, DeepSeek-V4-Pro surpasse tous les modèles open source actuellement évalués publiquement, obtenant des résultats excellents comparables aux modèles propriétaires de pointe mondiaux.

V4-Flash, version économique plus petite et plus rapide. Capacités de raisonnement proches de Pro, connaissances mondiales légèrement inférieures, mais paramètres et activation plus petits, API moins chère.

Pour les tâches d'Agent, DeepSeek-V4-Flash est à égalité avec DeepSeek-V4-Pro sur les tâches simples, mais un écart subsiste sur les tâches de haute difficulté.

Sur le test de lavage de voiture, V4 passe également rapidement.

Et dans le scénario biologique classique du « père désespéré », DeepSeek-V4 n'a pas saisi du premier coup le point clé du daltonisme rouge-vert (selon les lois génétiques, si une femme est daltonienne rouge-vert, son père biologique l'est nécessairement aussi).

Le contexte d'un million devient standard

Il est à noter que, à partir d'aujourd'hui, le contexte 1M est standard pour tous les services officiels de DeepSeek.

Il y a un an, le contexte 1M était l'atout exclusif de Gemini ; tous les autres modèles propriétaires avaient soit 128K soit 200K ; côté open source, presque personne ne pouvait jouer à ce niveau.

DeepSeek a directement fait passer le contexte d'un million d'une « fonctionnalité haut de gamme » à une « commodité de base ».

Et en open source. Comment ils ont fait, le communiqué de presse donne directement la réponse —

V4 a créé un nouveau mécanisme d'attention, avec compression au niveau du token, combiné avec l'attention sparse DSA. Comparé aux méthodes traditionnelles, les besoins en calcul et mémoire sont considérablement réduits.

DSA n'est pas nouveau. Introduit il y a six mois lors de la mise à jour V3.2-Exp, l'attention extérieure était faible à l'époque, car les scores étaient presque identiques à V3.1-Terminus, semblant être une version intermédiaire sans grand contenu.

En y regardant maintenant, c'était les fondations de V4.

Optimisation spéciale des capacités d'Agent

Côté Agent, V4 a été adapté et optimisé pour les produits Agent mainstream comme Claude Code, OpenClaw, OpenCode, CodeBuddy, les tâches de code et de génération de documents sont améliorées.

Le communiqué inclut également un exemple de page interne de PPT générée par V4-Pro sous un framework Agent.

Prix de l'API

Côté API, V4-Pro et V4-Flash sont mis en ligne simultanément, supportant deux interfaces : OpenAI ChatCompletions et Anthropic.

base_url inchangé, il suffit de changer le paramètre model en deepseek-v4-pro ou deepseek-v4-flash pour l'appel.

Les deux versions ont un contexte maximum de 1M, supportent simultanément le mode non-réflexion et le mode réflexion. En mode réflexion, l'intensité peut être ajustée via le paramètre reasoning_effort, deux niveaux high et max. L'officiel recommande de passer directement à max pour les scénarios Agent complexes.

Il y a un point important — support de la puissance de calcul Huawei au second semestre.

De plus, les anciens noms de modèles seront retirés.

deepseek-chat et deepseek-reasoner seront désactivés dans trois mois (24 juillet 2026), actuellement ces noms pointent respectivement vers les modes non-réflexion et réflexion de V4-Flash.

Impact faible pour les développeurs individuels, changement d'un paramètre model. Les entreprises en environnement de production doivent migrer durant ces trois mois.

One more thing

À la fin du communiqué, DeepSeek cite lui-même une phrase.

« Ne pas être séduit par la louange, ne pas être effrayé par la calomnie, avancer selon sa voie, se rectifier avec droiture. »

Ceci vient de Xunzi « Contre les douze maîtres ». Littéralement, ne pas être tenté par les éloges, ne pas être effrayé par les diffamation, avancer selon la voie que l'on croit, se corriger.

Dans le contexte d'aujourd'hui, c'est intéressant.

Ces six derniers mois, des rumeurs sur quand V4 sortirait, s'il était retardé, s'il était déjà dépassé par d'autres, si Claude avait déjà réussi à distiller les données, etc., ont circulé plusieurs fois dans les cercles d'IA chinois et anglais. Début d'année, certains affirmaient même avec conviction que V4 sortirait avant le Nouvel An chinois, résultat attendu fin avril.

Ils n'ont jamais répondu.

Puis un vendredi après-midi, ils sortent V4, open source simultané, mise en ligne du site et de l'app, mise à jour de l'API, et écrivent même dans le communiqué que les employés internes ont déjà abandonné Claude.

Pas de roadmap, pas de live, pas d'interview.

Ces quatre mots « avancer selon sa voie » semblent être un slogan. Mais si vous regardez le chemin des six derniers mois : la version Exp « sans grand亮点 » de V3.2, le sparse attention DSA qui a préparé V4 pendant six mois, le contexte 1M passé d'atout à standard.

DeepSeek l'a déjà fait.

Liens open source du modèle DeepSeek-V4 :

[1]https://huggingface.co/collections/deepseek-ai/deepseek-v4

[2]https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

Rapport technique DeepSeek-V4 : https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

Cet article provient du compte public WeChat « Quantum Bit », auteur : Quantum Bit

Questions liées

QQuels sont les deux modèles de DeepSeek-V4 annoncés et quelles sont leurs principales caractéristiques ?

ADeepSeek a annoncé deux modèles : DeepSeek-V4-Pro, un modèle haut de gamme avec 1,6 T de paramètres, 49B d'activation et une longueur de contexte de 1M, conçu pour rivaliser avec les meilleurs modèles propriétaires ; et DeepSeek-V4-Flash, une version économique plus petite et plus rapide avec 284B de paramètres, 13B d'activation et la même longueur de contexte de 1M.

QQuelle est la capacité de contexte standard pour les modèles DeepSeek-V4 et pourquoi est-ce significatif ?

ALa capacité de contexte standard pour tous les modèles DeepSeek-V4 est de 1 million de tokens (1M). C'est significatif car il y a un an, cela était une caractéristique exclusive de pointe, mais DeepSeek l'a rendue aussi courante qu'une "utility de base", la rendant accessible via une nouvelle mécanique d'attention et en l'ouvrant en open source.

QQuel partenariat important en matière de puissance de calcul DeepSeek a-t-il annoncé pour la seconde moitié de l'année ?

ADeepSeek a annoncé un partenariat important pour supporter la puissance de calcul de Huawei dans la seconde moitié de l'année.

QComment DeepSeek-V4 se positionne-t-il par rapport aux modèles propriétaires leaders comme Claude Opus selon l'évaluation interne ?

ASelon l'évaluation interne, dans le mode Agent Coding, l'expérience utilisateur de DeepSeek-V4 est supérieure à celle de Sonnet 4.5 et la qualité de livraison est proche de celle d'Opus 4.6 en mode non-réfléchi, mais il reste un écart avec le mode réfléchi d'Opus 4.6.

QQuels sont les changements à venir pour les noms des anciens modèles d'API DeepSeek ?

ALes anciens noms de modèles 'deepseek-chat' et 'deepseek-reasoner' seront désactivés dans trois mois (le 24 juillet 2026). Actuellement, ces noms pointent respectivement vers les modes non-réfléchi et réfléchi de V4-Flash. Les développeurs et entreprises doivent migrer vers les nouveaux noms de modèles.

Lectures associées

Bitwise : Optimiste quant à la performance du Bitcoin au second semestre, l'IA et la régulation vont déclencher une nouvelle saison des altcoins

Lors d'un récent épisode du Milk Road Show, les dirigeants de Bitwise, Matt Hougan (CIO) et Ryan Rasmussen (responsable de la recherche), ont partagé une vision extrêmement optimiste pour le Bitcoin et l'écosystème crypto. Ils estiment que l'objectif de 1 million de dollars par Bitcoin pourrait être « trop conservateur », le décrivant comme un pari « deux en un » : une réserve de valeur numérique (or digital) assortie d'une option d'appel hors de la monnaie pour devenir un actif de règlement international, une idée renforcée par l'instabilité géopolitique récente. Ils reconnaissent que le premier trimestre 2026 a été médiocre avec des baisses généralisées, mais soulignent que les flux d'actualités positifs (lancements de ETF par Morgan Stanley et Goldman Sachs, nouveau cadre réglementaire) sont tournés vers l'avenir et justifient l'optimisme actuel. Un point de données clé est l'explosion des actifs du monde réel tokenisés (RWA), passant de moins de 2 milliards il y a quelques années à près de 30 milliards de dollars aujourd'hui. Enfin, Hougan prédit un « nouvel altseason » pour 2026, catalysé par la combinaison de trois facteurs : le nouveau cadre réglementaire clair de la SEC pour les jetons, l'émergence de blockchains performantes et les capacités de l'IA. Cela permettra, selon lui, une nouvelle vague d'innovation et de projets légitimes, bien différente de l'ère ICO. Bitwise mise également sur cette diversification en annonçant un ETF Avalanche (AVAX), citant son architecture unique et sa croissance dans le secteur RWA.

marsbitIl y a 53 mins

Bitwise : Optimiste quant à la performance du Bitcoin au second semestre, l'IA et la régulation vont déclencher une nouvelle saison des altcoins

marsbitIl y a 53 mins

Trading

Spot
Futures
活动图片