DeepSeek V4 finalmente se lanza, rompiendo el monopolio de los modelos cerrados más potentes y anunciando colaboración con los chips de Huawei

marsbitPublicado a 2026-04-24Actualizado a 2026-04-24

Resumen

DeepSeek-V4 ya está aquí: la nueva generación de modelos de inteligencia artificial de DeepSeek se lanza en versión preliminar y de código abierto. Incluye dos variantes: **DeepSeek-V4-Pro**, con 1,6 billones de parámetros y 49.000 millones de activaciones, diseñado para competir con los mejores modelos cerrados; y **DeepSeek-V4-Flash**, una versión más económica con 284.000 millones de parámetros y 13.000 millones de activaciones, optimizada para velocidad y eficiencia. Ambos soportan un contexto de 1 millón de tokens. Según la evaluación interna, DeepSeek-V4 supera a Claude Sonnet 4.5 en tareas de codificación con agentes y se acerca al rendimiento de Opus 4.6 en modo no reflexivo, aunque aún existe una brecha con el modo reflexivo de Opus. El modelo también destaca en conocimientos generales y razonamiento, situándose a la par de los principales modelos cerrados. La gran novedad es la implementación de un nuevo mecanismo de atención que permite el contexto extenso de manera eficiente, combinando compresión de tokens y atención dispersa (DSA). Además, DeepSeek anuncia que **a partir del segundo semestre de 2026, sus servicios admitirán chips Huawei**, reforzando la independencia tecnológica. La API ya está disponible, compatible con las interfaces de OpenAI y Anthropic, y los modelos antiguos se retirarán en julio de 2026. DeepSeek reafirma su compromiso con el avance en IA de código abierto, priorizando la innovación técnica sobre el ruido mediático.

¡Acaba de llegar DeepSeek-V4!

La versión preliminar ya está disponible y se ha lanzado como código abierto simultáneamente.

Hay dos versiones:

DeepSeek-V4-Pro: comparable con los mejores modelos cerrados, 1.6T, 49B de activación, longitud de contexto de 1M;

DeepSeek-V4-Flash: una versión económica más pequeña y rápida, 284B, 13B de activación, longitud de contexto de 1M.

Las palabras oficiales son: En capacidades de agente, conocimiento del mundo y rendimiento de razonamiento, logra un liderazgo tanto a nivel nacional como en el campo del código abierto.

Y además:

Actualmente, DeepSeek-V4 se ha convertido en el modelo de Agentic Coding utilizado por los empleados internos de la empresa. Según las evaluaciones, la experiencia de uso es superior a Sonnet 4.5, y la calidad de entrega se acerca al modo no reflexivo de Opus 4.6. Sin embargo, aún existe una brecha con el modo reflexivo de Opus 4.6.

Actualmente, tanto el sitio web oficial como la aplicación están actualizados, y el servicio API también se ha actualizado simultáneamente.

En cuanto a la capacidad de computación nacional que a todos preocupa, punto clave: en la segunda mitad del año, se admitirá la capacidad de computación de Huawei.

Opción de gama alta y relación calidad-precio, dos versiones lanzadas juntas

Esta vez, V4 lanza dos versiones de una vez.

V4-Pro, rendimiento comparable con los mejores modelos cerrados.

El juicio oficial se basa en tres puntos:

Capacidad de agente mejorada significativamente: en las evaluaciones de Agentic Coding, V4-Pro ha alcanzado el mejor nivel actual entre los modelos de código abierto, y también ha tenido un rendimiento excelente en otras evaluaciones relacionadas con agentes. En las evaluaciones internas, en el modo Agent Coding, la experiencia de V4 es superior a Sonnet 4.5, y la calidad de entrega se acerca al modo no reflexivo de Opus 4.6, pero aún existe una brecha con el modo reflexivo de Opus 4.6.

Amplio conocimiento del mundo: en las evaluaciones de conocimiento del mundo, DeepSeek-V4-Pro supera significativamente a otros modelos de código abierto, solo ligeramente por detrás del modelo cerrado líder Gemini-Pro-3.1.

Rendimiento de razonamiento de clase mundial: en evaluaciones de matemáticas, STEM y código competitivo, DeepSeek-V4-Pro supera a todos los modelos de código abierto cuyas evaluaciones se han hecho públicas, logrando un excelente rendimiento comparable con los mejores modelos cerrados del mundo.

V4-Flash, una versión económica más pequeña y rápida. Su capacidad de razonamiento se acerca a la Pro, aunque su conocimiento del mundo es un poco inferior, pero tiene menos parámetros y activación, y su API es más económica.

En tareas de agente, DeepSeek-V4-Flash está a la par con DeepSeek-V4-Pro en tareas simples, pero aún hay una brecha en tareas de alta dificultad.

En la prueba de lavado de autos, V4 también la pasó rápidamente.

Y en el clásico escenario biológico del "padre desesperado", DeepSeek-V4 no captó de inmediato el punto clave del daltonismo rojo-verde (según las leyes genéticas, si una mujer es daltónica rojo-verde, su padre biológico necesariamente también lo es).

Contexto de un millón de tokens como estándar

Vale la pena mencionar que, a partir de hoy, un contexto de 1M es estándar en todos los servicios oficiales de DeepSeek.

Hace un año, el contexto de 1M era la carta exclusiva de Gemini; todos los demás modelos cerrados tenían 128K o 200K; en el lado del código abierto, casi nadie podía permitirse jugar a ese nivel.

DeepSeek ha convertido directamente el contexto de un millón de tokens de una "función premium" en "servicios básicos".

Y es de código abierto. ¿Cómo lo lograron? La respuesta está directamente en el comunicado de lanzamiento:

V4 introduce un nuevo mecanismo de atención que comprime en la dimensión de token, combinado con la atención dispersa DSA. En comparación con los métodos tradicionales, reduce significativamente la necesidad de computación y memoria.

DSA no es un término nuevo. Se introdujo por primera vez hace medio año en la actualización V3.2-Exp, que en su momento tuvo poca atención externa porque las puntuaciones eran casi iguales a las de V3.1-Terminus, pareciendo una versión intermedia sin mucho contenido.

Ahora, mirando hacia atrás, esa fue la base de V4.

Optimización específica para capacidades de agente

En el lado del agente, V4 se ha adaptado y optimizado para productos principales de agente como Claude Code, OpenClaw, OpenCode, CodeBuddy, mejorando tanto las tareas de código como las de generación de documentos.

El comunicado de lanzamiento incluye un ejemplo de una página interna de PPT generada por V4-Pro en un framework de agente.

Precios de la API

En el lado de la API, V4-Pro y V4-Flash se lanzan simultáneamente, admitiendo dos interfaces: OpenAI ChatCompletions y Anthropic.

El base_url no cambia, solo modifica el parámetro model a deepseek-v4-pro o deepseek-v4-flash para llamarlo.

Ambas versiones tienen un contexto máximo de 1M y admiten tanto el modo no reflexivo como el modo reflexivo. En el modo reflexivo, puedes ajustar la intensidad con el parámetro reasoning_effort, dos niveles: high y max. La recomendación oficial para escenarios complejos de agente es usar max directamente.

Aquí hay un punto clave: en la segunda mitad del año, se admitirá la capacidad de computación de Huawei.

Además, se eliminarán los nombres de modelos antiguos.

deepseek-chat y deepseek-reasoner se desactivarán en tres meses (24 de julio de 2026). En esta etapa, estos nombres apuntan respectivamente a los modos no reflexivo y reflexivo de V4-Flash.

Para desarrolladores individuales, el impacto es mínimo, solo cambiar un parámetro de modelo. Las empresas con entornos de producción necesitan migrar durante estos tres meses.

One more thing

Al final del comunicado de lanzamiento, DeepSeek cita una frase.

"No seducido por la alabanza, no asustado por la calumnia, procede según el camino, enderézate y corrígete."

Esta es una cita de Xunzi en "Contra los Doce Maestros". Literalmente significa: no dejarse seducir por los elogios, no temer a la difamación, avanzar por el camino que uno cree y corregirse a sí mismo.

En el contexto de hoy, es interesante.

En los últimos seis meses, los rumores sobre cuándo se lanzaría V4, si se había retrasado, si ya había sido superado por otros, si los datos de Claude lo habían destilado, etc., han circulado varias veces en los círculos de IA en chino e inglés. A principios de año, incluso había quien afirmaba con seguridad que V4 se lanzaría antes del Año Nuevo Chino, pero finalmente llegó a finales de abril.

No respondieron ni una vez.

Y luego, en una tarde de viernes, lanzaron V4, simultáneamente en código abierto, actualizaron el sitio web y la App, actualizaron la API, y de paso incluyeron en el comunicado el hecho de que sus empleados internos ya habían dejado de usar Claude.

Sin hoja de ruta, sin transmisión en vivo, sin entrevistas.

Estas cuatro palabras, "proceder según el camino", suenan como un eslogan. Pero si miras la ruta de los últimos seis meses: la versión Exp de V3.2 "sin muchos puntos destacados", la atención dispersa DSA que allanó el camino para V4 durante medio año, el contexto de 1M pasando de ser un as bajo la manga a un estándar.

DeepSeek ya lo ha logrado.

Enlaces de código abierto del modelo DeepSeek-V4:

[1]https://huggingface.co/collections/deepseek-ai/deepseek-v4

[2]https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

Informe técnico de DeepSeek-V4: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

Este artículo proviene del WeChat público "Quantum Bit", autor: Quantum Bit

Preguntas relacionadas

Q¿Qué dos versiones de DeepSeek-V4 se han lanzado y cuáles son sus características principales?

ASe han lanzado dos versiones: DeepSeek-V4-Pro y DeepSeek-V4-Flash. La V4-Pro tiene 1.6T de parámetros, 49B de activación y una longitud de contexto de 1M, diseñada para competir con los mejores modelos cerrados. La V4-Flash es una versión más económica con 284B de parámetros, 13B de activación y también 1M de contexto, optimizada para velocidad y coste reducido.

Q¿Qué avance significativo introduce DeepSeek-V4 en cuanto a la longitud de contexto y cómo lo logra?

ADeepSeek-V4 establece 1 millón de tokens de contexto como estándar en todos sus servicios, un avance que antes era exclusivo de modelos como Gemini. Lo logra mediante un nuevo mecanismo de atención que comprime a nivel de token, combinado con atención dispersa (DSA), reduciendo significativamente los requisitos de computación y memoria.

Q¿Cómo se compara DeepSeek-V4-Pro con los modelos líderes de Claude según las evaluaciones internas?

ASegún evaluaciones internas, DeepSeek-V4-Pro en modo Agentic Coding tiene una experiencia de uso mejor que Sonnet 4.5 y una calidad de entrega cercana a Opus 4.6 en modo no pensante (non-thinking), aunque aún existe una brecha con el modo pensante (thinking) de Opus 4.6.

Q¿Qué soporte de hardware alternativo anuncia DeepSeek para el futuro?

ADeepSeek anuncia que, a partir del segundo semestre de este año, su modelo tendrá soporte para hardware de Huawei, lo que significa que podrá ejecutarse en chips de esta compañía china.

Q¿Dónde se han publicado los modelos de DeepSeek-V4 para su acceso y uso abierto?

ALos modelos de DeepSeek-V4 se han publicado en código abierto y están disponibles en las plataformas Hugging Face (https://huggingface.co/collections/deepseek-ai/deepseek-v4) y ModelScope (https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4). El informe técnico también está disponible en Hugging Face.

Lecturas Relacionadas

Bitwise: Optimista sobre el mercado de Bitcoin en la segunda mitad del año, la IA y la regulación impulsarán una nueva temporada de altcoins

Bitwise CIO Matt Hougan y el jefe de investigación Ryan Rasmussen expresan un optimismo significativo sobre Bitcoin y el mercado de criptomonedas en la segunda mitad del año. A pesar de un primer trimestre con caídas generalizadas en precios y métricas, destacan que el flujo de noticias positivas —como el lanzamiento de ETFs de Bitcoin por grandes entidades y un nuevo marco regulatorio para tokens— apunta a una recuperación sólida. Hougan argumenta que Bitcoin ofrece una "apuesta dual": es tanto un almacén de valor (oro digital) como una opción de call fuera de dinero para convertirse en un activo de liquidación internacional. Los recientes eventos geopolíticos, como el conflicto con Irán, que ha mencionado usar Bitcoin para pagos, aumentan la probabilidad de este segundo caso, haciendo que la opción sea más valiosa y potencialmente elevando su precio objetivo muy por encima de 1 millón de dólares a largo plazo. Además, Hougan predice un nuevo "altseason" (temporada de altcoins) para 2026, impulsado por la combinación de Inteligencia Artificial (IA), que permite a los proyectos escalar con menos recursos, y el nuevo marco regulatorio claro para tokens, que permite emisiones legales y合规. Esto podría generar una nueva ola de innovación y proyectos tokenizados viables, muy diferente a la era inicial de las ICO. Finalmente, Bitwise anuncia un ETF de Avalanche (AVAX), destacando su arquitectura única y su rápido crecimiento en el segmento de tokenización de activos del mundo real (RWA), que ha crecido un 1000% interanual.

marsbitHace 45 min(s)

Bitwise: Optimista sobre el mercado de Bitcoin en la segunda mitad del año, la IA y la regulación impulsarán una nueva temporada de altcoins

marsbitHace 45 min(s)

Trading

Spot
Futuros
活动图片