Por | Fábrica de Modelos del Mundo
Ahora, en la internet china solo queda un signo de interrogación: ¿Se lanzará o no DeepSeek V4?
Durante el último año, la competencia global de modelos ha entrado en una fase de lucha cuerpo a cuerpo.
Gigantes como OpenAI, Anthropic y Google básicamente mantienen una gran iteración cada 2-3 meses o incluso 1 mes, lanzando nuevas versiones rápidamente al mercado para su validación, iteración y nueva validación.
Mientras que DeepSeek, en los últimos 15 meses, ha ralentizado las actualizaciones de versión principal, V4 se ha retrasado varias veces, y su ritmo se ha quedado claramente atrás, pasando de ser un líder de la industria a ser el que va con retraso.
La ansiedad de la espera se ha convertido en un remolino de sospechas.
A principios de abril, algunos medios de repente filtraron rumores: V4 podría lanzarse en las próximas semanas, pero no hay que tener expectativas demasiado altas sobre DeepSeek V4.
¿Por qué hay que poner paños fríos de antemano ante un lanzamiento tan esperado?
¿Qué ha pasado realmente con DeepSeek este año?
La pesada carga de la localización
La verdad podría estar escondida en una noticia que la mayoría pasó por alto.
En enero de 2025, un reportaje de Reuters reveló un detalle: después del lanzamiento de Deepseek R1, las autoridades relevantes alentaron a DeepSeek a utilizar los procesadores Ascend de Huawei, en lugar de seguir usando Nvidia.
Las palabras "alentar", en el contexto de entonces, tenían un peso que iba mucho más allá de su significado literal.
DeepSeek no es una startup ordinaria, es el primer caso exitoso de la IA china para romper el bloqueo tecnológico de Estados Unidos.
Este significado simbólico hizo que DeepSeek pasara rápidamente de ser una empresa tecnológica a una pieza clave en el tablero de ajedrez estratégico de la autonomía y el control nacional.
Acto seguido, en febrero, Liang Wenfeng asistió a esa muy esperada reunión de empresarios privados.
Fue sentado en la primera fila, hombro con hombro con grandes figuras tecnológicas como Ma Huateng, Ren Zhengfei y Lei Jun, convirtiéndose en representante del equipo nacional de las nuevas fuerzas productivas.
Los engranajes de la orientación política comenzaron a girar a partir de entonces.
Según reportes de medios extranjeros, DeepSeek efectivamente intentó a principios de 2025 entrenar su próximo modelo con los chips Huawei Ascend 910C.
Pero el proceso encontró múltiples obstáculos técnicos: estabilidad insuficiente en el entrenamiento, colapsos frecuentes en escenarios distribuidos a gran escala, velocidad de comunicación entre chips por debajo de lo esperado.
Huawei envió un equipo de ingenieros a la oficina de DeepSeek para brindar soporte in situ, pero finalmente no lograron resolver los problemas de adaptación en la fase de entrenamiento.
El resultado fue un compromiso: DeepSeek volvió a utilizar GPUs de Nvidia en la fase de entrenamiento, utilizando los chips Ascend solo para la fase de inferencia.
Esto significa que, al menos en el eslabón central del entrenamiento, DeepSeek pasó casi un año probando y equivocándose.
Pero el trabajo de adaptación no se detuvo. En 2026, surgieron nuevos movimientos en la versión V4.
Según filtraciones, DeepSeek no le dio permisos de prueba anticipados a Nvidia, sino que priorizó entregar la versión pre-lanzamiento a los nuevos chips Ascend 950PR de Huawei para su adaptación.
Al mismo tiempo, para dispersar el riesgo, también sincronizó la adaptación con chips de Cambricon.
Pero los desafíos técnicos siguen siendo significativos.
Según informes de medios, el objetivo esta vez es completar la migración a nivel de código subyacente, migrando completamente del ecosistema CUDA de Nvidia al framework CANN de Huawei, logrando un reemplazo localizado en toda la cadena de entrenamiento e inferencia.
Según personas cercanas al proyecto, el núcleo de la dificultad del trabajo de adaptación radica en la alineación de la precisión, asegurando que el modelo produzca salidas consistentes en diferentes ecosistemas de hardware, lo que implica ajustes masivos de código de bajo nivel.
De ahí el costo de tiempo.
Mientras los principales fabricantes globales mantenían un ritmo de iteración de modelos de 2-3 meses, DeepSeek se volvía cada vez más lento, pudiendo haber destinado una proporción considerable de sus recursos técnicos a la adaptación de chips locales durante ese período.
Después de todo, los chips locales y los de Nvidia确实存在差距 (existe una brecha real) en rendimiento generacional, madurez del ecosistema y completitud de la cadena de herramientas, y el proceso de adaptación del modelo consume mucho tiempo.
Esto marca una clara divergencia con el camino que DeepSeek seguía inicialmente, que era puramente la búsqueda de la mejora del rendimiento del modelo.
La联动 (interconexión / coordinación) a nivel de la cadena industrial también estaba ocurriendo simultáneamente.
A principios de 2026, el mercado filtró que Alibaba, ByteDance y Tencent ya habían hecho pedidos de cientos de miles de chips Ascend 950PR a Huawei.
Una suposición razonable es: los principales proveedores de la nube están esperando los resultados de la validación de DeepSeek V4 para evaluar la usabilidad real de los chips locales en el entrenamiento de IA a gran escala.
Si V4 tiene éxito, el Huawei 950PR pasará de ser una muestra técnica a un producto comercializable. Si no cumple con las expectativas, equivaldrá a haber explorado los límites de capacidad actuales de los chips locales para la industria.
Considerando los estándares extremadamente altos que Liang Wenfeng siempre ha tenido para los lanzamientos de modelos, que no lanza si no cumplen las expectativas, el hecho de que V4 esté finalmente a punto de debutar很可能 (es muy probable que) ya haya pasado las pruebas de efectividad en el lado de la inferencia.
Si la verificación tiene éxito, este será un paso clave para que DeepSeek, e incluso para toda la IA china, gire hacia la autonomía y el control.
El precio de la transformación de identidad
Al asumir activamente la pesada responsabilidad de validar el ecosistema de computación local, DeepSeek se parece más a una empresa con misión nacional que a un jugador puramente marketizado que busca beneficios.
Pero el precio de la transformación es evidente: ralentización del ritmo a corto plazo, aumento de la presión sobre el talento, pausa en la competitividad.
Según datos de múltiples evaluaciones independientes y de la comunidad entre marzo y abril de 2026, la capacidad de generación de código de DeepSeek en pruebas de referencia de terceros已被 (ya fue) significativamente superada por la serie Claude 4 (Opus 4.6 / Sonnet 4.6).
La capacidad de procesamiento multimodal de DeepSeek también se limita principalmente a texto + imagen, muy por detrás del rendimiento de Claude y GPT en análisis de imágenes, uso informático y comprensión de video.
Al entrar en 2026, DeepSeek orientó el enfoque de su producto hacia la ingeniería de sistemas Agent, más desafiante.
Según la retroalimentación actual de la comunidad, DeepSeek在 (en) el campo de los Agent de código y los Agent de búsqueda en chino ya se acerca a la primera división, pero en协同多工具 (coordinación de múltiples herramientas),执行长链路任务 (ejecución de tareas de cadena larga) y鲁棒性环境真实 (robustez en entornos reales)), aún existe una brecha de ingeniería de sistemas evidente con los modelos internacionales de primer nivel como OpenAI y Google.
Esta brecha no necesariamente es una衰退 (recesión / declive) de la capacidad técnica, sino更像 (más bien) el resultado de una ponderación entre la competencia en el mercado y la estrategia nacional.
El precio a nivel organizacional también es evidente.
A partir del segundo semestre de 2025, comenzaron a surgir desvinculaciones en el equipo central de DeepSeek.
Según confirmó晚点LatePost (LatePost), Wang Bingxuan (autor central de la primera generación de grandes modelos), Guo Daya (autor central de R1), Wei Haoran (responsable de OCR) y Ruan Chong (responsable multimodal) dejaron la empresa相继 (sucesivamente).
Detrás de estos nombres está la acumulación tecnológica de DeepSeek desde V1 hasta R1.
Las razones de la fuga son complejas, pero la desventaja relativa del sistema salarial es un factor evidente.
Los cazatalentos透露 (revelan) que las condiciones que ofrecen los competidores son "de dos a tres veces" las de DeepSeek, y algunos grandes fabricantes ofrecen directamente paquetes totales de ocho cifras.
DeepSeek, como startup sin financiación externa (la empresa matriz es幻方量化 (幻方量化 / Huangfang Quant)), aunque sus salarios no son bajos en valor absoluto, no pueden igualar los incentivos accionarios y la prima de valoración de los gigantes marketizados como ByteDance, Alibaba y Tencent.
Liang Wenfeng ya comenzó a impulsar el trabajo de valoración de la empresa, definiendo el precio de las stock options, para dar al equipo más sensación de certeza.
Pero en el contexto de que同行 (pares del sector) como智谱 (Zhipu)、MiniMax等 (MiniMax, etc.) cotizan en bolsa y sus acciones suben, la presión para retener talento de primer nivel sigue siendo considerable.
Hoy, DeepSeek está陷入 (cayendo en) una especie de ambigüedad de identidad.
Todavía necesita comercializarse, todavía necesita retener talento, pero al mismo tiempo se le ha赋予 (conferido) la expectativa de la localización.
El conflicto que trae esta doble identidad quizás sea la lógica profunda de por qué DeepSeek se ha vuelto cada vez más lento este año.
Por lo tanto, las expectativas del mercado sobre el rendimiento de V4 también se están ajustando a la baja.
Puede que no se convierta en otro modelo revolucionario que inunde las redes, pero podría ser un hito en términos industriales, demostrando que los modelos de vanguardia chinos pueden alcanzar un nivel utilizable en el ecosistema de hardware local.
El examen de V4 podría ser más importante para la tendencia a largo plazo de la industria de la IA china.







