Actualizado el 5 de abril de 2026 — incluye confirmación de Reuters sobre chips Huawei (4 de abril), resultados de V4-Lite y análisis de precios.
Todos los artículos sobre DeepSeek V4 dicen que iba a salir “a mediados de febrero” o “en marzo.” Esos artículos están desactualizados. Estamos en abril. El modelo se retrasó dos veces. Y la historia real no es el retraso — es lo que cambió mientras todo el mundo esperaba.
Reuters confirmó el 4 de abril que DeepSeek V4 correrá en chips Ascend 950PR de Huawei. No NVIDIA. No AMD. Huawei. Eso lo convierte en el primer modelo de IA de frontera construido para correr en infraestructura de semiconductores china — y las implicaciones van mucho más allá de un chatbot nuevo.
¿Qué Es DeepSeek?
Si no seguiste la historia: DeepSeek es un laboratorio chino de IA que sacudió la industria en enero de 2025 cuando DeepSeek R1 igualó a GPT-4 en benchmarks clave a una fracción del costo de entrenamiento. Después vino V3, que se convirtió en uno de los modelos abiertos más usados del mundo. V4 es su próximo modelo de frontera — y posiblemente el lanzamiento de IA más importante de 2026.
Lo clave: los modelos de DeepSeek son open-source (generalmente licencia MIT o Apache 2.0). Cualquiera puede descargarlos, correrlos y modificarlos gratis. Eso es muy diferente de OpenAI y Anthropic, donde los modelos top son cerrados y solo vía API.
Specs del DeepSeek V4
| Especificación | Detalles |
|---|---|
| Parámetros | ~1 billón (arquitectura MoE) |
| Parámetros activos por token | ~37 mil millones |
| Ventana de contexto | 1 millón de tokens |
| Modalidad | Texto + imagen + video (generación multimodal nativa) |
| Costo de entrenamiento | ~US$ 5.2 millones |
| Licencia | Open-source esperado (MIT o Apache 2.0) |
| Hardware | Chips Huawei Ascend 950PR + Cambricon |
El diseño Mixture of Experts es el secreto. Aunque tiene 1 billón de parámetros en total, solo ~37 mil millones se activan por respuesta. En la práctica, corre como un modelo de 37B — rápido y relativamente ligero — pero tiene acceso al conocimiento de 1 billón de parámetros.
Fecha de Lanzamiento: ¿Cuándo Sale?
Seamos honestos sobre la timeline. DeepSeek V4 ya se retrasó dos veces:
| Fecha Esperada | Qué Pasó |
|---|---|
| Mediados de febrero 2026 | Retrasado — sin explicación |
| Marzo 2026 | Retrasado otra vez — V4-Lite apareció el 9 de marzo |
| Finales de abril 2026 | Expectativa actual según Reuters + filtraciones de insiders |
La señal más fuerte de que es inminente: V4-Lite se ha estado testeando en nodos de API desde principios de abril, con desarrolladores reportando un 30% de aumento en velocidad de inferencia y recall de contexto mejorado dramáticamente (94% en 128K tokens, contra 45% antes).
Nuestra mejor estimación: últimas dos semanas de abril 2026. Actualizaremos esta página en cuanto salga.
La Historia de los Chips Huawei (Por Qué Esto Es Más Grande Que un Modelo Nuevo)
Esta es la parte que la mayoría de los blogs de IA no ven.
DeepSeek deliberadamente le negó a NVIDIA acceso anticipado al V4, dándole esa ventana exclusivamente a fabricantes chinos de chips. Alibaba, ByteDance y Tencent hicieron pedidos masivos de cientos de miles de chips Ascend 950PR de Huawei — y los precios subieron 20% en semanas.
Esto importa porque:
Es el primer modelo de frontera que no necesita NVIDIA. Cada modelo líder (GPT-5, Claude, Gemini) corre en GPUs NVIDIA. DeepSeek V4 prueba que se puede entrenar y correr un modelo competitivo en silicio chino.
Desafía la estrategia de exportación de chips de EE.UU. Las sanciones asumían que China no podía construir modelos de frontera sin hardware NVIDIA. V4 en chips Huawei tumba esa premisa.
Puede cambiar la economía de la IA. Si chips Huawei pueden correr modelos de frontera a menor costo que NVIDIA, toda la estructura de precios de APIs podría bajar.
Para desarrolladores en Latinoamérica, esto puede significar APIs mucho más baratas a mediano plazo. Competencia en hardware = competencia en precio = bueno para todos los que pagan por token.
Precio: ¿Cuánto Va a Costar?
DeepSeek históricamente ofrece los precios de API más baratos del mercado. Filtraciones de precio del V4:
| Modelo | Input (por 1M tokens) | Output (por 1M tokens) | Costo Mensual (uso moderado) |
|---|---|---|---|
| DeepSeek V4 | ~US$ 0.28 | ~US$ 0.50-1.10 | US$ 5-20 |
| Claude Opus 4.6 | US$ 5.00 | US$ 25.00 | US$ 100-360 |
| Claude Sonnet 4.6 | US$ 3.00 | US$ 15.00 | US$ 15-30 |
| GPT-5.4 | US$ 2.50 | US$ 15.00 | US$ 15-25 |
| Gemini 3.1 Pro | US$ 2.00 | US$ 12.00 | US$ 8-20 |
Si estos números se confirman, V4 entrega calidad cerca del Claude Opus por 1/50 del precio en input. Para workloads de producción, es la diferencia entre US$ 2,000/mes y US$ 40/mes.
Benchmarks: ¿Qué Tan Bueno Es?
Importante: los benchmarks del DeepSeek V4 son auto-reportados y todavía no están verificados independientemente. Tómalos con escepticismo sano.
Lo que sugieren los tests de la comunidad con V4-Lite:
| Benchmark | DeepSeek V4 (declarado) | Claude Opus 4.6 (verificado) | GPT-5.4 |
|---|---|---|---|
| SWE-bench Verified | ~81% | 80.8% | ~80% |
| Razonamiento matemático | 115% del Opus | Referencia | ~100% |
| Conocimiento | 97% del Opus | Referencia | ~95% |
| Coding | ~90% del Opus | Referencia (líder) | ~95% |
El patrón: V4 parece igualar o superar a Claude en matemáticas y conocimiento, quedándose un poco atrás en coding. Para devs, esa diferencia en coding importa. Para uso general, V4 a 1/50 del precio es atractivo incluso al 90% de calidad.
Cómo Acceder al DeepSeek V4 Cuando Lance
- API oficial — platform.deepseek.com. Generalmente el primero en tenerlo.
- OpenRouter — ya hostea V3, espera disponibilidad inmediata.
- HuggingFace — pesos abiertos en deepseek-ai/. Download grande (~400-700GB).
- Ollama — cuantizaciones de la comunidad aparecen días después:
ollama pull deepseek-v4(cuando esté disponible). Necesitas hardware serio.
El Resumen
DeepSeek V4 puede ser el lanzamiento de IA más importante de 2026 — no porque sea el más inteligente (Claude Opus sigue liderando en coding), sino porque puede ser el modelo de frontera más barato por un factor de 50x, el primero corriendo en chips no-NVIDIA, y totalmente open-source.
Si estás evaluando modelos de IA para tu trabajo, no tomes una decisión final hasta que V4 salga. El precio puede reconfigurar el mercado entero.
Actualizaremos esta página cuando lance. Guárdala en favoritos.
Fuentes:
- DeepSeek V4 correrá en chips Huawei — Reuters
- DeepSeek V4: Specs y Benchmarks — NxCode
- DeepSeek V4: Fecha y qué esperar — AtlasCloud
- Creador de OpenClaw lamenta decisión de Anthropic — Facialix
- Anthropic bloquea OpenClaw — HardwarePremium
- DeepSeek V4 Review — CyberNews
- DeepSeek V4 en chips Huawei — Influencer Magazine