Atualizado em 5 de abril de 2026 — inclui confirmação da Reuters sobre chips Huawei (4 de abril), resultados do V4-Lite e análise de preços da comunidade.
Todo artigo sobre o DeepSeek V4 por aí diz que ele ia lançar “em meados de fevereiro” ou “em março”. Esses artigos tão desatualizados. Estamos em abril. O modelo atrasou duas vezes. E a verdadeira história não é o atraso — é o que mudou enquanto todo mundo esperava.
A Reuters confirmou no dia 4 de abril que o DeepSeek V4 vai rodar em chips Ascend 950PR da Huawei. Não NVIDIA. Não AMD. Huawei. Isso faz dele o primeiro modelo de IA de fronteira construído pra rodar em infraestrutura de semicondutores chinesa — e as implicações vão muito além de mais um chatbot novo.
O Que É o DeepSeek?
Se você não acompanhou a saga: DeepSeek é um laboratório chinês de IA que chocou a indústria em janeiro de 2025 quando o DeepSeek R1 igualou o GPT-4 em benchmarks importantes gastando uma fração do custo de treinamento. Depois veio o V3, que virou um dos modelos abertos mais usados do mundo. O V4 é o próximo modelo de fronteira — e possivelmente o lançamento de IA mais significativo de 2026.
O ponto chave: os modelos do DeepSeek são open-source (geralmente licença MIT ou Apache 2.0). Qualquer um pode baixar, rodar e modificar de graça. Isso é bem diferente da OpenAI e Anthropic, onde os modelos top são fechados e só via API.
Especificações do DeepSeek V4
| Especificação | Detalhes |
|---|---|
| Parâmetros | ~1 trilhão (arquitetura MoE) |
| Parâmetros ativos por token | ~37 bilhões |
| Janela de contexto | 1 milhão de tokens |
| Modalidade | Texto + imagem + vídeo (geração multimodal nativa) |
| Custo de treinamento | ~US$ 5,2 milhões |
| Licença | Open-source esperado (MIT ou Apache 2.0) |
| Hardware | Chips Huawei Ascend 950PR + Cambricon |
| Variantes | V4 (completo), V4-Lite (mais leve, já em testes) |
O design Mixture of Experts é o segredo. Apesar de ter 1 trilhão de parâmetros no total, só ~37 bilhões são ativados por resposta. Na prática, ele roda como um modelo de 37B — rápido e relativamente leve — mas tem acesso ao conhecimento de 1T de parâmetros. É o mesmo truque que o Google usou com o Gemma 4 26B MoE, só que numa escala 40 vezes maior.
Data de Lançamento: Quando Sai de Verdade?
Vamos ser honestos sobre a timeline. O DeepSeek V4 já atrasou duas vezes:
| Data Esperada | O Que Aconteceu |
|---|---|
| Meados de fevereiro 2026 | Adiado — sem explicação |
| Março 2026 | Adiado de novo — V4-Lite apareceu dia 9 de março |
| Final de abril 2026 | Expectativa atual baseada na Reuters + leaks de insiders |
O sinal mais forte de que é iminente: o V4-Lite vem sendo testado em nós de API desde o início de abril, com desenvolvedores reportando 30% de aumento na velocidade de inferência e recall de contexto drasticamente melhorado (94% em 128K tokens, contra 45% antes). Uma versão stealth também apareceu no OpenRouter sob o codinome “Hunter Alpha” antes de ser identificada.
Nossa melhor estimativa: últimas duas semanas de abril 2026. Vamos atualizar essa página assim que sair.
A História dos Chips Huawei
Essa é a parte que a maioria dos blogs de IA tá perdendo.
O DeepSeek deliberadamente negou acesso antecipado ao V4 pra NVIDIA, dando essa janela exclusivamente pra fabricantes chineses de chips. Alibaba, ByteDance e Tencent fizeram pedidos em massa de centenas de milhares de chips Ascend 950PR da Huawei — e os preços subiram 20% em semanas.
Isso importa por três razões:
É o primeiro modelo de fronteira que não precisa de NVIDIA. Todo modelo líder (GPT-5, Claude, Gemini) roda em GPUs NVIDIA. O DeepSeek V4 prova que dá pra treinar e rodar um modelo competitivo em silício chinês.
Desafia a estratégia americana de exportação de chips. As sanções dos EUA na exportação de chips avançados pra China assumiam que empresas chinesas não conseguiriam construir modelos de fronteira sem hardware NVIDIA. V4 em chips Huawei derruba essa premissa.
Pode mudar a economia da IA. Se chips Huawei conseguem rodar modelos de fronteira a custo mais baixo que NVIDIA, toda a estrutura de preços de APIs de IA pode sofrer pressão pra baixo.
Pra quem trabalha com IA no Brasil, isso pode significar APIs muito mais baratas no médio prazo. Concorrência em hardware = concorrência em preço = bom pra todo mundo que paga por token.
Preço: Quanto Vai Custar?
O DeepSeek historicamente oferece o preço de API mais barato do mercado. Leaks de preço do V4:
| Modelo | Input (por 1M tokens) | Output (por 1M tokens) | Custo Mensal (uso moderado) |
|---|---|---|---|
| DeepSeek V4 | ~US$ 0,28 | ~US$ 0,50-1,10 | US$ 5-20 (~R$ 25-100) |
| Claude Opus 4.6 | US$ 5,00 | US$ 25,00 | US$ 100-360 (~R$ 500-1.800) |
| Claude Sonnet 4.6 | US$ 3,00 | US$ 15,00 | US$ 15-30 (~R$ 75-150) |
| GPT-5.4 | US$ 2,50 | US$ 15,00 | US$ 15-25 (~R$ 75-125) |
| Gemini 3.1 Pro | US$ 2,00 | US$ 12,00 | US$ 8-20 (~R$ 40-100) |
Se esses números se confirmarem, o V4 entrega qualidade perto do Claude Opus por 1/50 do preço no input e 1/25 no output. Pra workloads de produção, é a diferença entre R$ 10.000/mês e R$ 200/mês.
Pra desenvolvedores brasileiros que pagam em real, a conta fecha ainda melhor. Com o dólar na faixa de R$ 5, um modelo de fronteira por US$ 5-20/mês é acessível até pra freelancer.
Benchmarks: Quão Bom É?
Aviso importante: os benchmarks do DeepSeek V4 são auto-reportados e ainda não foram verificados independentemente. Trate com ceticismo saudável até avaliações de terceiros confirmarem.
Dito isso, testes da comunidade com o V4-Lite e benchmarks internos sugerem:
| Benchmark | DeepSeek V4 (alegado) | Claude Opus 4.6 (verificado) | GPT-5.4 |
|---|---|---|---|
| SWE-bench Verified | ~81% | 80.8% | ~80% |
| Raciocínio matemático | 115% do Opus | Referência | ~100% |
| Conhecimento | 97% do Opus | Referência | ~95% |
| Coding | ~90% do Opus | Referência (líder) | ~95% |
O padrão: V4 parece igualar ou superar o Claude em matemática e conhecimento, ficando um pouco atrás em coding. Pra devs, essa diferença em coding importa. Pra uso geral de IA, V4 por 1/50 do preço é atraente mesmo com 90% da qualidade.
Como Acessar o DeepSeek V4 Quando Lançar
Baseado no padrão do DeepSeek com o V3:
- API oficial — platform.deepseek.com. Geralmente o primeiro lugar a disponibilizar.
- OpenRouter — já hospeda V3 e provavelmente fez testes stealth do V4 como “Hunter Alpha”.
- HuggingFace — pesos abertos em deepseek-ai/. Download grande (~400-700GB pro modelo completo).
- Ollama — quantizações da comunidade aparecem dias depois.
ollama pull deepseek-v4(quando disponível). Vai precisar de hardware sério — 1T de parâmetros. Versões quantizadas pra GPUs consumer vêm depois.
O Resumo
O DeepSeek V4 pode ser o lançamento de IA mais consequente de 2026 — não porque é o mais inteligente (Claude Opus ainda lidera em coding), mas porque pode ser o modelo de fronteira mais barato por um fator de 50x, o primeiro rodando em chips não-NVIDIA, e totalmente open-source.
Se você tá avaliando modelos de IA pro seu trabalho, não tome uma decisão final até o V4 sair. O preço pode reconfigurar o mercado inteiro.
Vamos atualizar essa página assim que o V4 for lançado. Salva nos favoritos.
Fontes:
- DeepSeek V4 vai rodar em chips Huawei — Reuters
- DeepSeek V4: Specs e Benchmarks — NxCode
- DeepSeek V4 e Tencent Hunyuan em abril — Dataconomy
- DeepSeek V4 Release Date — Evolink
- DeepSeek V4 vs Claude vs GPT-5 — NxCode
- DeepSeek V4 Review — CyberNews
- Anthropic corta OpenClaw — VaiParaty
- DeepSeek V4 em chips Huawei — Huawei Central