DeepSeek V4: Data de Lançamento, Specs e a Bomba dos Chips Huawei

DeepSeek V4 chega em abril 2026 com 1 trilhão de parâmetros em chips Huawei. Specs, preço ($0.30/MTok), benchmarks e como acessar.

Atualizado em 5 de abril de 2026 — inclui confirmação da Reuters sobre chips Huawei (4 de abril), resultados do V4-Lite e análise de preços da comunidade.

Todo artigo sobre o DeepSeek V4 por aí diz que ele ia lançar “em meados de fevereiro” ou “em março”. Esses artigos tão desatualizados. Estamos em abril. O modelo atrasou duas vezes. E a verdadeira história não é o atraso — é o que mudou enquanto todo mundo esperava.

A Reuters confirmou no dia 4 de abril que o DeepSeek V4 vai rodar em chips Ascend 950PR da Huawei. Não NVIDIA. Não AMD. Huawei. Isso faz dele o primeiro modelo de IA de fronteira construído pra rodar em infraestrutura de semicondutores chinesa — e as implicações vão muito além de mais um chatbot novo.


O Que É o DeepSeek?

Se você não acompanhou a saga: DeepSeek é um laboratório chinês de IA que chocou a indústria em janeiro de 2025 quando o DeepSeek R1 igualou o GPT-4 em benchmarks importantes gastando uma fração do custo de treinamento. Depois veio o V3, que virou um dos modelos abertos mais usados do mundo. O V4 é o próximo modelo de fronteira — e possivelmente o lançamento de IA mais significativo de 2026.

O ponto chave: os modelos do DeepSeek são open-source (geralmente licença MIT ou Apache 2.0). Qualquer um pode baixar, rodar e modificar de graça. Isso é bem diferente da OpenAI e Anthropic, onde os modelos top são fechados e só via API.


Especificações do DeepSeek V4

EspecificaçãoDetalhes
Parâmetros~1 trilhão (arquitetura MoE)
Parâmetros ativos por token~37 bilhões
Janela de contexto1 milhão de tokens
ModalidadeTexto + imagem + vídeo (geração multimodal nativa)
Custo de treinamento~US$ 5,2 milhões
LicençaOpen-source esperado (MIT ou Apache 2.0)
HardwareChips Huawei Ascend 950PR + Cambricon
VariantesV4 (completo), V4-Lite (mais leve, já em testes)

O design Mixture of Experts é o segredo. Apesar de ter 1 trilhão de parâmetros no total, só ~37 bilhões são ativados por resposta. Na prática, ele roda como um modelo de 37B — rápido e relativamente leve — mas tem acesso ao conhecimento de 1T de parâmetros. É o mesmo truque que o Google usou com o Gemma 4 26B MoE, só que numa escala 40 vezes maior.


Data de Lançamento: Quando Sai de Verdade?

Vamos ser honestos sobre a timeline. O DeepSeek V4 já atrasou duas vezes:

Data EsperadaO Que Aconteceu
Meados de fevereiro 2026Adiado — sem explicação
Março 2026Adiado de novo — V4-Lite apareceu dia 9 de março
Final de abril 2026Expectativa atual baseada na Reuters + leaks de insiders

O sinal mais forte de que é iminente: o V4-Lite vem sendo testado em nós de API desde o início de abril, com desenvolvedores reportando 30% de aumento na velocidade de inferência e recall de contexto drasticamente melhorado (94% em 128K tokens, contra 45% antes). Uma versão stealth também apareceu no OpenRouter sob o codinome “Hunter Alpha” antes de ser identificada.

Nossa melhor estimativa: últimas duas semanas de abril 2026. Vamos atualizar essa página assim que sair.


A História dos Chips Huawei

Essa é a parte que a maioria dos blogs de IA tá perdendo.

O DeepSeek deliberadamente negou acesso antecipado ao V4 pra NVIDIA, dando essa janela exclusivamente pra fabricantes chineses de chips. Alibaba, ByteDance e Tencent fizeram pedidos em massa de centenas de milhares de chips Ascend 950PR da Huawei — e os preços subiram 20% em semanas.

Isso importa por três razões:

  1. É o primeiro modelo de fronteira que não precisa de NVIDIA. Todo modelo líder (GPT-5, Claude, Gemini) roda em GPUs NVIDIA. O DeepSeek V4 prova que dá pra treinar e rodar um modelo competitivo em silício chinês.

  2. Desafia a estratégia americana de exportação de chips. As sanções dos EUA na exportação de chips avançados pra China assumiam que empresas chinesas não conseguiriam construir modelos de fronteira sem hardware NVIDIA. V4 em chips Huawei derruba essa premissa.

  3. Pode mudar a economia da IA. Se chips Huawei conseguem rodar modelos de fronteira a custo mais baixo que NVIDIA, toda a estrutura de preços de APIs de IA pode sofrer pressão pra baixo.

Pra quem trabalha com IA no Brasil, isso pode significar APIs muito mais baratas no médio prazo. Concorrência em hardware = concorrência em preço = bom pra todo mundo que paga por token.


Preço: Quanto Vai Custar?

O DeepSeek historicamente oferece o preço de API mais barato do mercado. Leaks de preço do V4:

ModeloInput (por 1M tokens)Output (por 1M tokens)Custo Mensal (uso moderado)
DeepSeek V4~US$ 0,28~US$ 0,50-1,10US$ 5-20 (~R$ 25-100)
Claude Opus 4.6US$ 5,00US$ 25,00US$ 100-360 (~R$ 500-1.800)
Claude Sonnet 4.6US$ 3,00US$ 15,00US$ 15-30 (~R$ 75-150)
GPT-5.4US$ 2,50US$ 15,00US$ 15-25 (~R$ 75-125)
Gemini 3.1 ProUS$ 2,00US$ 12,00US$ 8-20 (~R$ 40-100)

Se esses números se confirmarem, o V4 entrega qualidade perto do Claude Opus por 1/50 do preço no input e 1/25 no output. Pra workloads de produção, é a diferença entre R$ 10.000/mês e R$ 200/mês.

Pra desenvolvedores brasileiros que pagam em real, a conta fecha ainda melhor. Com o dólar na faixa de R$ 5, um modelo de fronteira por US$ 5-20/mês é acessível até pra freelancer.


Benchmarks: Quão Bom É?

Aviso importante: os benchmarks do DeepSeek V4 são auto-reportados e ainda não foram verificados independentemente. Trate com ceticismo saudável até avaliações de terceiros confirmarem.

Dito isso, testes da comunidade com o V4-Lite e benchmarks internos sugerem:

BenchmarkDeepSeek V4 (alegado)Claude Opus 4.6 (verificado)GPT-5.4
SWE-bench Verified~81%80.8%~80%
Raciocínio matemático115% do OpusReferência~100%
Conhecimento97% do OpusReferência~95%
Coding~90% do OpusReferência (líder)~95%

O padrão: V4 parece igualar ou superar o Claude em matemática e conhecimento, ficando um pouco atrás em coding. Pra devs, essa diferença em coding importa. Pra uso geral de IA, V4 por 1/50 do preço é atraente mesmo com 90% da qualidade.


Como Acessar o DeepSeek V4 Quando Lançar

Baseado no padrão do DeepSeek com o V3:

  1. API oficial — platform.deepseek.com. Geralmente o primeiro lugar a disponibilizar.
  2. OpenRouter — já hospeda V3 e provavelmente fez testes stealth do V4 como “Hunter Alpha”.
  3. HuggingFace — pesos abertos em deepseek-ai/. Download grande (~400-700GB pro modelo completo).
  4. Ollama — quantizações da comunidade aparecem dias depois. ollama pull deepseek-v4 (quando disponível). Vai precisar de hardware sério — 1T de parâmetros. Versões quantizadas pra GPUs consumer vêm depois.

O Resumo

O DeepSeek V4 pode ser o lançamento de IA mais consequente de 2026 — não porque é o mais inteligente (Claude Opus ainda lidera em coding), mas porque pode ser o modelo de fronteira mais barato por um fator de 50x, o primeiro rodando em chips não-NVIDIA, e totalmente open-source.

Se você tá avaliando modelos de IA pro seu trabalho, não tome uma decisão final até o V4 sair. O preço pode reconfigurar o mercado inteiro.

Vamos atualizar essa página assim que o V4 for lançado. Salva nos favoritos.


Fontes:

Build Real AI Skills

Step-by-step courses with quizzes and certificates for your resume