DeepSeek V4: Release-Datum, Specs und die Huawei-Chip-Bombe

DeepSeek V4 kommt im April 2026 mit 1 Billion Parametern auf Huawei-Chips. Alle Specs, Preise ($0,30/MTok), Benchmarks und Zugang.

Aktualisiert am 5. April 2026 — mit Reuters-Bestätigung der Huawei-Chips (4. April), V4-Lite-Benchmark-Ergebnissen und Preis-Analyse.

Jeder andere Artikel über DeepSeek V4 da draußen sagt, das Modell kommt „Mitte Februar" oder „irgendwann im März". Diese Artikel sind veraltet. Wir haben April. Das Modell wurde zweimal verschoben. Und die eigentliche Story ist nicht die Verzögerung — sondern was sich in der Zwischenzeit geändert hat.

Reuters hat am 4. April bestätigt: DeepSeek V4 läuft auf Huaweis Ascend-950PR-Chips. Nicht NVIDIA. Nicht AMD. Huawei. Damit ist es das erste Frontier-KI-Modell, das auf chinesischer Halbleiter-Infrastruktur läuft — und die Auswirkungen gehen weit über einen neuen Chatbot hinaus.


Was ist DeepSeek?

Kurze Vorgeschichte: DeepSeek ist ein chinesisches KI-Labor, das Anfang 2025 die Branche aufgemischt hat, als DeepSeek R1 bei wichtigen Benchmarks mit GPT-4 gleichzog — bei einem Bruchteil der Trainingskosten. Dann kam V3, das zu einem der meistgenutzten offenen Modelle weltweit wurde. V4 ist das nächste Frontier-Modell — und möglicherweise der bedeutendste KI-Release 2026.

Das Entscheidende: DeepSeek-Modelle sind Open Source (in der Regel MIT- oder Apache-2.0-Lizenz). Jeder kann sie kostenlos herunterladen, betreiben und modifizieren. Das ist halt ein krasser Unterschied zu OpenAI und Anthropic, deren Top-Modelle geschlossen und nur per API verfügbar sind.


Specs: Was steckt drin?

SpezifikationDetails
Parameter~1 Billion (MoE-Architektur)
Aktive Parameter pro Token~37 Milliarden
Kontextfenster1 Million Tokens
ModalitätenText + Bild + Video (native multimodale Generierung)
Trainingskosten~5,2 Mio. US-Dollar
LizenzOpen Source erwartet (MIT oder Apache 2.0)
HardwareHuawei Ascend 950PR + Cambricon-Chips

Das Mixture-of-Experts-Design ist der Clou. Obwohl das Modell insgesamt 1 Billion Parameter hat, werden pro Antwort nur ~37 Milliarden aktiviert. In der Praxis läuft es also wie ein 37B-Modell — schnell und relativ schlank — hat aber Zugriff auf das Wissen von 1 Billion Parametern.


Release-Datum: Wann kommt’s denn nun wirklich?

Seien wir mal ehrlich zur Timeline. DeepSeek V4 wurde schon zweimal verschoben:

Geplantes DatumWas passiert ist
Mitte Februar 2026Verschoben — ohne Erklärung
März 2026Nochmal verschoben — V4-Lite tauchte am 9. März auf
Ende April 2026Aktuelle Erwartung laut Reuters + Insider-Leaks

Das stärkste Signal, dass es bald soweit ist: V4-Lite wird seit Anfang April auf API-Knoten live getestet, mit 30 % mehr Inferenz-Geschwindigkeit und dramatisch verbessertem Context Recall (94 % bei 128K Tokens, vorher 45 %). Eine Stealth-Version tauchte auch auf OpenRouter unter dem Codenamen „Hunter Alpha" auf.

Unsere beste Schätzung: letzte zwei Wochen im April 2026. Wir aktualisieren diese Seite, sobald es soweit ist.


Die Huawei-Chip-Story (Warum das größer ist als ein Modell-Launch)

Das ist der Teil, den die meisten KI-Blogs übersehen.

DeepSeek hat NVIDIA bewusst den Vorab-Zugang zu V4 verweigert und dieses Zeitfenster exklusiv chinesischen Chip-Herstellern gegeben. Alibaba, ByteDance und Tencent haben Großbestellungen über Hunderttausende Ascend-950PR-Chips aufgegeben — und die Preise sind in Wochen um 20 % gestiegen.

Warum das wichtig ist:

  1. Erstes Frontier-Modell ohne NVIDIA. Jedes andere führende KI-Modell (GPT-5, Claude, Gemini) läuft auf NVIDIA-GPUs. DeepSeek V4 beweist: Man kann ein konkurrenzfähiges Modell auf chinesischem Silizium trainieren und betreiben.

  2. Stellt die US-Chip-Exportstrategie in Frage. Die Sanktionen gingen davon aus, dass China ohne NVIDIA-Hardware keine Frontier-Modelle bauen kann. V4 auf Huawei-Chips untergräbt diese Annahme.

  3. Kann die KI-Ökonomie verändern. Wenn Huawei-Chips Frontier-Modelle günstiger betreiben können als NVIDIA, gerät die gesamte API-Preisstruktur unter Druck. Für Entwickler in Deutschland bedeutet das: potenziell deutlich günstigere KI-APIs mittelfristig.

Und ja, für den Datenschutz ist das ebenfalls relevant — ein Open-Source-Modell, das man lokal betreiben kann, ist aus DSGVO-Sicht natürlich interessant.


Preise: Was wird’s kosten?

DeepSeek bietet historisch die günstigsten API-Preise der Branche. Geleakte Preise für V4:

ModellInput (pro 1M Tokens)Output (pro 1M Tokens)Monatliche Kosten (moderate Nutzung)
DeepSeek V4~0,28 $~0,50–1,10 $5–20 $ (~5–18 €)
Claude Opus 4.65,00 $25,00 $100–360 $ (~90–325 €)
Claude Sonnet 4.63,00 $15,00 $15–30 $ (~14–27 €)
GPT-5.42,50 $15,00 $15–25 $ (~14–23 €)
Gemini 3.1 Pro2,00 $12,00 $8–20 $ (~7–18 €)

Falls sich diese Zahlen bestätigen, liefert V4 Qualität nahe Claude Opus bei 1/50 des Preises beim Input. Für Produktions-Workloads ist das der Unterschied zwischen 2.000 €/Monat und 40 €/Monat.


Benchmarks: Wie gut ist es wirklich?

Wichtiger Hinweis: Die Benchmarks von DeepSeek V4 sind selbst berichtet und noch nicht unabhängig verifiziert. Mit gesundem Skeptizismus behandeln.

Was Community-Tests mit V4-Lite und interne Benchmarks nahelegen:

BenchmarkDeepSeek V4 (behauptet)Claude Opus 4.6 (verifiziert)GPT-5.4
SWE-bench Verified~81 %80,8 %~80 %
Mathematisches Reasoning115 % von OpusReferenz~100 %
Wissen97 % von OpusReferenz~95 %
Coding~90 % von OpusReferenz (Spitzenreiter)~95 %

Das Muster: V4 scheint Claude bei Mathematik und Wissen zu erreichen oder zu übertreffen, bleibt aber beim Coding etwas zurück. Für Entwickler ist diese Lücke relevant. Für allgemeine KI-Nutzung ist V4 bei 1/50 des Preises selbst mit 90 % Qualität attraktiv.


Zugang: Wie kommt man ran?

  1. Offizielle API — platform.deepseek.com. Dort zuerst verfügbar.
  2. OpenRouter — hostet bereits V3, V4 voraussichtlich sofort verfügbar.
  3. HuggingFace — offene Gewichte unter deepseek-ai/. Großer Download (~400–700 GB).
  4. Ollama — Community-Quantisierungen folgen innerhalb von Tagen: ollama pull deepseek-v4 (sobald verfügbar). Braucht ernsthafte Hardware.

Fazit

DeepSeek V4 könnte der folgenreichste KI-Release 2026 werden — nicht weil es das klügste Modell ist (Claude Opus führt nach wie vor beim Coding), sondern weil es das günstigste Frontier-Modell sein könnte (Faktor 50x), das erste auf Nicht-NVIDIA-Chips, und vollständig Open Source.

Wer gerade KI-Modelle für die Arbeit evaluiert: Trefft keine endgültige Entscheidung, bevor V4 draußen ist. Die Preise könnten den gesamten Markt umkrempeln.

Wir aktualisieren diese Seite, sobald V4 live geht. Lesezeichen setzen.


Quellen:

Echte KI-Skills aufbauen

Schritt-für-Schritt-Kurse mit Quizzes und Zertifikaten für den Lebenslauf