DeepSeek hat sein Modell V4 veröffentlicht, ein System mit offenen Gewichten, das sich mit Claude Opus 4.6 und GPT-5.4 misst. Mit zwei Versionen, Pro und Flash, verspricht es konkurrierende Leistung zu einem bis zu siebenmal geringeren Preis. Die internen Benchmarks zeigen solide Ergebnisse, obwohl eine unabhängige Überprüfung noch aussteht.
MoE-Architektur und Kontext von einer Million Tokens 🧠
DeepSeek V4 verwendet eine Mixture-of-Experts-Architektur, um Rechenkosten zu senken. Die Pro-Version verfügt über 1,6 Billionen Parameter (49 Milliarden aktiv), während Flash 248 Milliarden (13.000 aktiv) hat. Es unterstützt ein Kontextfenster von einer Million Tokens, weit mehr als die 128.000 seines Vorgängers. In LiveCodeBench erreicht V4 Pro-Max 93,5% und liegt damit gleichauf mit Claude Opus 4.6 Max und Gemini 3.1 Pro.
Der Preis, der die Konten von OpenAI zum Weinen bringt 💸
DeepSeek V4 Pro kostet 1,74 Dollar pro Million Eingabe-Tokens und 3,48 Dollar pro Ausgabe-Token. Das ist bis zu siebenmal weniger als Opus 4.7 und fast neunmal weniger als GPT-5.5. Flash ist noch günstiger. Wenn die tatsächliche Leistung das Versprochene bestätigt, müssen die Abrechnungsteams der Konkurrenz anfangen, bei Spezialitätenkaffee zu sparen.