DeepSeek a lancé son modèle V4, un système à poids ouverts qui rivalise avec Claude Opus 4.6 et GPT-5.4. Avec deux versions, Pro et Flash, il promet des performances compétitives à un coût jusqu'à sept fois inférieur. Ses benchmarks internes montrent des résultats solides, bien qu'une vérification indépendante fasse défaut.
Architecture MoE et contexte d'un million de tokens 🧠
DeepSeek V4 utilise une architecture Mixture-of-Experts pour réduire les coûts de calcul. La version Pro dispose de 1,6 billion de paramètres (49 milliards actifs), tandis que Flash en a 248 milliards (13 milliards actifs). Il prend en charge une fenêtre de contexte d'un million de tokens, bien supérieure aux 128 000 de son prédécesseur. Sur LiveCodeBench, V4 Pro-Max atteint 93,5%, égalant Claude Opus 4.6 Max et Gemini 3.1 Pro.
Le prix qui fait pleurer les comptes d'OpenAI 💸
DeepSeek V4 Pro coûte 1,74 dollar par million de tokens en entrée et 3,48 en sortie. C'est jusqu'à sept fois moins cher qu'Opus 4.7 et presque neuf fois moins que GPT-5.5. Flash est encore moins cher. Si les performances réelles confirment ce qui est promis, les équipes de facturation de la concurrence devront commencer à réduire leurs dépenses en café de spécialité.