DeepSeek V4 lance un modèle à 1 000 milliards de paramètres pour défier la domination occidentale en IA

DeepSeek a officiellement lancé V4, un modèle multimodal de 1 000 milliards de paramètres qui constitue sa sortie la plus ambitieuse depuis le modèle de raisonnement R1 qui avait secoué les marchés mondiaux en janvier 2025. Le lancement est stratégiquement programmé avant les réunions parlementaires des "Deux Sessions" en Chine et représente une escalade significative dans la course à l'IA entre les laboratoires chinois et occidentaux.
Points clés
- 1 000 milliards de paramètres au total avec seulement 32 milliards actifs par token via une architecture Mixture-of-Experts (MoE) éparse
- Support multimodal natif pour le texte, les images, la vidéo et l'audio — entraîné simultanément plutôt que greffé sur une base textuelle
- Fenêtre de contexte de 1 million de tokens avec une nouvelle mémoire conditionnelle Engram pour une récupération efficace
- Tarification projetée de 0,10 à 0,30 $ par million de tokens en entrée — jusqu'à 50 fois moins cher que GPT-5.2 et Claude Opus 4.6
Innovations architecturales
DeepSeek V4 s'appuie sur les fondations de V3.2 mais introduit trois percées architecturales majeures. Les Manifold-Constrained Hyper-Connections permettent un entraînement stable à l'échelle du millier de milliards de paramètres. La mémoire conditionnelle Engram offre une récupération efficace à partir de contextes d'un million de tokens, tandis qu'un nouveau système d'attention éparse dynamique avec Lightning Indexer améliore considérablement la vitesse d'inférence.
Le modèle conserve le Multi-head Latent Attention (MLA) des versions précédentes mais l'étend avec ces innovations pour atteindre ce que DeepSeek décrit comme des performances de pointe à une fraction du coût computationnel.
Optimisé pour les puces chinoises
Dans une démarche stratégiquement significative, V4 a été spécifiquement optimisé pour les processeurs Huawei Ascend et Cambricon — des puces fabriquées en Chine conçues pour réduire la dépendance aux semi-conducteurs américains dans un contexte de restrictions croissantes à l'exportation. Selon les rapports, l'accès anticipé aurait été refusé à Nvidia et AMD.
Cela positionne V4 non seulement comme un concurrent des modèles occidentaux mais comme une pierre angulaire de la quête d'indépendance de la Chine en matière d'infrastructure IA.
Priorité au code
Les benchmarks internes suggèrent que V4 excelle dans les tâches de programmation en production, notamment la gestion de prompts de code extrêmement longs, les diffs volumineux, les refactorisations multi-fichiers et l'analyse de bases de code héritées. DeepSeek affirme que le modèle surpasse Claude et ChatGPT sur les benchmarks de programmation à long contexte, bien que la vérification indépendante soit encore en attente.
Une variante plus légère, V4 Lite, avec 200 milliards de paramètres, est également entrée en phase de test interne, ciblant le déploiement dans des environnements aux ressources plus limitées.
Engagement open source
Fidèle à sa stratégie des versions précédentes, DeepSeek prévoit de publier V4 sous licence Apache 2.0, permettant aux développeurs d'expérimenter, de personnaliser et de déployer sans frais de licence. Cette approche open source a été centrale dans la stratégie de DeepSeek pour construire l'adoption communautaire et défier l'approche propriétaire d'OpenAI et Anthropic.
Contexte géopolitique
Le lancement intervient dans un contexte de compétition IA intensifiée entre les États-Unis et la Chine. Le modèle R1 de DeepSeek avait provoqué environ 1 000 milliards de dollars de pertes sur les actions technologiques américaines lors de son lancement en janvier 2025, démontrant qu'une IA haute performance pouvait être construite à des coûts considérablement réduits.
Parallèlement, Anthropic a publiquement accusé DeepSeek de mener des campagnes d'extraction à grande échelle pour reproduire les capacités de Claude, ajoutant de la tension au paysage concurrentiel.
Et après
Avec les hyperscalers américains engageant plus de 300 milliards de dollars dans l'infrastructure IA en 2026 et la Chine accélérant sa propre construction parallèle, V4 représente un point de données clé dans la bifurcation croissante de l'infrastructure IA mondiale selon des lignes géopolitiques.
Des benchmarks indépendants et des évaluations communautaires sont attendus dans les prochaines semaines, qui détermineront si V4 tient ses promesses de performance ambitieuses.
Source : AI2Work
Discutez de votre projet avec nous
Nous sommes ici pour vous aider avec vos besoins en développement Web. Planifiez un appel pour discuter de votre projet et comment nous pouvons vous aider.
Trouvons les meilleures solutions pour vos besoins.