La startup chinoise d'IA DeepSeek a publié aujourd'hui une mise à jour progressive mais percutante de son modèle de raisonnement phare R1, désigné DeepSeek R1-0528, sur la plateforme Hugging Face. Publié sous la licence permissive MIT le May 28, 2025Cette mise à jour s'appuie sur la version R1 originale de janvier 2025, qui a démontré pour la première fois que les modèles de langage open source pouvaient rivaliser avec les offres propriétaires en termes de performances et de rentabilité. Bien que décrite en interne comme une « mise à niveau d'essai mineure », la R1-0528 intègre des améliorations substantielles en termes de sophistication du raisonnement, de précision de la synthèse de code et de fiabilité du modèle.
Mise à jour des points forts de DeepSeek R1
« Pensée » contextuelle étendue
En s'appuyant sur des couches de mélange d'experts (MoE) et des mécanismes d'attention optimisés, R1-0528 peut maintenir des chaînes de raisonnement plus profondes sur des entrées prolongées, ce qui le rend bien adapté aux flux de travail qui exigent une rétention de contexte étendue ().
Fiabilité et cohérence améliorées
Les développeurs signalent une sortie plus stable sur les invites répétées, avec une variation réduite dans la qualité des réponses et moins d'erreurs de délai d'attente lors du traitement de requêtes longues et riches en contexte.
Raisonnement amélioré
L'architecture sous-jacente reste à 671 milliards de paramètres, exploitant les mêmes mécanismes d'attention que le deepseek R1 original mais avec des poids raffinés et une capacité de « réflexion » plus longue.
Les évaluations internes montrent des gains mesurables sur les benchmarks à forte intensité logique, avec une inférence multi-étapes plus cohérente sur des requêtes complexes.
Génération de code supérieure
Les benchmarks LiveCodeBench signalent des gains clairs dans le codage assisté par l'IA : R1-0528 se classe désormais comme le meilleur modèle d'origine chinoise pour les tâches de code, derrière seulement les configurations o4-mini-high, o3-high et o4-mini-medium d'OpenAI.
Surpasse Qwen 3 d'Alibaba et Claude 3.7 d'Anthropic en termes de précision et d'efficacité de codage.
Performance technique
| Métrique/Référence | R1-0528 | R1 (janvier 2025) | Propriété exclusive de premier plan |
|---|---|---|---|
| Score composite LLM | Moyenne 69.45 | ~ 67.8 | OpenAI o3/o4-mini (~70–72) |
| Classement de génération de code | N° 1 parmi les mannequins chinois ; n° 4 mondial | #2 parmi les mannequins chinois | Derrière OpenAI o4-mini & o3; devant Grok 3 mini |
| Fenêtre contextuelle | 163 840 jetons (≈2 × original) | 81 920 jetons | Comparable à OpenAI o3-high |
| Efficacité de l'inférence | 37 b paramètres actifs / 671 b au total | Béton | Similaire à d'autres grands logiciels open source |
Plateformes de référence :
LiveCodeBench : Positions R1-0528 juste en dessous des o4-mini et o3 d'OpenAI sur les tâches de codage, surpassant Grok 3 mini de xAI et Qwen 3 d'Alibaba.
Agrégats composites LLM (MMLU, HumanEval, GSM8K, BBH, TruthfulQA) : Donne une performance médiane de 69.45, le plaçant à une distance de frappe des offres Claude et Gemini (Analytics Vidhya).

Mémoire et contexte :
La fenêtre de contexte étendue prend en charge les bases de code, les documents longs et les dialogues à plusieurs tours avec une perte de cohérence minimale.
Licences et accessibilité open source
Diffusés sans carte modèle publique sur Hugging Face, les poids et fichiers de configuration du R1-0528 sont néanmoins entièrement accessibles sous le Licence MIT, permettant une utilisation commerciale sans restriction et des modifications pilotées par la communauté. Le choix de licence de DeepSeek s'inscrit dans la continuité de sa stratégie de diffusion « ouverte », garantissant que les institutions de recherche comme les startups puissent intégrer le modèle sans entrave.
Impact sur le marché et paysage concurrentiel
Le lancement de la version R1 de DeepSeek en janvier 2025 a bouleversé les hypothèses dominantes concernant le coût et l'échelle requis pour une IA de pointe, incitant ses concurrents américains à ajuster leurs prix et à introduire des modèles plus légers (par exemple, l'o3 Mini d'OpenAI). Avec la version R1-0528, DeepSeek réaffirme sa position de leader de l'open source, stimulant la concurrence sur les plans des performances et des prix face à OpenAI, Google Gemini, Alibaba et Anthropic.
Perspectives d'avenir
Depuis son lancement en janvier, DeepSeek R1 a déjà suscité des réactions stratégiques de la part des principaux acteurs de l'IA, notamment en influençant les ajustements tarifaires d'OpenAI et la feuille de route de Google pour les modèles Gemini. La mise à jour R1-0528 devrait intensifier la pression concurrentielle, notamment parmi les entreprises à la recherche d'alternatives rentables et performantes aux LLM propriétaires. Parallèlement, les régulateurs américains ont exprimé des inquiétudes en matière de sécurité nationale face aux avancées rapides de DeepSeek, soulignant les enjeux géopolitiques de la prolifération de l'IA open source.
Pour commencer
CometAPI fournit une interface REST unifiée qui regroupe des centaines de modèles d'IA sous un point de terminaison cohérent, avec gestion intégrée des clés API, des quotas d'utilisation et des tableaux de bord de facturation. Plus besoin de jongler avec plusieurs URL et identifiants de fournisseurs.
Les développeurs peuvent accéder aux dernières API DeepSeek R1 (nom du modèle : deepseek-r1-0528) À travers API CometPour commencer, explorez les capacités du modèle dans le cour de récréation et consultez le Guide de l'API Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API et le prix dans CometAPI :
- Jetons d'entrée : 0.44 $/M jetons
- Jetons de sortie : 1.752 $/M jetons



