DeepSeek dévoile DeepSeek R1-0528 : Nouveautés et performances

CometAPI
AnnaMay 29, 2025
DeepSeek dévoile DeepSeek R1-0528 : Nouveautés et performances

La startup chinoise d'IA DeepSeek a publié aujourd'hui une mise à jour progressive mais percutante de son modèle de raisonnement phare R1, désigné DeepSeek R1-0528, sur la plateforme Hugging Face. Publié sous la licence permissive MIT le May 28, 2025Cette mise à jour s'appuie sur la version R1 originale de janvier 2025, qui a démontré pour la première fois que les modèles de langage open source pouvaient rivaliser avec les offres propriétaires en termes de performances et de rentabilité. Bien que décrite en interne comme une « mise à niveau d'essai mineure », la R1-0528 intègre des améliorations substantielles en termes de sophistication du raisonnement, de précision de la synthèse de code et de fiabilité du modèle.

Mise à jour des points forts de DeepSeek R1

« Pensée » contextuelle étendue

En s'appuyant sur des couches de mélange d'experts (MoE) et des mécanismes d'attention optimisés, R1-0528 peut maintenir des chaînes de raisonnement plus profondes sur des entrées prolongées, ce qui le rend bien adapté aux flux de travail qui exigent une rétention de contexte étendue ().

Fiabilité et cohérence améliorées

Les développeurs signalent une sortie plus stable sur les invites répétées, avec une variation réduite dans la qualité des réponses et moins d'erreurs de délai d'attente lors du traitement de requêtes longues et riches en contexte.

Raisonnement amélioré

L'architecture sous-jacente reste à 671 milliards de paramètres, exploitant les mêmes mécanismes d'attention que le deepseek R1 original mais avec des poids raffinés et une capacité de « réflexion » plus longue.

Les évaluations internes montrent des gains mesurables sur les benchmarks à forte intensité logique, avec une inférence multi-étapes plus cohérente sur des requêtes complexes.

Génération de code supérieure

Les benchmarks LiveCodeBench signalent des gains clairs dans le codage assisté par l'IA : R1-0528 se classe désormais comme le meilleur modèle d'origine chinoise pour les tâches de code, derrière seulement les configurations o4-mini-high, o3-high et o4-mini-medium d'OpenAI.

Surpasse Qwen 3 d'Alibaba et Claude 3.7 d'Anthropic en termes de précision et d'efficacité de codage.


Performance technique

Métrique/RéférenceR1-0528R1 (janvier 2025)Propriété exclusive de premier plan
Score composite LLMMoyenne 69.45~ 67.8OpenAI o3/o4-mini (~70–72)
Classement de génération de codeN° 1 parmi les mannequins chinois ; n° 4 mondial#2 parmi les mannequins chinoisDerrière OpenAI o4-mini & o3; devant Grok 3 mini
Fenêtre contextuelle163 840 jetons (≈2 × original)81 920 jetonsComparable à OpenAI o3-high
Efficacité de l'inférence37 b paramètres actifs / 671 b au totalBétonSimilaire à d'autres grands logiciels open source

Plateformes de référence :

LiveCodeBench : Positions R1-0528 juste en dessous des o4-mini et o3 d'OpenAI sur les tâches de codage, surpassant Grok 3 mini de xAI et Qwen 3 d'Alibaba.

Agrégats composites LLM (MMLU, HumanEval, GSM8K, BBH, TruthfulQA) : Donne une performance médiane de 69.45, le plaçant à une distance de frappe des offres Claude et Gemini (Analytics Vidhya).

DeepSeek dévoile DeepSeek R1-0528 : Nouveautés et performances

Mémoire et contexte :

La fenêtre de contexte étendue prend en charge les bases de code, les documents longs et les dialogues à plusieurs tours avec une perte de cohérence minimale.

Licences et accessibilité open source

Diffusés sans carte modèle publique sur Hugging Face, les poids et fichiers de configuration du R1-0528 sont néanmoins entièrement accessibles sous le Licence MIT, permettant une utilisation commerciale sans restriction et des modifications pilotées par la communauté. Le choix de licence de DeepSeek s'inscrit dans la continuité de sa stratégie de diffusion « ouverte », garantissant que les institutions de recherche comme les startups puissent intégrer le modèle sans entrave.


Impact sur le marché et paysage concurrentiel

Le lancement de la version R1 de DeepSeek en janvier 2025 a bouleversé les hypothèses dominantes concernant le coût et l'échelle requis pour une IA de pointe, incitant ses concurrents américains à ajuster leurs prix et à introduire des modèles plus légers (par exemple, l'o3 Mini d'OpenAI). Avec la version R1-0528, DeepSeek réaffirme sa position de leader de l'open source, stimulant la concurrence sur les plans des performances et des prix face à OpenAI, Google Gemini, Alibaba et Anthropic.


Perspectives d'avenir

Depuis son lancement en janvier, DeepSeek R1 a déjà suscité des réactions stratégiques de la part des principaux acteurs de l'IA, notamment en influençant les ajustements tarifaires d'OpenAI et la feuille de route de Google pour les modèles Gemini. La mise à jour R1-0528 devrait intensifier la pression concurrentielle, notamment parmi les entreprises à la recherche d'alternatives rentables et performantes aux LLM propriétaires. Parallèlement, les régulateurs américains ont exprimé des inquiétudes en matière de sécurité nationale face aux avancées rapides de DeepSeek, soulignant les enjeux géopolitiques de la prolifération de l'IA open source.

Pour commencer

CometAPI fournit une interface REST unifiée qui regroupe des centaines de modèles d'IA sous un point de terminaison cohérent, avec gestion intégrée des clés API, des quotas d'utilisation et des tableaux de bord de facturation. Plus besoin de jongler avec plusieurs URL et identifiants de fournisseurs.

Les développeurs peuvent accéder aux dernières API DeepSeek R1 (nom du modèle : deepseek-r1-0528) À travers API CometPour commencer, explorez les capacités du modèle dans le cour de récréation et consultez le Guide de l'API Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API et le prix dans CometAPI :

  • Jetons d'entrée : 0.44 $/M jetons
  • Jetons de sortie : 1.752 $/M jetons
SHARE THIS BLOG

500+ Modèles en Une API

Jusqu'à 20% de réduction