DeepSeek onthult DeepSeek R1-0528: wat is er nieuw en wat zijn de prestaties?

CometAPI
AnnaMay 29, 2025
DeepSeek onthult DeepSeek R1-0528: wat is er nieuw en wat zijn de prestaties?

De Chinese AI-startup DeepSeek heeft vandaag een incrementele maar impactvolle update uitgebracht voor zijn vlaggenschip R1-redeneringsmodel, genaamd DeepSeek R1-0528, op het Hugging Face-platform. Gepubliceerd onder de permissieve MIT-licentie op May 28, 2025De update bouwt voort op de oorspronkelijke R1-release van januari 2025, die voor het eerst aantoonde dat open-source taalmodellen zowel qua prestaties als kostenefficiëntie konden concurreren met bedrijfseigen modellen. Hoewel R1-0528 intern werd omschreven als een "kleine proefupgrade", bevat het substantiële verbeteringen in de verfijning van redeneervermogen, de nauwkeurigheid van codesynthese en de betrouwbaarheid van modellen.

Update hoogtepunten van DeepSeek R1

Uitgebreid contextueel “denken”

Door gebruik te maken van Mixture-of-Experts (MoE)-lagen en geoptimaliseerde aandachtmechanismen kan R1-0528 diepere redeneerketens ondersteunen over langere invoertijden, waardoor het zeer geschikt is voor workflows die een langere contextretentie vereisen ().

Verbeterde betrouwbaarheid en consistentie

Ontwikkelaars melden een stabielere uitvoer bij herhaalde prompts, met minder variatie in de antwoordkwaliteit en minder time-outfouten bij het verwerken van lange, contextrijke query's.

Verbeterde redenering

De onderliggende architectuur blijft hetzelfde 671 miljard parameters, waarbij gebruik wordt gemaakt van dezelfde aandachtmechanismen als bij de originele Deepseek R1, maar met verfijnde gewichten en een langere "denk"capaciteit.

Interne evaluaties laten meetbare winst zien in logica-intensieve benchmarks, met meer samenhangende meerstaps-inferentie bij complexe query's.

Superieure codegeneratie

LiveCodeBench-benchmarks melden duidelijke winst in AI-ondersteunde codering: R1-0528 is nu het beste model van Chinese oorsprong voor codetaken, alleen achter de o4-mini-high, o3-high en o4-mini-medium configuraties van OpenAI.

Presteert beter dan Alibaba's Qwen 3 en Anthropic's Claude 3.7 op het gebied van coderingsnauwkeurigheid en efficiëntie.


Technische prestaties

Metriek/BenchmarkR1-0528R1 (januari 2025)Toonaangevende eigen
Samengestelde LLM-scoreMediaan 69.45~ 67.8OpenAI o3/o4-mini (~70–72)
Codegeneratierang#1 onder Chinese modellen; wereldwijd #4#2 onder de Chinese modellenAchter OpenAI o4-mini & o3; vóór Grok 3 mini
Contextvenster163 tokens (≈840 × origineel)81 tokensVergelijkbaar met OpenAI o3-high
Inferentie-efficiëntie37 b actieve parameters / 671 b totaalDezelfdeVergelijkbaar met andere grote open-source

Benchmarkplatforms:

LiveCodeBench: Positie R1-0528 bevindt zich net onder OpenAI's o4-mini en o3 op het gebied van codeertaken, en overtreft xAI's Grok 3 mini en Alibaba's Qwen 3.

Samengestelde LLM-aggregaten (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Levert een mediane prestatie op van 69.45, waardoor het in de buurt komt van de aanbiedingen van Claude en Gemini (Analytics Vidhya).

DeepSeek onthult DeepSeek R1-0528: wat is er nieuw en wat zijn de prestaties?

Geheugen en context:

Het uitgebreide contextvenster ondersteunt codebases, lange documenten en multi-turn dialogen met minimaal verlies aan samenhang.

Open-sourcelicenties en toegankelijkheid

Uitgebracht zonder een openbare modelkaart op Hugging Face, zijn de R1-0528-gewichten en configuratiebestanden desondanks volledig toegankelijk onder de MIT-licentie, waardoor onbeperkt commercieel gebruik en community-gedreven aanpassingen mogelijk zijn. DeepSeek's licentiekeuze zet haar strategie van verspreiding van "open gewichten" voort, waardoor zowel onderzoeksinstellingen als startups het model zonder belemmeringen kunnen integreren.


Marktimpact en concurrentielandschap

De lancering van DeepSeek's R1 in januari 2025 verstoorde de heersende aannames over de kosten en schaalgrootte die nodig zijn voor geavanceerde AI, wat Amerikaanse concurrenten ertoe aanzette hun prijzen aan te passen en lichtere modellen te introduceren (zoals OpenAI's o3 Mini). Met R1-0528 bevestigt DeepSeek zijn positie als toonaangevende open-sourceaanbieder en stimuleert het de concurrentie met OpenAI, Google Gemini, Alibaba en Anthropic op zowel prestatie- als prijsgebied.


Toekomstblik

Sinds de lancering in januari heeft DeepSeek R1 al strategische reacties uitgelokt van grote AI-spelers, met name door invloed uit te oefenen op de prijsaanpassingen van OpenAI en Google's roadmap voor Gemini-modellen. De R1-0528-update zal naar verwachting de concurrentiedruk vergroten, met name onder bedrijven die op zoek zijn naar kosteneffectieve en tegelijkertijd krachtige alternatieven voor propriëtaire LLM's. Ondertussen hebben Amerikaanse toezichthouders hun zorgen geuit over de nationale veiligheid van DeepSeeks snelle ontwikkelingen, wat de geopolitieke belangen van de verspreiding van open-source AI onderstreept.

Beginnen

CometAPI biedt een uniforme REST-interface die honderden AI-modellen samenvoegt onder één consistent eindpunt, met ingebouwd API-sleutelbeheer, gebruiksquota's en factureringsdashboards. Dit in plaats van te jongleren met meerdere leveranciers-URL's en inloggegevens.

Ontwikkelaars hebben toegang tot de nieuwste DeepSeek R1-API (modelnaam: deepseek-r1-0528) Door KomeetAPIOm te beginnen, verken de mogelijkheden van het model in de Speeltuin en raadpleeg de API-gids Voor gedetailleerde instructies. Voordat u toegang krijgt, moet u ervoor zorgen dat u bent ingelogd op CometAPI en de API-sleutel en prijs in CometAPI hebt verkregen:

  • Invoertokens: $0.44 / M tokens
  • Uitvoertokens: $1.752 / M tokens
SHARE THIS BLOG

500+ modellen in één API

Tot 20% korting