De Chinese AI-startup DeepSeek heeft vandaag een incrementele maar impactvolle update uitgebracht voor zijn vlaggenschip R1-redeneringsmodel, genaamd DeepSeek R1-0528, op het Hugging Face-platform. Gepubliceerd onder de permissieve MIT-licentie op May 28, 2025De update bouwt voort op de oorspronkelijke R1-release van januari 2025, die voor het eerst aantoonde dat open-source taalmodellen zowel qua prestaties als kostenefficiëntie konden concurreren met bedrijfseigen modellen. Hoewel R1-0528 intern werd omschreven als een "kleine proefupgrade", bevat het substantiële verbeteringen in de verfijning van redeneervermogen, de nauwkeurigheid van codesynthese en de betrouwbaarheid van modellen.
Update hoogtepunten van DeepSeek R1
Uitgebreid contextueel “denken”
Door gebruik te maken van Mixture-of-Experts (MoE)-lagen en geoptimaliseerde aandachtmechanismen kan R1-0528 diepere redeneerketens ondersteunen over langere invoertijden, waardoor het zeer geschikt is voor workflows die een langere contextretentie vereisen ().
Verbeterde betrouwbaarheid en consistentie
Ontwikkelaars melden een stabielere uitvoer bij herhaalde prompts, met minder variatie in de antwoordkwaliteit en minder time-outfouten bij het verwerken van lange, contextrijke query's.
Verbeterde redenering
De onderliggende architectuur blijft hetzelfde 671 miljard parameters, waarbij gebruik wordt gemaakt van dezelfde aandachtmechanismen als bij de originele Deepseek R1, maar met verfijnde gewichten en een langere "denk"capaciteit.
Interne evaluaties laten meetbare winst zien in logica-intensieve benchmarks, met meer samenhangende meerstaps-inferentie bij complexe query's.
Superieure codegeneratie
LiveCodeBench-benchmarks melden duidelijke winst in AI-ondersteunde codering: R1-0528 is nu het beste model van Chinese oorsprong voor codetaken, alleen achter de o4-mini-high, o3-high en o4-mini-medium configuraties van OpenAI.
Presteert beter dan Alibaba's Qwen 3 en Anthropic's Claude 3.7 op het gebied van coderingsnauwkeurigheid en efficiëntie.
Technische prestaties
| Metriek/Benchmark | R1-0528 | R1 (januari 2025) | Toonaangevende eigen |
|---|---|---|---|
| Samengestelde LLM-score | Mediaan 69.45 | ~ 67.8 | OpenAI o3/o4-mini (~70–72) |
| Codegeneratierang | #1 onder Chinese modellen; wereldwijd #4 | #2 onder de Chinese modellen | Achter OpenAI o4-mini & o3; vóór Grok 3 mini |
| Contextvenster | 163 tokens (≈840 × origineel) | 81 tokens | Vergelijkbaar met OpenAI o3-high |
| Inferentie-efficiëntie | 37 b actieve parameters / 671 b totaal | Dezelfde | Vergelijkbaar met andere grote open-source |
Benchmarkplatforms:
LiveCodeBench: Positie R1-0528 bevindt zich net onder OpenAI's o4-mini en o3 op het gebied van codeertaken, en overtreft xAI's Grok 3 mini en Alibaba's Qwen 3.
Samengestelde LLM-aggregaten (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Levert een mediane prestatie op van 69.45, waardoor het in de buurt komt van de aanbiedingen van Claude en Gemini (Analytics Vidhya).

Geheugen en context:
Het uitgebreide contextvenster ondersteunt codebases, lange documenten en multi-turn dialogen met minimaal verlies aan samenhang.
Open-sourcelicenties en toegankelijkheid
Uitgebracht zonder een openbare modelkaart op Hugging Face, zijn de R1-0528-gewichten en configuratiebestanden desondanks volledig toegankelijk onder de MIT-licentie, waardoor onbeperkt commercieel gebruik en community-gedreven aanpassingen mogelijk zijn. DeepSeek's licentiekeuze zet haar strategie van verspreiding van "open gewichten" voort, waardoor zowel onderzoeksinstellingen als startups het model zonder belemmeringen kunnen integreren.
Marktimpact en concurrentielandschap
De lancering van DeepSeek's R1 in januari 2025 verstoorde de heersende aannames over de kosten en schaalgrootte die nodig zijn voor geavanceerde AI, wat Amerikaanse concurrenten ertoe aanzette hun prijzen aan te passen en lichtere modellen te introduceren (zoals OpenAI's o3 Mini). Met R1-0528 bevestigt DeepSeek zijn positie als toonaangevende open-sourceaanbieder en stimuleert het de concurrentie met OpenAI, Google Gemini, Alibaba en Anthropic op zowel prestatie- als prijsgebied.
Toekomstblik
Sinds de lancering in januari heeft DeepSeek R1 al strategische reacties uitgelokt van grote AI-spelers, met name door invloed uit te oefenen op de prijsaanpassingen van OpenAI en Google's roadmap voor Gemini-modellen. De R1-0528-update zal naar verwachting de concurrentiedruk vergroten, met name onder bedrijven die op zoek zijn naar kosteneffectieve en tegelijkertijd krachtige alternatieven voor propriëtaire LLM's. Ondertussen hebben Amerikaanse toezichthouders hun zorgen geuit over de nationale veiligheid van DeepSeeks snelle ontwikkelingen, wat de geopolitieke belangen van de verspreiding van open-source AI onderstreept.
Beginnen
CometAPI biedt een uniforme REST-interface die honderden AI-modellen samenvoegt onder één consistent eindpunt, met ingebouwd API-sleutelbeheer, gebruiksquota's en factureringsdashboards. Dit in plaats van te jongleren met meerdere leveranciers-URL's en inloggegevens.
Ontwikkelaars hebben toegang tot de nieuwste DeepSeek R1-API (modelnaam: deepseek-r1-0528) Door KomeetAPIOm te beginnen, verken de mogelijkheden van het model in de Speeltuin en raadpleeg de API-gids Voor gedetailleerde instructies. Voordat u toegang krijgt, moet u ervoor zorgen dat u bent ingelogd op CometAPI en de API-sleutel en prijs in CometAPI hebt verkregen:
- Invoertokens: $0.44 / M tokens
- Uitvoertokens: $1.752 / M tokens



