Den kinesiske AI-startup DeepSeek udgav i dag en trinvis, men effektiv opdatering til sin flagskibs R1-ræsonnementsmodel, der er udpeget ... DeepSeek R1-0528, på Hugging Face-platformen. Udgivet under den tilladte MIT-licens den Maj 28, 2025, bygger opdateringen på den originale R1-udgivelse fra januar 2025, som først demonstrerede, at open source-sprogmodeller kunne konkurrere med proprietære tilbud i både ydeevne og omkostningseffektivitet. Selvom R1-0528 internt beskrives som en "mindre prøveopgradering", inkorporerer den betydelige forbedringer i sofistikering af ræsonnement, nøjagtighed af kodesyntese og modelpålidelighed.
Opdateringshøjdepunkter i DeepSeek R1
Udvidet kontekstuel "tænkning"
Ved at udnytte Mixture-of-Experts (MoE)-lag og optimerede opmærksomhedsmekanismer kan R1-0528 opretholde dybere ræsonnementskæder over længerevarende input, hvilket gør det velegnet til arbejdsgange, der kræver udvidet kontekstbevaring ().
Forbedret pålidelighed og konsistens
Udviklere rapporterer mere stabilt output på tværs af gentagne prompts, med reduceret variation i svarkvalitet og færre timeout-fejl ved håndtering af lange, kontekstrige forespørgsler.
Forbedret ræsonnement
Den underliggende arkitektur forbliver på 671 milliarder parametre, der udnytter de samme opmærksomhedsmekanismer som den originale deepseek R1, men med raffinerede vægte og længere "tænknings"-kapacitet.
Interne evalueringer viser målbare gevinster på logikintensive benchmarks med mere sammenhængende flertrinsinferens på tværs af komplekse forespørgsler.
Overlegen kodegenerering
LiveCodeBench-benchmarks rapporterer klare fremskridt inden for AI-assisteret kodning: R1-0528 rangerer nu som den førende model af kinesisk oprindelse til kodeopgaver og ligger kun bag OpenAIs o4-mini-high-, o3-high- og o4-mini-medium-konfigurationer.
Overgår Alibabas Qwen 3 og Anthropics Claude 3.7 på kodningsnøjagtighed og effektivitet.
Teknisk ydeevne
| Metrik/benchmark | R1-0528 | R1 (januar 2025) | Førende proprietær |
|---|---|---|---|
| Sammensat LLM-score | median 69.45 | ~ 67.8 | OpenAI o3/o4-mini (~70–72) |
| Kodegenereringsrang | #1 blandt kinesiske modeller; samlet #4 på verdensplan | #2 blandt kinesiske modeller | Bag OpenAI o4-mini & o3; foran Grok 3 mini |
| Kontekstvindue | 163 tokens (≈840 × original) | 81 tokens | Sammenlignelig med OpenAI o3-high |
| Inferenseffektivitet | 37 b aktive parametre / 671 b i alt | Samme | Ligesom andre store open source-programmer |
Benchmark-platforme:
LiveCodeBench: Placerer sig R1-0528 lige under OpenAIs o4-mini og o3 på kodningsopgaver, og overgår dermed xAIs Grok 3 mini og Alibabas Qwen 3.
Sammensatte LLM-aggregater (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Giver en median ydeevne på 69.45, hvilket placerer den inden for rækkevidde af Claude og Gemini-tilbud (Analytics Vidhya).

Hukommelse og kontekst:
Det udvidede kontekstvindue understøtter kodebaser, dokumenter i lang format og dialoger med flere runder med minimalt tab af sammenhæng.
Open source-licenser og tilgængelighed
Udgivet uden et offentligt modelkort på Hugging Face, er R1-0528-vægtene og konfigurationsfilerne ikke desto mindre fuldt tilgængelige under MIT licens, hvilket tillader ubegrænset kommerciel brug og fællesskabsdrevne ændringer. DeepSeeks valg af licens fortsætter sin strategi med "åbne vægte"-spredning, hvilket sikrer, at både forskningsinstitutioner og startups kan integrere modellen uden begrænsninger.
Markedspåvirkning og konkurrencelandskab
DeepSeeks R1-lancering i januar 2025 forstyrrede de gængse antagelser om omkostningerne og skalaen, der kræves for banebrydende AI, hvilket fik amerikanske konkurrenter til at justere priserne og introducere lettere modeller (f.eks. OpenAIs o3 Mini). Med R1-0528 gentager DeepSeek sin position som den førende open source-konkurrent og driver konkurrencen på både ydeevne- og prisdimensioner mod OpenAI, Google Gemini, Alibaba og Anthropic.
Future Outlook
Siden lanceringen i januar har DeepSeek R1 allerede ført til strategiske reaktioner fra store AI-aktører – især ved at påvirke OpenAIs prisjusteringer og Googles køreplan for Gemini-modeller. R1-0528-opdateringen forventes at intensivere det konkurrencemæssige pres, især blandt virksomheder, der søger omkostningseffektive, men højtydende alternativer til proprietære LLM'er. I mellemtiden har amerikanske regulatorer rejst bekymringer om den nationale sikkerhed over DeepSeeks hurtige fremskridt, hvilket understreger de geopolitiske udfordringer ved spredning af open source AI.
Kom godt i gang
CometAPI leverer en samlet REST-grænseflade, der samler hundredvis af AI-modeller – under et ensartet slutpunkt med indbygget API-nøglestyring, brugskvoter og faktureringsdashboards. I stedet for at jonglere med flere leverandør-URL'er og legitimationsoplysninger.
Udviklere kan få adgang til det nyeste DeepSeek R1 API (modelnavn: deepseek-r1-0528) Gennem CometAPIFor at begynde, udforsk modellens muligheder i Legeplads og konsulter API guide for detaljerede instruktioner. Før du får adgang, skal du sørge for at være logget ind på CometAPI og have fået API-nøglen, prisen i CometAPI:
- Input-tokens: $0.44 / M-tokens
- Output-tokens: $1.752 / M-tokens



