DeepSeek afslører DeepSeek R1-0528: Nyheder og ydeevne

CometAPI
AnnaMay 29, 2025
DeepSeek afslører DeepSeek R1-0528: Nyheder og ydeevne

Den kinesiske AI-startup DeepSeek udgav i dag en trinvis, men effektiv opdatering til sin flagskibs R1-ræsonnementsmodel, der er udpeget ... DeepSeek R1-0528, på Hugging Face-platformen. Udgivet under den tilladte MIT-licens den Maj 28, 2025, bygger opdateringen på den originale R1-udgivelse fra januar 2025, som først demonstrerede, at open source-sprogmodeller kunne konkurrere med proprietære tilbud i både ydeevne og omkostningseffektivitet. Selvom R1-0528 internt beskrives som en "mindre prøveopgradering", inkorporerer den betydelige forbedringer i sofistikering af ræsonnement, nøjagtighed af kodesyntese og modelpålidelighed.

Opdateringshøjdepunkter i DeepSeek R1

Udvidet kontekstuel "tænkning"

Ved at udnytte Mixture-of-Experts (MoE)-lag og optimerede opmærksomhedsmekanismer kan R1-0528 opretholde dybere ræsonnementskæder over længerevarende input, hvilket gør det velegnet til arbejdsgange, der kræver udvidet kontekstbevaring ().

Forbedret pålidelighed og konsistens

Udviklere rapporterer mere stabilt output på tværs af gentagne prompts, med reduceret variation i svarkvalitet og færre timeout-fejl ved håndtering af lange, kontekstrige forespørgsler.

Forbedret ræsonnement

Den underliggende arkitektur forbliver på 671 milliarder parametre, der udnytter de samme opmærksomhedsmekanismer som den originale deepseek R1, men med raffinerede vægte og længere "tænknings"-kapacitet.

Interne evalueringer viser målbare gevinster på logikintensive benchmarks med mere sammenhængende flertrinsinferens på tværs af komplekse forespørgsler.

Overlegen kodegenerering

LiveCodeBench-benchmarks rapporterer klare fremskridt inden for AI-assisteret kodning: R1-0528 rangerer nu som den førende model af kinesisk oprindelse til kodeopgaver og ligger kun bag OpenAIs o4-mini-high-, o3-high- og o4-mini-medium-konfigurationer.

Overgår Alibabas Qwen 3 og Anthropics Claude 3.7 på kodningsnøjagtighed og effektivitet.


Teknisk ydeevne

Metrik/benchmarkR1-0528R1 (januar 2025)Førende proprietær
Sammensat LLM-scoremedian 69.45~ 67.8OpenAI o3/o4-mini (~70–72)
Kodegenereringsrang#1 blandt kinesiske modeller; samlet #4 på verdensplan#2 blandt kinesiske modellerBag OpenAI o4-mini & o3; foran Grok 3 mini
Kontekstvindue163 tokens (≈840 × original)81 tokensSammenlignelig med OpenAI o3-high
Inferenseffektivitet37 b aktive parametre / 671 b i altSammeLigesom andre store open source-programmer

Benchmark-platforme:

LiveCodeBench: Placerer sig R1-0528 lige under OpenAIs o4-mini og o3 på kodningsopgaver, og overgår dermed xAIs Grok 3 mini og Alibabas Qwen 3.

Sammensatte LLM-aggregater (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Giver en median ydeevne på 69.45, hvilket placerer den inden for rækkevidde af Claude og Gemini-tilbud (Analytics Vidhya).

DeepSeek afslører DeepSeek R1-0528: Nyheder og ydeevne

Hukommelse og kontekst:

Det udvidede kontekstvindue understøtter kodebaser, dokumenter i lang format og dialoger med flere runder med minimalt tab af sammenhæng.

Open source-licenser og tilgængelighed

Udgivet uden et offentligt modelkort på Hugging Face, er R1-0528-vægtene og konfigurationsfilerne ikke desto mindre fuldt tilgængelige under MIT licens, hvilket tillader ubegrænset kommerciel brug og fællesskabsdrevne ændringer. DeepSeeks valg af licens fortsætter sin strategi med "åbne vægte"-spredning, hvilket sikrer, at både forskningsinstitutioner og startups kan integrere modellen uden begrænsninger.


Markedspåvirkning og konkurrencelandskab

DeepSeeks R1-lancering i januar 2025 forstyrrede de gængse antagelser om omkostningerne og skalaen, der kræves for banebrydende AI, hvilket fik amerikanske konkurrenter til at justere priserne og introducere lettere modeller (f.eks. OpenAIs o3 Mini). Med R1-0528 gentager DeepSeek sin position som den førende open source-konkurrent og driver konkurrencen på både ydeevne- og prisdimensioner mod OpenAI, Google Gemini, Alibaba og Anthropic.


Future Outlook

Siden lanceringen i januar har DeepSeek R1 allerede ført til strategiske reaktioner fra store AI-aktører – især ved at påvirke OpenAIs prisjusteringer og Googles køreplan for Gemini-modeller. R1-0528-opdateringen forventes at intensivere det konkurrencemæssige pres, især blandt virksomheder, der søger omkostningseffektive, men højtydende alternativer til proprietære LLM'er. I mellemtiden har amerikanske regulatorer rejst bekymringer om den nationale sikkerhed over DeepSeeks hurtige fremskridt, hvilket understreger de geopolitiske udfordringer ved spredning af open source AI.

Kom godt i gang

CometAPI leverer en samlet REST-grænseflade, der samler hundredvis af AI-modeller – under et ensartet slutpunkt med indbygget API-nøglestyring, brugskvoter og faktureringsdashboards. I stedet for at jonglere med flere leverandør-URL'er og legitimationsoplysninger.

Udviklere kan få adgang til det nyeste DeepSeek R1 API (modelnavn: deepseek-r1-0528) Gennem CometAPIFor at begynde, udforsk modellens muligheder i Legeplads og konsulter API guide for detaljerede instruktioner. Før du får adgang, skal du sørge for at være logget ind på CometAPI og have fået API-nøglen, prisen i CometAPI:

  • Input-tokens: $0.44 / M-tokens
  • Output-tokens: $1.752 / M-tokens
SHARE THIS BLOG

500+ modeller i én API

Op til 20% rabat