DeepSeek avduker DeepSeek R1-0528: Nyheter og ytelse

CometAPI
AnnaMay 29, 2025
DeepSeek avduker DeepSeek R1-0528: Nyheter og ytelse

Den kinesiske AI-oppstartsmodellen DeepSeek lanserte i dag en trinnvis, men likevel effektiv oppdatering av sin flaggskipmodell R1, kalt ... DeepSeek R1-0528, på Hugging Face-plattformen. Publisert under den permissive MIT-lisensen den Kan 28, 2025, bygger oppdateringen på den opprinnelige R1-utgivelsen fra januar 2025, som først demonstrerte at språkmodeller med åpen kildekode kunne konkurrere med proprietære tilbud både i ytelse og kostnadseffektivitet. Til tross for at den internt beskrives som en «mindre prøveoppgradering», inneholder R1-0528 betydelige forbedringer i resonnementsraffinement, nøyaktighet i kodesyntese og modellpålitelighet.

Oppdateringshøydepunkter fra DeepSeek R1

Utvidet kontekstuell «tenkning»

Ved å utnytte blandingslag av eksperter (MoE) og optimaliserte oppmerksomhetsmekanismer, kan R1-0528 opprettholde dypere resonneringskjeder over lengre input, noe som gjør den godt egnet for arbeidsflyter som krever utvidet kontekstbevaring ().

Forbedret pålitelighet og konsistens

Utviklere rapporterer mer stabil utdata på tvers av gjentatte spørsmål, med redusert variasjon i svarkvalitet og færre tidsavbruddsfeil ved håndtering av lange, kontekstrike spørringer.

Forbedret resonnement

Underliggende arkitektur forblir på 671 milliarder parametere, som utnytter de samme oppmerksomhetsmekanismene som den originale deepseek R1, men med raffinerte vekter og lengre «tenkeevne».

Interne evalueringer viser målbare gevinster på logikkintensive benchmarks, med mer sammenhengende flertrinnsinferens på tvers av komplekse spørringer.

Overlegen kodegenerering

LiveCodeBench-benchmarks rapporterer klare gevinster innen AI-assistert koding: R1-0528 er nå rangert som den beste modellen med kinesisk opprinnelse for kodeoppgaver, og ligger bare bak OpenAIs konfigurasjoner o4-mini-high, o3-high og o4-mini-medium.

Overgår Alibabas Qwen 3 og Anthropics Claude 3.7 når det gjelder kodingnøyaktighet og effektivitet.


Teknisk ytelse

Måling/ReferansepunktR1-0528R1 (januar 2025)Ledende proprietær
Sammensatt LLM-poengsummedian 69.45~ 67.8OpenAI o3/o4-mini (~70–72)
Kodegenereringsrangering#1 blant kinesiske modeller; totalt #4 på verdensbasis#2 blant kinesiske modellerBak OpenAI o4-mini & o3; foran Grok 3 mini
Kontekstvindu163 840 polletter (≈2 × original)81 920 tokensSammenlignbar med OpenAI o3-high
Inferenseffektivitet37 b aktive parametere / 671 b totaltSammeLigner på andre store åpen kildekode-programmer

Referanseplattformer:

LiveCodeBench: Posisjonerer R1-0528 rett under OpenAIs o4-mini og o3 på kodeoppgaver, og overgår xAIs Grok 3 mini og Alibabas Qwen 3.

Sammensatte LLM-aggregater (MMLU, HumanEval, GSM8K, BBH, TruthfulQA): Gir en median ytelse på 69.45, noe som plasserer den innen rekkevidde av Claude og Gemini-tilbudene (Analytics Vidhya).

DeepSeek avduker DeepSeek R1-0528: Nyheter og ytelse

Minne og kontekst:

Det utvidede kontekstvinduet støtter kodebaser, dokumenter i lang format og dialoger med flere runder med minimalt tap av sammenheng.

Åpen kildekode-lisensiering og tilgjengelighet

Utgitt uten et offentlig modellkort på Hugging Face, er R1-0528-vektene og konfigurasjonsfilene likevel fullt tilgjengelige under MIT-lisens, som tillater ubegrenset kommersiell bruk og samfunnsdrevne modifikasjoner. DeepSeeks valg av lisens fortsetter strategien med formidling av «åpne vekter», noe som sikrer at både forskningsinstitusjoner og oppstartsbedrifter kan integrere modellen uten hindringer.


Markedspåvirkning og konkurranselandskap

DeepSeeks R1-lansering i januar 2025 forstyrret rådende antagelser om kostnader og skala som kreves for banebrytende AI, noe som fikk amerikanske konkurrenter til å justere prisene og introdusere lettere modeller (f.eks. OpenAIs o3 Mini). Med R1-0528 bekrefter DeepSeek sin posisjon som den ledende konkurrenten innen åpen kildekode, og driver konkurranse på både ytelses- og prisdimensjoner mot OpenAI, Google Gemini, Alibaba og Anthropic.


Fremtidsutsikter

Siden lanseringen i januar har DeepSeek R1 allerede ført til strategiske reaksjoner fra store AI-aktører – særlig påvirket OpenAIs prisjusteringer og Googles veikart for Gemini-modeller. R1-0528-oppdateringen forventes å øke konkurransepresset, spesielt blant firmaer som søker kostnadseffektive, men likevel høytytende alternativer til proprietære LLM-er. I mellomtiden har amerikanske regulatorer reist bekymringer for nasjonal sikkerhet over DeepSeeks raske fremskritt, noe som understreker de geopolitiske innsatsene knyttet til spredning av åpen kildekode-AI.

Komme i gang

CometAPI tilbyr et enhetlig REST-grensesnitt som samler hundrevis av AI-modeller – under et konsistent endepunkt, med innebygd API-nøkkeladministrasjon, brukskvoter og faktureringsdashboards. I stedet for å sjonglere flere leverandør-URL-er og legitimasjonsinformasjon.

Utviklere kan få tilgang til det nyeste DeepSeek R1 API (modellnavn: deepseek-r1-0528) gjennom CometAPIFor å begynne, utforsk modellens muligheter i lekeplass og konsulter API-veiledning for detaljerte instruksjoner. Før du åpner, må du sørge for at du har logget inn på CometAPI og fått tak i API-nøkkelen, prisen i CometAPI:

  • Input tokens: $0.44 / M tokens
  • Output tokens: $1.752 / M tokens
SHARE THIS BLOG

500+ modeller i ett API

Opptil 20 % rabatt