DeepSeek-V3.2

DeepSeek
deepseek-v3.2
Indtast:$0.22/M
Output:$0.35/M
Kontekst:128K
Maks Output:4K
DeepSeek v3.2 er den seneste produktionsversion i DeepSeek V3-familien: en stor sprogmodelfamilie med åbne vægte, der sætter ræsonnement først og er designet til forståelse af lange kontekster, robust brug af agenter/værktøjer samt avanceret ræsonnement, kodning og matematik.

Hvad er DeepSeek v3.2?

DeepSeek v3.2 er den nyeste produktionsudgivelse i DeepSeek V3-familien: en stor, ræsonnerings-først open-weight sprogmodelfamilie designet til langkontekstforståelse, robust agent-/værktøjsbrug, avanceret ræsonnering, kodning og matematik. Udgivelsen samler flere varianter (produktionsversionen V3.2 og en højtydende V3.2-Speciale). Projektet fremhæver omkostningseffektiv langkontekst-inferens via en ny sparsom opmærksomhedsmekanisme kaldet DeepSeek Sparse Attention (DSA) samt agenter/“tænke”-arbejdsgange (“Thinking in Tool-Use”).

Hovedfunktioner (på højt niveau)

  • DeepSeek Sparse Attention (DSA): en mekanisme for sparsom opmærksomhed, der skal reducere beregningsforbruget markant i langkontekst-scenarier, samtidig med at langtrækkende ræsonnering bevares. (Kerneforskningspåstand; anvendes i V3.2-Exp.)
  • Agentisk tænkning + integration af værktøjsbrug: V3.2 lægger vægt på at indlejre “tænkning” i værktøjsbrug: modellen kan køre i ræsonnerings-/tænkningstilstande og i ikke-tænkende (normale) tilstande ved værktøjskald, hvilket forbedrer beslutningstagning i flertrinsopgaver og orkestrering af værktøjer.
  • Storskala pipeline til syntese af agentdata: DeepSeek rapporterer en træningskorpus og en agent-syntesepipeline, der spænder over tusindvis af miljøer og titusinder af komplekse instruktioner for at forbedre robustheden ved interaktive opgaver.
  • DeepSeek Sparse Attention (DSA): DSA er en finkornet metode til sparsom opmærksomhed introduceret i V3.2-linjen (først i V3.2-Exp), som reducerer opmærksomhedskompleksiteten (fra naiv O(L²) til en O(L·k)-stil med k ≪ L) ved at vælge et mindre sæt key/value-tokens pr. query-token. Resultatet er væsentligt lavere hukommelses-/beregningsforbrug for meget lange kontekster (128K), hvilket gør langkontekst-inferens væsentligt billigere.
  • Mixture-of-Experts (MoE)-rygrad og Multi-head Latent Attention (MLA): V3-familien bruger MoE til effektivt at øge kapaciteten (store nominelle parametertal med begrænset aktivering pr. token) sammen med MLA-metoder for at bevare kvaliteten og styre forbruget.

Tekniske specifikationer (kort oversigt)

  • Nominelt parameterrækkevidde: ~671B – 685B (afhængig af variant).
  • Kontekstvindue (dokumenteret reference): 128,000 tokens (128K) i vLLM/referencekonfigurationer.
  • Opmærksomhed: DeepSeek Sparse Attention (DSA) + MLA; reduceret opmærksomhedskompleksitet for lange kontekster.
  • Numerisk- og træningspræcision: BF16 / F32 samt komprimerede kvantiserede formater (F8_E4M3 osv.) tilgængelige for distribution.
  • Arkitekturfamilie: MoE (mixture-of-experts)-rygrad med aktiveringsøkonomi pr. token.
  • Input/output: standard tokeniseret tekstinput (chat-/beskedformater understøttes); understøtter tool-calls (tool-use API-primitiver) samt både interaktive chatlignende kald og programmatisk generering via API.
  • Tilbudte varianter: v3.2, v3.2-Exp (eksperimentel, DSA-debut), v3.2-Speciale (ræsonnerings-først, kun API på kort sigt).

Benchmark-ydelse

Høj-beregning V3.2-Speciale når paritet med eller overgår samtidige high-end-modeller på flere ræsonnerings-/matematik-/kodningsbenchmarks og opnår topkarakterer på udvalgte elite-matematikopgavesæt. Preprintet fremhæver paritet med modeller som GPT-5 / Kimi K2 på udvalgte ræsonneringsbenchmarks samt specifikke forbedringer i forhold til tidligere DeepSeek R1/V3-baselines:

  • AIME: forbedret fra 70.0 til 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

Sammenligning med andre modeller (på højt niveau)

  • Vs GPT-5 / Gemini 3 Pro (offentlige påstande): DeepSeek-forfattere og flere medier hævder paritet eller overlegenhed på udvalgte ræsonnerings- og kodningsopgaver for Speciale-varianten, samtidig med at omkostningseffektivitet og åben licensering fremhæves som differentieringsfaktorer.
  • Vs åbne modeller (Olmo, Nemotron, Moonshot osv.): DeepSeek fremhæver agentisk træning og DSA som nøgle-differentieringer for langkontekst-effektivitet.

Repræsentative anvendelsestilfælde

  • Agentiske systemer/orkestrering: multi-værktøjsagenter (API'er, webscrapers, kodeeksekveringsforbindelser), der drager fordel af modelniveau-“tænkning” + eksplicitte tool-call-primitiver.
  • Langdokument-ræsonnering/-analyse: juridiske dokumenter, store forskningskorpora, mødereferater — langkontekst-varianter (128k tokens) lader dig holde meget store kontekster i ét enkelt kald.
  • Kompleks matematik- og kodeassistance: V3.2-Speciale promoveres til avanceret matematisk ræsonnering og omfattende kodefejlsøgning ifølge leverandørens benchmarks.
  • Omkostningsfølsomme produktionsimplementeringer: DSA + prisændringer sigter mod at sænke inferensomkostningerne for høj-kontekst-arbejdsbelastninger.

Sådan kommer du i gang med at bruge DeepSeek v3.2 API

DeepSeek v3.2 API-priser i CometAPI,20% rabat i forhold til officiel pris:

Input-tokens$0.22
Output-tokens$0.35

Påkrævede trin

  • Log ind på cometapi.com. Hvis du ikke er bruger endnu, skal du først registrere dig
  • Hent API-adgangsnøglen til interfacet. Klik på “Add Token” ved API-token i personcentret, hent token-nøglen: sk-xxxxx og indsend.
  • Hent URL'en til dette site: https://api.cometapi.com/

Brugsmåde

  1. Vælg “deepseek-v3.2”-endpointet for at sende API-anmodningen og angiv anmodningskroppen. Anmodningsmetoden og anmodningskroppen findes i vores websteds API-dokumentation. Vores websted tilbyder også Apifox-test for din bekvemmelighed.
  2. Erstat <YOUR_API_KEY> med din faktiske CometAPI-nøgle fra din konto.
  3. Vælg Chat-format: Indsæt dit spørgsmål eller din forespørgsel i content-feltet — det er dette, modellen vil svare på.
  4. .Behandl API-svaret for at få det genererede svar.

Flere modeller