Hva er DeepSeek v3.2?
DeepSeek v3.2 er den nyeste produksjonsutgivelsen i DeepSeek V3-familien: en stor, resonneringsorientert open-weight språkmodellsfamilie utviklet for forståelse av lang kontekst, robust agent-/verktøybruk, avansert resonnering, koding og matematikk. Utgivelsen samler flere varianter (produksjonsversjonen V3.2 og en høyytelsesvariant kalt V3.2-Speciale). Prosjektet legger vekt på kostnadseffektiv inferens for lang kontekst gjennom en ny mekanisme for sparsom oppmerksomhet kalt DeepSeek Sparse Attention (DSA) og agent-/«tenke»-arbeidsflyter («Thinking in Tool-Use»).
Hovedfunksjoner (på høyt nivå)
- DeepSeek Sparse Attention (DSA): en sparse-attention-mekanisme som er ment å dramatisk redusere beregningskostnaden i scenarier med lang kontekst, samtidig som resonnering over lange avstander bevares. (Kjernestandpunkt i forskningen; brukt i
V3.2-Exp.) - Agentisk tenkning + integrasjon av verktøybruk: V3.2 legger vekt på å bygge inn «tenkning» i verktøybruk: modellen kan operere i resonnerings-/tenkemoduser og i ikke-tenkende (normale) moduser ved kall til verktøy, noe som forbedrer beslutningstaking i flertrinnsoppgaver og verktøyorkestrering.
- Storskala syntesepipeline for agentdata: DeepSeek rapporterer et treningskorpus og en agent-syntesepipeline som spenner over tusenvis av miljøer og titusenvis av komplekse instruksjoner for å forbedre robustheten i interaktive oppgaver.
- DeepSeek Sparse Attention (DSA): DSA er en finmasket sparse-attention-metode introdusert i V3.2-linjen (først i V3.2-Exp) som reduserer oppmerksomhetskompleksiteten (fra naiv O(L²) til en O(L·k)-stil med k ≪ L), ved å velge et mindre sett med key/value-token per query-token. Resultatet er betydelig lavere minnebruk/beregning for svært lange kontekster (128K), noe som gjør inferens med lang kontekst vesentlig billigere.
- Mixture-of-Experts (MoE)-ryggrad og Multi-head Latent Attention (MLA): V3-familien bruker MoE for å øke kapasiteten effektivt (store nominelle parameterantall med begrenset aktivering per token), sammen med MLA-metoder for å opprettholde kvalitet og kontrollere beregningskostnaden.
Tekniske spesifikasjoner (kort tabell)
- Nominelt parameterområde: ~671B – 685B (avhengig av variant).
- Kontekstvindu (dokumentert referanse): 128 000 token (128K) i vLLM-/referansekonfigurasjoner.
- Attention: DeepSeek Sparse Attention (DSA) + MLA; redusert oppmerksomhetskompleksitet for lange kontekster.
- Numerisk presisjon og treningspresisjon: BF16 / F32 og komprimerte kvantiserte formater (F8_E4M3 osv.) tilgjengelig for distribusjon.
- Arkitekturfamilie: MoE (mixture-of-experts)-ryggrad med økonomisk aktivering per token.
- Inndata / utdata: standard tokenisert tekstinput (chat-/meldingsformater støttes); støtter tool-calls (API-primitiver for verktøybruk) og både interaktive chat-lignende kall og programmatiske completions via API.
- Tilgjengelige varianter:
v3.2,v3.2-Exp(eksperimentell, DSA-debut),v3.2-Speciale(resonneringsfokusert, kun API på kort sikt).
Benchmark-ytelse
V3.2-Speciale med høy beregningskapasitet når nivå med eller overgår moderne toppmodeller på flere benchmarker for resonnering/matematikk/koding, og oppnår toppresultater på utvalgte avanserte matematikkoppgavesett. Preprinten fremhever nivålikhet med modeller som GPT-5 / Kimi K2 på utvalgte resonneringsbenchmarker, samt spesifikke forbedringer sammenlignet med tidligere DeepSeek R1/V3-baselines:
- AIME: forbedret fra 70.0 til 87.5 (Δ +17.5).
- GPQA: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- Aider: 57.0 → 71.6 (Δ +14.6).
Sammenligning med andre modeller (på høyt nivå)
- Sammenlignet med GPT-5 / Gemini 3 Pro (offentlige påstander): DeepSeek-forfatterne og flere pressekanaler hevder nivålikhet eller overlegenhet på utvalgte oppgaver innen resonnering og koding for Speciale-varianten, samtidig som de fremhever kostnadseffektivitet og åpen lisensiering som differensiatorer.
- Sammenlignet med åpne modeller (Olmo, Nemotron, Moonshot osv.): DeepSeek fremhever agentisk trening og DSA som viktige differensiatorer for effektivitet ved lang kontekst.
Representative bruksområder
- Agentiske systemer / orkestrering: multiverktøy-agenter (API-er, webskrapere, koblinger for kodekjøring) som drar nytte av modellnivå-«tenkning» + eksplisitte primitiver for verktøykall.
- Resonnering / analyse av lange dokumenter: juridiske dokumenter, store forskningskorpuser, møtereferater — varianter med lang kontekst (128k token) lar deg beholde svært store kontekster i ett enkelt kall.
- Avansert matematikk- og kodeassistanse:
V3.2-Specialemarkedsføres for avansert matematisk resonnering og omfattende oppgaver innen feilsøking av kode, ifølge leverandørens benchmarker. - Kostnadssensitive produksjonsutrullinger: DSA + prisendringer har som mål å senke inferenskostnadene for arbeidsbelastninger med stor kontekst.
Slik kommer du i gang med å bruke DeepSeek v3.2 API
DeepSeek v3.2 API-prising i CometAPI, 20 % lavere enn offisiell pris:
| Input Tokens | $0.22 |
|---|---|
| Output Tokens | $0.35 |
Påkrevde trinn
- Logg inn på cometapi.com. Hvis du ikke er bruker hos oss ennå, må du registrere deg først
- Skaff tilgangslegitimasjonen API key for grensesnittet. Klikk på «Add Token» under API token i det personlige senteret, hent token-nøkkelen: sk-xxxxx og send inn.
- Hent URL-en til dette nettstedet: https://api.cometapi.com/
Bruksmetode
- Velg endepunktet “
deepseek-v3.2” for å sende API-forespørselen og angi request body. Request method og request body hentes fra API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for enkelhets skyld. - Erstatt <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din.
- Velg Chat-format: Sett inn spørsmålet eller forespørselen din i content-feltet — dette er det modellen vil svare på.
- Behandle API-responsen for å få det genererte svaret.