DeepSeek-V3.2

DeepSeek
deepseek-v3.2
Inndata:$0.22/M
Utdata:$0.35/M
Kontekst:128K
Maks utdata:4K
DeepSeek v3.2 er den nyeste produksjonsversjonen i DeepSeek V3-familien: en stor, resonneringsdrevet språkmodellfamilie med åpne vekter, utformet for forståelse av lange kontekster, robust bruk av agenter og verktøy, avansert resonnement, koding og matematikk.

Hva er DeepSeek v3.2?

DeepSeek v3.2 er den nyeste produksjonsutgaven i DeepSeek-V3-familien: en stor, resonneringsfokusert åpenvekt-modellfamilie designet for langkontekstforståelse, robust agent-/verktøybruk, avansert resonnering, koding og matematikk. Utgivelsen inkluderer flere varianter (produksjonsklar V3.2 og en høyytelses V3.2-Speciale). Prosjektet vektlegger kostnadseffektiv inferens for lange kontekster gjennom en ny sparsom oppmerksomhetsmekanisme kalt DeepSeek Sparse Attention (DSA) og agent-/«tenke»-arbeidsflyter («Thinking in Tool-Use»).

Hovedfunksjoner (overordnet nivå)

  • DeepSeek Sparse Attention (DSA): en sparsom oppmerksomhetsmekanisme ment å dramatisk redusere beregningskostnader i langkontekst-scenarier samtidig som langtrekkende resonnering bevares. (Kjernepåstand i forskningen; brukt i V3.2-Exp.)
  • Agentisk tenkning + verktøybruk-integrasjon: V3.2 vektlegger å innbygge «tenkning» i verktøybruk: modellen kan operere i resonnerings-/tenkemoduser og i ikke-tenkemoduser (normale) ved verktøykall, noe som forbedrer beslutningstaking i flertrinnsoppgaver og verktøyorkestrering.
  • Storskala agentdatasyntese-pipeline: DeepSeek rapporterer et treningskorpus og en agent-syntesepipeline som spenner over tusenvis av miljøer og titusenvis av komplekse instruksjoner for å forbedre robusthet i interaktive oppgaver.
  • DeepSeek Sparse Attention (DSA): DSA er en finmasket sparsom oppmerksomhetsmetode introdusert i V3.2-linjen (først i V3.2-Exp) som reduserer oppmerksomhetskompleksitet (fra naiv O(L²) til en O(L·k)-stil med k ≪ L), ved å velge et mindre sett med nøkkel-/verditokener per spørringstoken. Resultatet er vesentlig lavere minne-/beregning for svært lange kontekster (128K), noe som gjør langkontekst-inferens materielt billigere.
  • Mixture-of-Experts (MoE)-ryggrad og Multi-head Latent Attention (MLA): V3-familien bruker MoE for å øke kapasitet effektivt (store nominelle parametertall med begrenset per-token-aktivering) sammen med MLA-metoder for å opprettholde kvalitet og kontrollere beregning.

Tekniske spesifikasjoner (kortfattet tabell)

  • Nominelt parameterområde: ~671B–685B (avhengig av variant).
  • Kontekstvindu (dokumentert referanse): 128 000 tokens (128K) i vLLM/referansekonfigurasjoner.
  • Oppmerksomhet: DeepSeek Sparse Attention (DSA) + MLA; redusert oppmerksomhetskompleksitet for lange kontekster.
  • Numerisk og treningspresisjon: BF16/F32 og komprimerte kvantiserte formater (F8_E4M3 osv.) tilgjengelig for distribusjon.
  • Arkitekturfamilie: MoE (mixture-of-experts)-ryggrad med per-token aktiveringsøkonomi.
  • Inndata/utdata: standard tokenisert tekstinndata (chat-/meldingsformater støttes); støtter verktøykall (API-primitiver for verktøybruk) samt både interaktive chat-stilkall og programatiske fullføringer via API.
  • Tilbudte varianter: v3.2, v3.2-Exp (eksperimentell, DSA-debut), v3.2-Speciale (resonneringsfokus, kun API på kort sikt).

Ytelse på benchmarks

Høyytelsesvarianten V3.2-Speciale oppnår paritet med eller overgår samtidige toppmodeller på flere resonnerings-/matte-/kode-benchmarks, og oppnår toppresultater på utvalgte elite-matteoppgavesett. Preprinten fremhever paritet med modeller som GPT-5/Kimi K2 på utvalgte resonneringsbenchmarker, spesifikke forbedringer sammenlignet med tidligere DeepSeek R1/V3-baselines:

  • AIME: forbedret fra 70.0 til 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

Sammenligning med andre modeller (overordnet nivå)

  • Vs GPT-5 / Gemini 3 Pro (offentlige påstander): DeepSeek-forfattere og flere pressekanaler hevder paritet eller overlegenhet på utvalgte resonnerings- og kodingsoppgaver for Speciale-varianten, samtidig som kostnadseffektivitet og åpen lisensiering fremheves som differensiatorer.
  • Vs åpne modeller (Olmo, Nemotron, Moonshot, osv.): DeepSeek fremhever agentisk trening og DSA som nøkkeldifferensiatorer for langkonteksteffektivitet.

Representative bruksområder

  • Agentiske systemer/orkestrering: multi-verktøy-agenter (API-er, webskrapere, kodekjøringskoblinger) som drar nytte av modellnivå «tenkning» + eksplisitte verktøykall-primitiver.
  • Resonnering/analyse av lange dokumenter: juridiske dokumenter, store forskningskorpora, møtereferater — langkontekst-varianter (128k tokens) lar deg beholde svært store kontekster i ett enkelt kall.
  • Kompleks matte- og kodeassistanse: V3.2-Speciale markedsføres for avansert matematisk resonnering og omfattende kodefeilsøking i henhold til leverandørens benchmarks.
  • Kostnadssensitive produksjonsutrullinger: DSA + prisendringer har som mål å redusere inferenskostnader for arbeidslaster med høy kontekstmengde.

Slik kommer du i gang med å bruke DeepSeek v3.2 API

DeepSeek v3.2 API-priser i CometAPI, 20 % rabatt i forhold til offisiell pris:

Inndata-tokens$0.22
Utdata-tokens$0.35

Nødvendige trinn

  • Logg inn på cometapi.com. Hvis du ikke er bruker ennå, registrer deg først
  • Hent tilgangslegitimasjonen API-nøkkel for grensesnittet. Klikk «Add Token» ved API token i personlig senter, hent token-nøkkelen: sk-xxxxx og send inn.
  • Hent URL-adressen til dette nettstedet: https://api.cometapi.com/

Bruksmåte

  1. Velg endepunktet «deepseek-v3.2» for å sende API-forespørselen og sett forespørselens body. Forespørselsmetode og forespørselsbody hentes fra API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for enkelhets skyld.
  2. Erstatt <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din.
  3. Velg Chat-format: Sett inn spørsmålet eller forespørselen din i feltet content—det er dette modellen vil svare på.
  4. Behandle API-responsen for å hente det genererte svaret.

Flere modeller