Home/Models/DeepSeek/DeepSeek-V3.2
D

DeepSeek-V3.2

Indtast:$0.216/M
Output:$0.3456/M
Kontekst:128K
Maks Output:4K
DeepSeek v3.2 er den seneste produktionsversion i DeepSeek V3-familien: en stor sprogmodelfamilie med åbne vægte, der sætter ræsonnement først og er designet til forståelse af lange kontekster, robust brug af agenter/værktøjer samt avanceret ræsonnement, kodning og matematik.
Ny
Kommersiel brug
Oversigt
Funktioner
Priser
API
Versioner

Hvad er DeepSeek v3.2?

DeepSeek v3.2 er den nyeste produktionsudgivelse i DeepSeek V3-familien: en stor, ræsonnerings-først open-weight sprogmodelfamilie designet til langkontekstforståelse, robust agent-/værktøjsbrug, avanceret ræsonnering, kodning og matematik. Udgivelsen samler flere varianter (produktionsversionen V3.2 og en højtydende V3.2-Speciale). Projektet fremhæver omkostningseffektiv langkontekst-inferens via en ny sparsom opmærksomhedsmekanisme kaldet DeepSeek Sparse Attention (DSA) samt agenter/“tænke”-arbejdsgange (“Thinking in Tool-Use”).

Hovedfunktioner (på højt niveau)

  • DeepSeek Sparse Attention (DSA): en mekanisme for sparsom opmærksomhed, der skal reducere beregningsforbruget markant i langkontekst-scenarier, samtidig med at langtrækkende ræsonnering bevares. (Kerneforskningspåstand; anvendes i V3.2-Exp.)
  • Agentisk tænkning + integration af værktøjsbrug: V3.2 lægger vægt på at indlejre “tænkning” i værktøjsbrug: modellen kan køre i ræsonnerings-/tænkningstilstande og i ikke-tænkende (normale) tilstande ved værktøjskald, hvilket forbedrer beslutningstagning i flertrinsopgaver og orkestrering af værktøjer.
  • Storskala pipeline til syntese af agentdata: DeepSeek rapporterer en træningskorpus og en agent-syntesepipeline, der spænder over tusindvis af miljøer og titusinder af komplekse instruktioner for at forbedre robustheden ved interaktive opgaver.
  • DeepSeek Sparse Attention (DSA): DSA er en finkornet metode til sparsom opmærksomhed introduceret i V3.2-linjen (først i V3.2-Exp), som reducerer opmærksomhedskompleksiteten (fra naiv O(L²) til en O(L·k)-stil med k ≪ L) ved at vælge et mindre sæt key/value-tokens pr. query-token. Resultatet er væsentligt lavere hukommelses-/beregningsforbrug for meget lange kontekster (128K), hvilket gør langkontekst-inferens væsentligt billigere.
  • Mixture-of-Experts (MoE)-rygrad og Multi-head Latent Attention (MLA): V3-familien bruger MoE til effektivt at øge kapaciteten (store nominelle parametertal med begrænset aktivering pr. token) sammen med MLA-metoder for at bevare kvaliteten og styre forbruget.

Tekniske specifikationer (kort oversigt)

  • Nominelt parameterrækkevidde: ~671B – 685B (afhængig af variant).
  • Kontekstvindue (dokumenteret reference): 128,000 tokens (128K) i vLLM/referencekonfigurationer.
  • Opmærksomhed: DeepSeek Sparse Attention (DSA) + MLA; reduceret opmærksomhedskompleksitet for lange kontekster.
  • Numerisk- og træningspræcision: BF16 / F32 samt komprimerede kvantiserede formater (F8_E4M3 osv.) tilgængelige for distribution.
  • Arkitekturfamilie: MoE (mixture-of-experts)-rygrad med aktiveringsøkonomi pr. token.
  • Input/output: standard tokeniseret tekstinput (chat-/beskedformater understøttes); understøtter tool-calls (tool-use API-primitiver) samt både interaktive chatlignende kald og programmatisk generering via API.
  • Tilbudte varianter: v3.2, v3.2-Exp (eksperimentel, DSA-debut), v3.2-Speciale (ræsonnerings-først, kun API på kort sigt).

Benchmark-ydelse

Høj-beregning V3.2-Speciale når paritet med eller overgår samtidige high-end-modeller på flere ræsonnerings-/matematik-/kodningsbenchmarks og opnår topkarakterer på udvalgte elite-matematikopgavesæt. Preprintet fremhæver paritet med modeller som GPT-5 / Kimi K2 på udvalgte ræsonneringsbenchmarks samt specifikke forbedringer i forhold til tidligere DeepSeek R1/V3-baselines:

  • AIME: forbedret fra 70.0 til 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

Sammenligning med andre modeller (på højt niveau)

  • Vs GPT-5 / Gemini 3 Pro (offentlige påstande): DeepSeek-forfattere og flere medier hævder paritet eller overlegenhed på udvalgte ræsonnerings- og kodningsopgaver for Speciale-varianten, samtidig med at omkostningseffektivitet og åben licensering fremhæves som differentieringsfaktorer.
  • Vs åbne modeller (Olmo, Nemotron, Moonshot osv.): DeepSeek fremhæver agentisk træning og DSA som nøgle-differentieringer for langkontekst-effektivitet.

Repræsentative anvendelsestilfælde

  • Agentiske systemer/orkestrering: multi-værktøjsagenter (API'er, webscrapers, kodeeksekveringsforbindelser), der drager fordel af modelniveau-“tænkning” + eksplicitte tool-call-primitiver.
  • Langdokument-ræsonnering/-analyse: juridiske dokumenter, store forskningskorpora, mødereferater — langkontekst-varianter (128k tokens) lader dig holde meget store kontekster i ét enkelt kald.
  • Kompleks matematik- og kodeassistance: V3.2-Speciale promoveres til avanceret matematisk ræsonnering og omfattende kodefejlsøgning ifølge leverandørens benchmarks.
  • Omkostningsfølsomme produktionsimplementeringer: DSA + prisændringer sigter mod at sænke inferensomkostningerne for høj-kontekst-arbejdsbelastninger.

Sådan kommer du i gang med at bruge DeepSeek v3.2 API

DeepSeek v3.2 API-priser i CometAPI,20% rabat i forhold til officiel pris:

Input-tokens$0.22
Output-tokens$0.35

Påkrævede trin

  • Log ind på cometapi.com. Hvis du ikke er bruger endnu, skal du først registrere dig
  • Hent API-adgangsnøglen til interfacet. Klik på “Add Token” ved API-token i personcentret, hent token-nøglen: sk-xxxxx og indsend.
  • Hent URL'en til dette site: https://api.cometapi.com/

Brugsmåde

  1. Vælg “deepseek-v3.2”-endpointet for at sende API-anmodningen og angiv anmodningskroppen. Anmodningsmetoden og anmodningskroppen findes i vores websteds API-dokumentation. Vores websted tilbyder også Apifox-test for din bekvemmelighed.
  2. Erstat <YOUR_API_KEY> med din faktiske CometAPI-nøgle fra din konto.
  3. Vælg Chat-format: Indsæt dit spørgsmål eller din forespørgsel i content-feltet — det er dette, modellen vil svare på.
  4. .Behandl API-svaret for at få det genererede svar.

Funktioner til DeepSeek-V3.2

Udforsk de vigtigste funktioner i DeepSeek-V3.2, designet til at forbedre ydeevne og brugervenlighed. Opdag hvordan disse muligheder kan gavne dine projekter og forbedre brugeroplevelsen.

Priser for DeepSeek-V3.2

Udforsk konkurrencedygtige priser for DeepSeek-V3.2, designet til at passe til forskellige budgetter og brugsbehov. Vores fleksible planer sikrer, at du kun betaler for det, du bruger, hvilket gør det nemt at skalere, efterhånden som dine krav vokser. Opdag hvordan DeepSeek-V3.2 kan forbedre dine projekter, mens omkostningerne holdes håndterbare.
Comet-pris (USD / M Tokens)Officiel Pris (USD / M Tokens)Rabat
Indtast:$0.216/M
Output:$0.3456/M
Indtast:$0.27/M
Output:$0.432/M
-20%

Eksempelkode og API til DeepSeek-V3.2

Få adgang til omfattende eksempelkode og API-ressourcer for DeepSeek-V3.2 for at strømline din integrationsproces. Vores detaljerede dokumentation giver trin-for-trin vejledning, der hjælper dig med at udnytte det fulde potentiale af DeepSeek-V3.2 i dine projekter.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="deepseek-v3.2-exp",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Versioner af DeepSeek-V3.2

Årsagen til, at DeepSeek-V3.2 har flere øjebliksbilleder kan omfatte potentielle faktorer såsom variationer i output efter opdateringer, der kræver ældre øjebliksbilleder for konsistens, at give udviklere en overgangsperiode til tilpasning og migration, og at forskellige øjebliksbilleder svarer til globale eller regionale slutpunkter for at optimere brugeroplevelsen. For detaljerede forskelle mellem versioner, henvises der til den officielle dokumentation.
deepseek-v3.2
DeepSeek-V3.2-Exp-nothinking
DeepSeek-V3.2-Exp-thinking

Flere modeller