Tekniske spesifikasjoner
| Element | DeepSeek-V4-Pro |
|---|---|
| Leverandør | DeepSeek |
| API-modellnavn | deepseek-v4-pro |
| Base-URL-er | https://api.deepseek.com and https://api.deepseek.com/anthropic |
| Inndatatype | Text |
| Utdatatype | Text, tool calls, reasoning output |
| Kontekstlengde | 1,000,000 tokens |
| Maksimal utdata | 384,000 tokens |
| Resonneringsmoduser | Non-thinking, thinking (default) |
| Standardinnstillinger for agent/koding | reasoning_effort can be set as high; complex agent requests may use max |
| Støttede funksjoner | JSON Output, Tool Calls, Chat Prefix Completion (beta), FIM Completion (beta in non-thinking mode) |
| Lokal/åpne-vekter-utgivelse | 1.6T total parameters, 49B activated parameters, FP4 + FP8 mixed precision |
| Lisens (modellkort) | MIT |
| Referansemodellkort | DeepSeek-V4-Pro preview on Hugging Face |
Hva er DeepSeek-V4-Pro?
DeepSeek-V4-Pro er det sterkere medlemmet i DeepSeeks V4 forhåndsvisningsfamilie. Det offisielle modellkortet beskriver den som en MoE-modell med 1,6T parametere, 49B aktiverte parametere og et kontekstvindu på én million token, rettet mot kunnskapsarbeid med lang horisont, kodegenerering og agentoppgaver. API-dokumentasjonen eksponerer den via DeepSeeks standard chat-completions-grensesnitt og støtter både OpenAI- og Anthropic-lignende SDK-stiler.
Hovedfunksjoner
- Million-token-kontekst: DeepSeek dokumenterer en kontekstkapsitet på 1M-token, noe som gjør modellen egnet for svært store dokumentsett, kodelagre og flertrinns agentsesjoner.
- To resonnementstilstander: API-et støtter non-thinking og thinking; thinking er standard, og dokumentasjonen påpeker at komplekse agentforespørsler som Claude Code eller OpenCode automatisk kan bruke
maxinnsats. - Støtte for verktøykall: DeepSeeks thinking-modus støtter verktøykall, noe som er viktig for agenter som trenger søk, filoperasjoner eller eksterne funksjoner.
- Effektivitet for lang kontekst: Modellkortet sier at V4 bruker et hybrid attention-design med Compressed Sparse Attention og Heavily Compressed Attention for å redusere beregning og KV-cache-kostnader for lange kontekster sammenlignet med V3.2. citeturn980363view2
- Fokus på koding og resonnement: DeepSeek sier at V4-Pro-Max-resonneringsmodus forbedrer kode-benchmarks og lukker mye av gapet til ledende lukkede modeller på resonnement og agentiske oppgaver. citeturn980363view2
- SDK-fleksibilitet: Den kan nås via standard OpenAI-kompatible chat-completions eller via DeepSeeks Anthropic-kompatible endepunkt for verktøyorienterte arbeidsflyter.
Benchmark-ytelse
Det offisielle DeepSeek-modellkortet rapporterer følgende evalueringsresultater for basismodellfamilien og for sammenligningssettet V4-Pro-Max. I basismodelltabellen scorer V4-Pro høyere enn V3.2-Base på flere kunnskaps- og langkontekst-benchmarks, inkludert MMLU-Pro (73.5 vs. 65.5), FACTS Parametric (62.6 vs. 27.1) og LongBench-V2 (51.5 vs. 40.2).
| Benchmark | V3.2-Base | V4-Flash-Base | V4-Pro-Base |
|---|---|---|---|
| MMLU-Pro (EM) | 65.5 | 68.3 | 73.5 |
| FACTS Parametric (EM) | 27.1 | 33.9 | 62.6 |
| HumanEval (Pass@1) | 62.8 | 69.5 | 76.8 |
| LongBench-V2 (EM) | 40.2 | 44.7 | 51.5 |
Det samme modellkortet viser også at V4-Pro-Max fortsatt er konkurransedyktig med toppmodeller på utvalgte oppgaver. For eksempel oppnår den 87.5 på MMLU-Pro, 57.9 på SimpleQA-Verified, 90.1 på GPQA Diamond og 67.9 på Terminal Bench 2.0 i den publiserte sammenligningstabellen.
DeepSeek-V4-Pro vs DeepSeek-V4-Flash vs DeepSeek-V3.2
| Modell | Best egnet | Kontekst | Notater |
|---|---|---|---|
| DeepSeek-V4-Pro | Tungt resonnement, koding, agenter, store dokumenter | 1M | Største V4-modell, 49B aktiverte parametere, sterkeste totale kapasitet i serien. citeturn980363view2turn980363view0 |
| DeepSeek-V4-Flash | Raskere, lettere generell bruk | 1M | Mindre 284B/13B-modell, støtter fortsatt thinking og verktøykall. citeturn980363view2turn980363view0 |
| DeepSeek-V3.2 | Forrige generasjons langkontekst-baseline | 128K i tidligere API-dokumentasjon; V4 bruker et annet 1M-kontekstdesign | Nyttig som referansepunkt for effektivitetsgevinster; V4-Pros modellkort rapporterer store reduksjoner i FLOPs for lang kontekst og KV-cache kontra V3.2. citeturn321011view1turn980363view2 |
Beste bruksområder
- Kodeassistenter og refaktoringsverktøy på lagernivå
- Analyse og syntese av lange dokumenter
- Verktøybrukende agenter som trenger flertrinns resonnement
- Tekniske støttearbeidsflyter som drar nytte av lang hukommelse og strukturerte utdata
- Kinesiske og flerspråklige kunnskapsoppgaver der modellkortet viser sterk benchmark-ytelse
Slik får du tilgang til og bruker Deepseek v4 pro API
Trinn 1: Registrer deg for API-nøkkel
Logg inn på cometapi.com. Hvis du ikke er bruker ennå, registrer deg først. Logg inn i din CometAPI-konsoll. Hent tilgangslegitimasjonen (API-nøkkel) til grensesnittet. Klikk “Add Token” ved API token i det personlige senteret, få token-nøkkelen: sk-xxxxx og send inn.
Trinn 2: Send forespørsler til Deepseek v4 proAPI
Velg endepunktet “deepseek-v4-pro” for å sende API-forespørselen og sett forespørselens body. Forespørselsmetoden og bodyen hentes fra API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for din bekvemmelighet. Erstatt <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din. Hvor å kalle det: Anthropic Messages-format og Chat-format.
Sett inn spørsmålet eller forespørselen din i content-feltet—det er dette modellen vil svare på. Behandle API-responsen for å hente det genererte svaret.
Trinn 3: Hent og verifiser resultater
Behandle API-responsen for å hente det genererte svaret. Etter behandling svarer API-et med oppgavens status og utdata. Aktiver funksjoner som streaming, prompt-caching eller håndtering av lang kontekst via standardparametere.