DeepSeek V3.1 API

CometAPI
AnnaAug 21, 2025
DeepSeek V3.1 API

DeepSeek V3.1 er den nyeste oppgraderingen i DeepSeeks V-serie: en hybrid «thinking / non-thinking» stor språkmodell rettet mot høy gjennomstrømning, lav kostnad for generell intelligens og agentbasert verktøybruk. Den beholder OpenAI-stil API-kompatibilitet, legger til smartere verktøykalling, og—ifølge selskapet—gir raskere generering og forbedret agentpålitelighet.

Grunnleggende funksjoner (hva den tilbyr)

  • To inferensmoduser: deepseek-chat (ikke-tenkende / raskere) og deepseek-reasoner (tenkende / sterkere kjede-av-tanker/agent-ferdigheter). UI-et viser en «DeepThink»-bryter for sluttbrukere.
  • Lang kontekst: offisielt materiell og fellesskapsrapporter vektlegger et 128k token kontekstvindu for V3-familiens avstamning. Dette muliggjør ende-til-ende-behandling av svært lange dokumenter.
  • Forbedret håndtering av verktøy/agenter: ettertreningsoptimalisering målrettet mot pålitelige verktøykall, flerstegs agentarbeidsflyter og tillegg-/verktøyintegrasjoner.

Tekniske detaljer (arkitektur, trening og implementering)

Treningskorpus og langkontekst-ingeniørarbeid. DeepSeek V3.1-oppdateringen vektlegger en tofases langkontekst-utvidelse oppå tidligere V3-sjekkpunkter: offentlige notater indikerer betydelige ekstra tokens viet til 32k- og 128k-utvidelsesfaser (DeepSeek rapporterer hundrevis av milliarder tokens brukt i utvidelsestrinnene). Utgivelsen oppdaterte også tokeniseringskonfigurasjonen for å støtte de større kontekstregimene.

Modellstørrelse og mikroskalering for inferens. Offentlige og fellesskapsrapporter gir noe ulike parametertall (et vanlig resultat ved nye utgivelser): tredjepartsindekserere og speil lister ~671B parametere (37B aktive) i noen kjøretidsbeskrivelser, mens andre fellesskapsoppsummeringer rapporterer ~685B som den hybride resonnementarkitekturens nominelle størrelse.

Inferensmoduser og ingeniørmessige avveininger. DeepSeek V3.1 eksponerer to pragmatiske inferensmoduser: deepseek-chat (optimalisert for standard turbasert chat, lavere ventetid) og deepseek-reasoner (en «tenkende» modus som prioriterer tankerekker og strukturert resonnement).

Begrensninger og risikoer

  • Modenhet og reproduserbarhet for benchmarker: mange ytelsespåstander er tidlige, fellesskapsdrevne eller selektive. Uavhengige, standardiserte evalueringer er fortsatt i innhentingsfasen. (Risiko: overdrevne påstander).
  • Sikkerhet og hallusinasjoner: som alle store LLM-er er DeepSeek V3.1 utsatt for hallusinasjoner og risiko for skadelig innhold; sterkere resonnementmoduser kan noen ganger produsere selvsikre, men feilaktige flerstegsresultater. Brukere bør anvende sikkerhetslag og menneskelig gjennomgang ved kritiske utdata. (Ingen leverandør eller uavhengig kilde hevder å eliminere hallusinasjoner.)
  • Inferenskostnad og ventetid: resonnementmodus bytter ventetid mot kapasitet; for storskala forbrukerinferens øker dette kostnaden. Noen kommentatorer bemerker at markedets reaksjon på åpne, billige, høyhastighetsmodeller kan være volatil.

Vanlige og overbevisende bruksområder

  • Analyse og oppsummering av lange dokumenter: jus, FoU, litteraturgjennomganger — utnytt 128k-token-vinduet for ende-til-ende-oppsummeringer.
  • Agentarbeidsflyter og orkestrering av verktøy: automatiseringer som krever flerstegs verktøykall (API-er, søk, kalkulatorer). DeepSeek V3.1s ettertreningstilpasning av agenter er ment å forbedre påliteligheten her.
  • Kodegenerering og programvareassistanse: tidlige benchmarkrapporter vektlegger sterk programmeringsytelse; egnet for parprogrammering, kodegjennomgang og generering med menneskelig tilsyn.
  • Bedriftsdistribusjon der valg mellom kostnad/ventetid betyr noe: velg chat-modus for billige/raskere konversasjonelle assistenter og reasoner for frakoblede eller premium oppgaver med dypt resonnement.

Slik kaller du Deepseek V3.1 API fra CometAPI

deepseek v3.1 API-priser i CometAPI, 20 % lavere enn offisiell pris:

Input Tokens$0.44
Output Tokens$1.32

Obligatoriske trinn

  • Logg inn på cometapi.com. Hvis du ikke er bruker ennå, registrer deg først
  • Hent tilgangslegitimasjonen API-nøkkel for grensesnittet. Klikk «Add Token» ved API token i personlig senter, hent token-nøkkelen: sk-xxxxx og send inn.
  • Hent URL-en til dette nettstedet: https://api.cometapi.com/

Bruksmåte

  1. Velg endepunktet “deepseek-v3.1“ / “deepseek-v3-1-250821” for å sende API-forespørselen og sett forespørselens body. Forespørselsmetoden og body hentes fra API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for din bekvemmelighet.
  2. Bytt ut <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din.
  3. Sett inn spørsmålet eller forespørselen i content-feltet—det er dette modellen svarer på.
  4. . Behandle API-responsen for å hente den genererte besvarelsen.

API-kall

CometAPI tilbyr et fullt kompatibelt REST-API—for sømløs migrering. Viktige detaljer til API doc:

  • Kjerneparametere: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endepunkt: https://api.cometapi.com/v1/chat/completions
  • Modellparameter:deepseek-v3.1“ / “deepseek-v3-1-250821
  • Autentisering: Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json.

Bytt ut CometAPI_API_KEY med nøkkelen din; merk den base URL.

Python

from openai import OpenAI

client = OpenAI(
    api_key=os.environ,
    base_url="https://api.cometapi.com/v1/chat/completions"  # important

)

resp = client.chat.completions.create(
    model="deepseek-v3.1",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Summarize this PDF in 5 bullets."}
    ],
    temperature=0.3,
    response_format={"type": "json_object"}  # for structured outputs

)
print(resp.choices.message.content)

Se også Grok 4

Les mer

500+ modeller i ett API

Opptil 20 % rabatt