Deepseek V4-API gebruiken

CometAPI
AnnaApr 24, 2026
Deepseek V4-API gebruiken

DeepSeek V4 is niet langer slechts een gerucht of teaser. Per 24 april 2026 melden de officiële documenten van DeepSeek dat de V4‑preview live is, open source is, en beschikbaar is in de API, met twee varianten: DeepSeek‑V4‑Pro en DeepSeek‑V4‑Flash. De officiële release benadrukt een contextvenster van 1M tokens, twee redeneermodi, en API‑compatibiliteit met zowel OpenAI ChatCompletions als Anthropic‑formaten. DeepSeek zegt ook dat de verouderde modelnamen deepseek-chat en deepseek-reasoner op 24 juli 2026 worden uitgefaseerd.

Voor ontwikkelaars is die combinatie om één simpele reden belangrijk: ze verlaagt de migratiewrijving terwijl ze de lat verhoogt voor wat je kunt bouwen. Je leert geen volledig nieuwe API‑vorm. Je werkt de modelnaam bij, behoudt de base‑URL en levert tegen een groter contextvenster met nieuwer redeneergedrag. De officiële documenten van DeepSeek zeggen expliciet dat je de base‑URL moet behouden en de modelparameter moet wijzigen naar deepseek-v4-pro of deepseek-v4-flash.

Op productniveau is V4‑Pro het sterkere model voor agent‑gebaseerd coderen, wereldkennis en moeilijk redeneren, terwijl V4‑Flash de snellere en voordeligere optie is die nog steeds goed presteert op eenvoudigere agent‑taken. CometAPI biedt tegen zeer lage kosten toegang tot beide modellen.

DeepSeek V4 Prestatiebenchmarks

DeepSeek’s preview‑release beschrijft V4‑Pro als een model met 1.6T totaal / 49B actieve parameters en V4‑Flash als 284B totaal / 13B actieve parameters. In dezelfde aankondiging zegt DeepSeek dat V4‑Pro state‑of‑the‑art (SOTA) resultaten in open source levert op agent‑gebaseerde coding‑benchmarks, de huidige open modellen leidt op wereldkennis (met uitzondering van Gemini 3.1 Pro), en de huidige open modellen verslaat in wiskunde, STEM en coderen, terwijl het de top van gesloten modellen benadert. V4‑Flash wordt intussen beschreven als benaderend aan de redeneerkwaliteit van V4‑Pro en gelijkwaardig op eenvoudige agent‑taken, terwijl het kleiner, sneller en goedkoper is om te draaien.

V4‑Pro verbetert ten opzichte van V3.2‑Base op verschillende representatieve taken, waaronder MMLU‑Pro, FACTS Parametric, HumanEval en LongBench‑V2. Dat maakt de release extra relevant voor teams die long‑context‑assistenten, code‑intensieve workflows en kennisintensieve apps bouwen.

Benchmarktabel: V3.2 vs V4‑Flash vs V4‑Pro

BenchmarkV3.2-BaseV4-Flash-BaseV4-Pro-Base
AGIEval (EM)80.182.683.1
MMLU (EM)87.888.790.1
MMLU-Pro (EM)65.568.373.5
HumanEval (Pass@1)62.869.576.8
LongBench-V2 (EM)40.244.751.5

Wat de cijfers in de praktijk betekenen

Als je een chatbot bouwt, kan het benchmarkverschil abstract aanvoelen. Als je een coding‑assistent op repository‑schaal, een tool voor contractanalyse of een interne agent bouwt die een lange taak over meerdere toolaanroepen moet bijhouden, wordt het benchmarkprofiel heel concreet. Hogere long‑context‑scores kunnen zich vertalen in minder gemiste details, betere redenering over meerdere documenten en minder “kunt u dat herhalen?”‑momenten binnen een echte workflow. Precies daarom benadrukt de release van DeepSeek long‑context‑efficiëntie en agent‑gedrag in plaats van alleen ruwe chatkwaliteit.

DeepSeek V4 API gebruiken

Zo kun je de integratie het duidelijkst benaderen:

DeepSeek V4 gebruikt hetzelfde API‑oppervlak als eerdere DeepSeek‑chatmodellen, maar je schakelt over naar de nieuwe V4‑modelnaam, behoudt de base‑URL en kiest of je V4‑Pro of V4‑Flash wilt. CometAPI bevestigt ook ondersteuning voor zowel OpenAI‑stijl als Anthropic‑stijl interfaces.

Stap 1 — Verkrijg API-toegang

De documentatie voor de eerste aanroep van DeepSeek zegt dat je een API‑sleutel van het DeepSeek‑platform nodig hebt voordat je het model kunt aanroepen. De officiële documenten tonen het chat‑endpoint, het bearer‑token‑patroon en de huidige V4‑modelnamen.

Stap 2 — Stel de base-URL en modelnaam in

Voor de officiële DeepSeek‑API zijn de gedocumenteerde base‑URL’s:

De modelnamen zijn deepseek-v4-flash en deepseek-v4-pro. DeepSeek geeft ook aan dat deepseek-chat en deepseek-reasoner verouderde namen zijn die tijdens de transitieperiode mappen naar V4‑Flash‑gedrag en op 2026-07-24 worden uitgefaseerd.

Stap 3 — Verzend je eerste request

Een minimale OpenAI‑compatibele request ziet er zo uit:

curl https://api.deepseek.com/chat/completions \  -H "Content-Type: application/json" \  -H "Authorization: Bearer $DEEPSEEK_API_KEY" \  -d '{    "model": "deepseek-v4-pro",    "messages": [      {"role": "system", "content": "Je bent een behulpzame assistent."},      {"role": "user", "content": "Leg het verschil uit tussen V4-Pro en V4-Flash."}    ],    "stream": false  }'

De officiële documenten van DeepSeek tonen hetzelfde request‑patroon en bevestigen dat streaming kan worden ingeschakeld door stream op true te zetten.

Stap 4 — Schakel denkmodus, tool-calls en streaming in

V4‑modellen ondersteunen thinking‑/non‑thinking‑modi, JSON‑output, tool‑calls en chat‑prefix‑completion. De modellen ondersteunen ook tot 1M context en een maximale output van 384K tokens.

Een praktische Python‑voorbeeld:

from openai import OpenAIclient = OpenAI(
    base_url="https://api.cometapi.com",
    api_key="YOUR_DEEPSEEK_API_KEY",
)response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "Je bent een senior code-assistent."},
        {"role": "user", "content": "Beoordeel deze architectuur op knelpunten."}
    ],
    stream=False,
    extra_body={
        "thinking": {"type": "enabled"},
        "reasoning_effort": "high"
    }
)print(response.choices[0].message.content)

Dat patroon weerspiegelt de gedocumenteerde ondersteuning van DeepSeek voor regelbare reasoning en denkmodus.

Stap 5 — Testen en productieklaar maken

Controleer drie zaken voordat je dit naar productie brengt:

  1. Of je workload daadwerkelijk profiteert van het grotere contextvenster.
  2. Of het model standaard moet “denken” of snel moet antwoorden in non‑thinking‑modus.
  3. Of tool‑calling essentieel is voor de workflow, vooral voor agents en coding‑assistenten.

V4 is ontworpen voor agent‑use‑cases en integreert al met tools zoals Claude Code en OpenCode.

DeepSeek V4‑Pro vs V4‑Flash vs V3.2

Voor de meeste teams is de juiste vraag niet “Welk model is het best?” maar “Welk model is het best voor deze workload?” Het antwoord hangt af van latentie, kosten, diepte van redeneren en contextlengte. De release van DeepSeek positioneert V4‑Pro als het vlaggenschip voor zwaar redeneren en agent‑gebaseerd coderen, terwijl V4‑Flash de efficiënte keuze is voor workloads met hoge doorvoer die nog steeds sterke long‑context‑capaciteiten nodig hebben. V3.2 blijft de oudere basislijn voor vergelijking en migratieplanning.

ModelBeste keuze voorSterktesAfweging
DeepSeek V4-ProZwaar redeneren, coderen, agents, researchSterkste algehele capaciteit in V4; best voor moeilijke takenHogere kosten en zwaardere compute‑footprint
DeepSeek V4-FlashSnelle assistenten, workflows met lange documenten, hoge doorvoerSnellere reacties; voordelig; ondersteunt nog steeds 1M contextIets zwakker op de moeilijkste kennisintensieve taken
DeepSeek V3.2Baselinevergelijkingen, migratieplannenHandig als referentiepuntOudere generatie; niet de beoogde staat voor nieuwe implementaties

Dit is de praktische blik die ik voor productteams zou hanteren:
Als de workflow mission‑critical is, begin met V4‑Pro.
Als de workflow volumegedreven en latentiegevoelig is, begin met V4‑Flash.
Als je een bestaand systeem migreert, gebruik V3.2 als benchmarkreferentie, niet als eindbestemming.

Waar DeepSeek V4 het best past

Coding‑assistenten

De release van DeepSeek noemt specifiek agent‑gebaseerde codeerprestaties en integratie met tools zoals Claude Code en OpenCode. Dat maakt V4 bijzonder aantrekkelijk voor code‑review‑copilots, refactoring‑assistenten op repo‑schaal en ontwikkelaarsgerichte agents die een lange taakstatus over meerdere beurten moeten onthouden.

Analyse van lange documenten

Het contextvenster van 1M tokens is de headline‑feature, maar de echte winst is wat dat mogelijk maakt: lange contracten, due‑diligence‑pakketten, incidentlogs, support‑wiki’s en interne knowledge bases kunnen worden verwerkt zonder alles in kleine stukjes te hakken. De documenten van DeepSeek kaderen de release expliciet rond ultra‑hoge contextefficiëntie en lagere compute/geheugenkosten.

Agent‑workflows

Als je product toolaanroepen, meerstapsplanning of gekoppelde acties gebruikt, is V4 interessanter dan een generiek chatmodel. DeepSeek zegt dat beide V4‑varianten tool‑calls en denkmodi ondersteunen, en de preview‑release zegt dat V4 is geoptimaliseerd voor agent‑capaciteit.

Zoek-, research- en supportsystemen

Teams die zoekintensieve researchtools of klantenservicesystemen bouwen, hebben vaak zowel recall als structuur nodig. De gedocumenteerde ondersteuning van DeepSeek voor JSON‑output en lange outputlengtes maakt V4 een geloofwaardige fit voor die systemen, vooral wanneer de gebruikerservaring afhankelijk is van stabiele, gestructureerde antwoorden in plaats van korte conversatiereplies.

Best practices voor gebruik van de DeepSeek‑V4 API in productie

Kies eerst het model per workload in plaats van uit gewoonte. Gebruik V4‑Flash voor parsing van lange documenten, high‑throughput assistenten en snelle agent‑loops. Gebruik V4‑Pro wanneer de taak afhankelijk is van zwaarder redeneren, rijkere kennis of betrouwbaardere prestaties bij complexe coding‑ en research‑workflows. De eigen preview‑notities van DeepSeek en pagina’s van derden wijzen beide in die richting.

Ontwerp vervolgens rondom het contextvenster van 1M tokens, maar ga er niet van uit dat meer context altijd betere antwoorden betekent. Grote context is waardevol voor contracten, codebases, researchpakketten en support‑knowledge‑bases, maar profiteert nog steeds van goede retrieval, chunking en samenvattingsdiscipline. DeepSeek kadert V4 expliciet rond long‑context‑efficiëntie en zegt dat 1M context de standaard is in zijn officiële services.

Houd je prompting gestructureerd. Omdat V4 JSON‑output en tool‑calls ondersteunt, is het een goede kandidaat voor workflows zoals extractie, classificatie, documenttriage, agent‑routing en code‑assistentie. Dit zijn de gebieden waar een model met lange context en expliciet redeneren vaak het beste tot zijn recht komt.

Let ten slotte goed op de migratietiming. Als je stack nog deepseek-chat of deepseek-reasoner aanroept, plan dan nu het upgradepad. DeepSeek geeft aan dat deze verouderde namen op 2026-07-24 worden uitgefaseerd en dat ze momenteel mappen naar V4‑Flash‑modi voor compatibiliteit.

Veelvoorkomende fouten om te vermijden

V4 behandelen als een generiek chatmodel

De meest voorkomende fout is om DeepSeek V4 te behandelen als een normale Q&A‑bot en daar te stoppen. Daarmee laat je performance liggen. De release draait expliciet om redeneren, coderen, tools en long‑context‑gebruik. Als je die mogelijkheden niet benut, betaal je vooral voor speelruimte die je niet gebruikt.

Contextlimieten en redeneermodi negeren

Een andere fout is aannemen dat “1M context” betekent dat je promptontwerp kunt negeren. Je hebt nog steeds een duidelijke structuur, relevantiefiltering en een verstandige geheugenstrategie nodig. DeepSeek ondersteunt denk‑ en niet‑denkmodus, dus jouw app moet bewust beslissen wanneer je tokens inzet voor dieper redeneren en wanneer je snel antwoordt.

Te laat migreren weg van verouderde modelnamen

DeepSeek heeft al aangekondigd dat deepseek-chat en deepseek-reasoner op 2026-07-24 worden uitgefaseerd. Als je product die namen nog hardcoded heeft, is migratieschuld niet meer theoretisch. Het is een datum in de agenda.

Tool‑calls, JSON‑output en agent‑workflows

DeepSeek‑V4 ondersteunt tool‑calls en JSON‑output, waardoor het geschikt is voor gestructureerde automatisering in plaats van alleen platte chat, en tool‑call‑gebruik in zowel niet‑denkmodus als denkmodus, wat betekent dat het model kan redeneren, een tool kan aanroepen en vervolgens de respons kan vervolgen met de nieuwe informatie.

Voor agent‑workflows is één detail extra belangrijk: wanneer een denkbeurt tool‑calls omvat, moet de reasoning_content volledig worden doorgegeven in volgende requests. Dat is een implementatiedetail op productieniveau, geen voetnoot, omdat agent‑systemen vaak falen wanneer ze tussentijdse redeneerstates afkappen of verkeerd afhandelen.

Conclusie

DeepSeek V4 is een betekenisvolle upgrade voor teams die waarde hechten aan long‑context‑redeneren, code‑assistentie en agent‑workflows. De officiële release zet er echt gewicht achter: twee modelvarianten, compatibiliteit met OpenAI en Anthropic, 1M context, ondersteuning voor tool‑calls en een duidelijke migratieroute vanaf oudere DeepSeek‑modelnamen.

Als je use‑case complex, latentiegevoelig of gebaseerd is op meerstapsredeneren, is V4‑Pro het eerste model om te testen. Als je prioriteit ligt bij snelheid, doorvoer en kostenbeheersing, is V4‑Flash het betere startpunt. En als je sneller wilt leveren over meerdere modelproviders zonder integratiechaos toe te voegen, is CometAPI gepositioneerd als een praktische laag voor toegang, observability en modelportabiliteit.

Klaar om de AI-ontwikkelingskosten met 20% te verlagen?

Start gratis in enkele minuten. Gratis proeftegoeden inbegrepen. Geen creditcard vereist.

Lees Meer