In een zet die rimpelingen door de mondiale AI-gemeenschap heeft gestuurd, heeft DeepSeek stilletjes een grijsschaaltest van zijn langverwachte V4-model op het web uitgerold. Uitgelekte interface-screenshots onthullen een transformerend systeem met drie modi—Fast, Expert en Vision—dat DeepSeek V4 positioneert als een multimodale krachtpatser met diep-redenerende capaciteiten die kunnen rivaliseren met of zelfs beter presteren dan toonaangevende modellen zoals Claude Opus en GPT-5-varianten.
Dit is niet zomaar een incrementele update. Met naar verluidt 1 biljoen parameters, een contextvenster van 1 miljoen tokens aangedreven door een nieuwe Engram-geheugenarchitectuur, en native beeld-/videoprocessing belooft DeepSeek V4 prestaties op ondernemingsniveau te leveren tegen consumentvriendelijke kosten. Of je nu een ontwikkelaar bent die agents bouwt, een onderzoeker die complexe analyses aanpakt, of een bedrijf dat op zoek is naar geavanceerde multimodale AI—deze gids behandelt alles wat je moet weten.
Bij CometAPI volgen we DeepSeek’s evolutie op de voet. Als een verenigd AI-API-platform dat DeepSeek V3.2 en eerdere modellen biedt tot 20% onder de officiële prijzen met naadloze, OpenAI-compatibele endpoints, zijn we enthousiast over de integratie van V4. Later in deze post laten we zien hoe CometAPI je workflows toekomstbestendig kan maken zodra V4 volledig live gaat.
Wat is DeepSeek V4?
DeepSeek V4 vertegenwoordigt de volgende evolutie in het vlaggenschip van het Chinese AI-lab’s V-serie. Voortbouwend op het succes van DeepSeek-V3 en V3.2—die hybride denk-/niet-denk-modussen en sterke agent-capaciteiten introduceerden—schaalt V4 dramatisch op in omvang, intelligentie en veelzijdigheid.
Industrie-analisten schatten V4 als een Mixture-of-Experts (MoE)-model met meer dan 1 biljoen totale parameters, met slechts ~37-40 miljard actief per token voor efficiëntie. Deze architectuur, verfijnd op basis van V3’s MoE-fundament, activeert gespecialiseerde “experts” dynamisch, waardoor inferentiekosten worden gedrukt en prestaties op het gebied van coderen, wiskunde en lang-contexttaken toenemen.
Belangrijkste onderscheiders zijn:
- Native multimodale ondersteuning (tekst + afbeeldingen + video).
- Ultralange context tot 1M tokens via Engram-voorwaardelijk geheugen.
- Optimalisatie voor binnenlandse hardware—V4 is ontworpen om primair op Huawei Ascend-chips te draaien, wat China’s streven naar technologische zelfredzaamheid weerspiegelt.
DeepSeek heeft een staat van dienst in het open-sourcen van modellen onder Apache 2.0, waardoor V4 mogelijk een van de meest toegankelijke frontier-modellen wordt. Uitgelekte benchmarks suggereren dat het 90% op HumanEval en 80%+ op SWE-bench Verified zou kunnen halen, wat het in directe concurrentie plaatst met Claude Opus 4.5/4.6 en GPT-5 Codex-varianten. V4 is niet een simpele incrementele update — het vertegenwoordigt een volledige herontwerp van de productmatrix met gelaagde modi voor verschillende gebruikersbehoeften, vergelijkbaar met Kimi’s Fast/Expert-stratificatie maar met toegevoegde Vision.
Laatste updates met betrekking tot DeepSeek V4
Per april 2026 bevindt DeepSeek V4 zich in een beperkte grijsschaaltest in plaats van een volledige publieke lancering. Meerdere programmeurs en Weibo-influencers deelden op 7-8 april screenshots van de vernieuwde chatinterface, die een ingrijpende herziening laat zien ten opzichte van de eerdere dubbele optie (Deep Thinking R1 / Smart Search).
De nieuwe UI introduceert een prominente modusschakelaar met drie opties:
- Fast-modus (standaard, onbeperkt dagelijks gebruik voor alledaagse taken).
- Expert-modus.
- Vision-modus.
V4 zal gebruikmaken van Huawei’s nieuwste silicon, met een volledige lancering die “in de komende weken” vanaf begin april wordt verwacht.
Fast-modus (ook “Instant” genoemd) is standaard en onbeperkt voor dagelijks gebruik. Expert-modus legt de nadruk op diep nadenken en toont in sommige tests een hogere token-throughput (~64 tokens/s vs. ~49 voor Fast). Vision-modus maakt het mogelijk om rechtstreeks afbeeldingen/video’s te uploaden en te analyseren.
- Sommige vroege testers melden 1M context en een bijgewerkte kennisafkap (data na 2025); anderen merken op dat Expert nog steeds aanvoelt als een geoptimaliseerde V3.2 met 128K-limieten — wat de geleidelijke aard van de grijsschaal bevestigt.
Het bedrijf is stil gebleven over de officiële naamgeving, maar de interfacewijzigingen, multimodale hints en afstemming met eerdere lekken (driemodelsuite op binnenlandse chips) geven sterk aan dat dit V4-varianten in test zijn. De volledige lancering wordt algemeen “deze maand” (april 2026) verwacht.
Wat is de nieuwe functionele architectuur van DeepSeek V4? (Snelle versie vs. Expert-versie, speculatie)
Uitgelekte details wijzen op een verfijnde drielaagse architectuur die alledaagse efficiëntie scheidt van high-stakes redeneren en multimodale verwerking.
Fast-modus (Snelle versie): Geoptimaliseerd voor directe reacties en doorvoer met hoog volume in dagelijkse dialogen. Analisten denken dat dit routeert naar een lichtgewicht gedistilleerde variant of een kleinere actieve-parameterslice van het MoE-model. Het ondersteunt bestandsuploads en basistaken met minimale latentie—perfect voor snelle vragen of prototyping. Onbeperkt dagelijks gebruik maakt het ideaal voor casual gebruikers.
Expert-modus (Diep-redeneerversie): Wijdverbreid gespeculeerd als de ware “DeepSeek V4”-kern. Het legt de nadruk op meerstapsredeneren, domeinspecifieke verbeteringen, visualisatie van denkprocessen en versterkte bronverwijzing. Insiders koppelen het aan de “nieuwe geheugenarchitectuur” (Engram-voorwaardelijk geheugen) die is beschreven in papers ondertekend door DeepSeek’s leiding. Engram scheidt statische kennis (O(1)-hash-lookups) van dynamisch redeneren, waardoor stabiele 1M-tokencontexten mogelijk worden zonder exploderende rekenkosten. Vroege testers melden superieure logische stabiliteit en zelfcorrectie bij complexe problemen.
Vision-modus: Het multimodale vlaggenschip, in staat tot native beeld-/videobegrip en -generatie. In tegenstelling tot traditionele VLM’s die op tekstmodellen worden “gebout”, suggereert speculatie een “diep verenigd wereldmodel”—mogelijk met directe integratie van visuele tokens in de MoE-routing voor naadloos kruis-modale redenering.
Deze splitsing tussen Snelle en Expert stelt DeepSeek in staat zowel massamarktgebruikers (Fast) als power users (Expert/Vision) te bedienen zonder in te leveren op de ervaring. Volledige commercialisering kan quota invoeren voor Expert/Vision, terwijl Fast gratis/onbeperkt blijft.
DeepSeek V4’s Visual- en Expert-modus volgens de grijsschaaltest
De grijsschaalexposure is de grootste katalysator voor opwinding geweest. Ik test:
- Expert-modus triggert langer intern “denken” (zichtbare chain-of-thought in sommige weergaven) en levert meer accurate, van bronnen voorziene outputs.
- Vision-modus wordt automatisch geactiveerd wanneer afbeeldingen worden bijgevoegd en leidt prompts om voor analyse of generatie.
Deze functies sluiten aan bij DeepSeek’s gepubliceerde onderzoek naar manifold-constrained hyper-connections (mHC) en DeepSeek Sparse Attention (DSA)—innovaties die training op biljoenen parameters stabiliseren en agent-taken op lange horizon verbeteren.
Expert-modus draait mogelijk al op een vroege V4-checkpoint, wat de waargenomen intelligentiesprong verklaart. De scheiding van Vision-modus suggereert dat het geen eenvoudige add-on is, maar een kernarchitecturale pijler.
Toegang krijgen tot en gebruikmaken van DeepSeek V4 op het web: stapsgewijze gids
Toegang tot de grijsschaalversie is eenvoudig maar momenteel beperkt:
- Bezoek het officiële platform: Ga naar chat.deepseek.com of platform.deepseek.com en log in met je DeepSeek-account (gratis registratie beschikbaar).
- Zoek de moduskiezer: Als je in de grijsschaalcohort zit, zie je de nieuwe knoppen Fast/Expert/Vision. Niet iedereen heeft ze al—de uitrol is gefaseerd.
- Selecteer je modus:
- Begin met Fast-modus voor alledaagse chats.
- Schakel naar Expert-modus voor complex redeneren, coderen of onderzoek.
- Upload afbeeldingen/video’s om Vision-modus te activeren.
- Prompt effectief: Gebruik voor Expert gedetailleerde instructies zoals “Denk stap-voor-stap en verifieer je logica.” Beschrijf voor Vision afbeeldingen precies (bijv. “Analyseer deze grafiek op trends en genereer een samenvattingstabel”).
- Houd limieten in de gaten: Fast is onbeperkt; Expert en Vision kunnen tijdens tests dagelijkse quota hebben.
Pro-tip: Schakel websearch of bestandsuploads in waar beschikbaar voor rijkere context.
Als grijsschaaltoegang nog niet beschikbaar is, kun je DeepSeek-V3.2 (het huidige productiemodel) nog steeds gebruiken op dezelfde site. Volledige V4-uitrol is aanstaande—houd CometAPI in de gaten.
Hoe DeepSeek V4 in je workflow integreren via API
Hoewel webtoegang geweldig is om te verkennen, vereist productiegebruik betrouwbare API’s. De officiële DeepSeek-API bedient momenteel V3.2 (128K context), maar V4-endpoints worden binnenkort verwacht.
Maak kennis met CometAPI: Als one-stop AI-API-aggregator levert CometAPI nu al DeepSeek V3, V3.1, V3.2 en R1-modellen met OpenAI-compatibele endpoints, 20% lagere prijzen, gratis starttegoeden, gebruiksanalyses en automatische failover tussen providers. Geen codewijzigingen nodig wanneer V4 verschijnt—wij voegen het naadloos toe.
Snelle setup op CometAPI:
- Registreer op cometapi.com.
- Genereer een API-sleutel (sk-xxx).
- Gebruik de basis-URL
https://api.cometapi.comen modelnamen zoalsdeepseek-v4-expert(zodra live). - Voorbeeld van een Python-aanroep:
from openai import OpenAI
client = OpenAI(api_key="your_cometapi_key", base_url="https://api.cometapi.com")
response = client.chat.completions.create(
model="deepseek-v4-expert", # of vision-variant
messages=[{"role": "user", "content": "Je prompt hier"}]
)
De playground van CometAPI laat je V4-modi zij aan zij testen met Claude of GPT zonder van dashboard te hoeven wisselen. Voor bedrijven betekent dit lagere kosten, voorspelbare facturatie en geen vendor lock-in—ideaal voor het schalen van agent-workflows of multimodale apps.
Belangrijkste mogelijkheden en benchmarks van DeepSeek V4
Uitgelekte gegevens schetsen een indrukwekkend beeld:
- Coderen: ~90% HumanEval, 80%+ SWE-bench Verified (geprojecteerd om te evenaren of beter dan Claude Opus 4.6).
- Redeneren: Verbeterde MATH-500 (~96%) en long-context Needle-in-Haystack (97% bij 1M tokens).
- Multimodaal: Native beeld-/videobegrip plus SVG-/codegeneratie, veel beter dan V3.
- Efficiëntie: MoE houdt kosten laag; Engram-geheugen vermindert VRAM-behoefte met ~45% t.o.v. dichte modellen.
Tests in de praktijk in Expert-modus tonen sterkere zelfcorrectie en coderen op repository-niveau vergeleken met V3.2.
Hoe verhoudt DeepSeek V4 zich tot andere toonaangevende AI-modellen?
| Kenmerk | DeepSeek V4 (geprojecteerd) | Claude Opus 4.6 | GPT-5.4 Codex |
|---|---|---|---|
| Parameters (totaal/actief) | ~1T / ~37B | Niet openbaar gemaakt | Niet openbaar gemaakt |
| Contextvenster | 1M tokens | 200K-256K | ~200K |
| Multimodaal (native) | Ja (Vision-modus) | Ja | Ja |
| Coderen (SWE-bench) | 80%+ | 80.9% | ~80% |
| Prijzen (geschat output) | Zeer laag (open traject) | Hoog | Hoog |
| Open gewichten | Waarschijnlijk | Nee | Nee |
V4’s voordeel ligt in kosten-prestatie en open toegankelijkheid, waardoor frontier-AI beschikbaar wordt voor kleinere teams.
Wat zijn praktische use-cases voor DeepSeek V4?
- Softwareontwikkeling: Expert-modus voor refactoren over meerdere bestanden, bugdetectie en volledige repo-analyse.
- Multimodale analyse: Upload grafieken, diagrammen of video’s voor directe inzichten (Vision-modus).
- Agent-workflows: Lang-contextgeheugen voedt autonome onderzoeksagents.
- Content & design: Genereer accurate SVG/code op basis van beschrijvingen; analyseer visuele data.
- Onderwijs/Onderzoek: Stapsgewijze uitleg met verifieerbare citaties.
Waarom kiezen voor CometAPI voor DeepSeek V4 en verder?
Voor ontwikkelaars en ondernemingen is de webchat een startpunt—maar schaalbare productie vereist robuuste infrastructuur. CometAPI levert precies dat: vandaag al korting op DeepSeek-toegang (V3.2 voor $0.22–$0.35/M tokens) en een duidelijk migratiepad naar V4. Functies zoals promptcaching, analytics en multi-model routing verlagen de kosten met 20–30% en elimineren downtime-risico’s. Of je nu de volgende AI-agent bouwt of vision-capabilities inbedt, CometAPI zorgt dat je klaar bent zodra de V4-API beschikbaar komt.
Conclusie
Door frontier-niveau multimodale intelligentie gratis aan te bieden met gelaagde modi, democratiseert DeepSeek geavanceerde AI terwijl het optimaliseert voor binnenlandse compute. Dit zet westerse labs onder druk zowel qua prestaties als prijs, en versnelt de hele sector richting efficiëntere, toegankelijkere modellen.
DeepSeek V4 is niet zomaar een upgrade—het is een blauwdruk voor efficiënte, toegankelijke superintelligentie. Begin vandaag met experimenteren op het web en bereid je stack met CometAPI voor op naadloze schaalvergroting morgen.
.webp&w=3840&q=75)