DeepSeek-V3.1: Functies, architectuur en benchmarks

CometAPI
AnnaAug 20, 2025
DeepSeek-V3.1: Functies, architectuur en benchmarks

In augustus 2025 kondigde de Chinese AI-startup DeepSeek de release aan van DeepSeek-V3.1, een upgrade van de middengeneratie die het bedrijf omschrijft als de eerste stap "richting het agenttijdperk". De update introduceert een hybride inferentiemodus (één model dat kan draaien in een "denkende" of "niet-denkende" modus), een aanzienlijk langer contextvenster en gerichte verbeteringen na de training voor toolaanroepen en meerstapsagentgedrag.

Wat is DeepSeek-V3.1 en waarom is het belangrijk?

DeepSeek-V3.1 is de nieuwste productie-update van DeepSeeks V3-serie. Op hoog niveau is het een hybride MoE-taalmodelfamilie (de V3-lijn) die DeepSeek heeft nagetraind en uitgebreid ter ondersteuning van twee voor de gebruiker zichtbare bedrijfsmodi. Er zijn twee hoofdvarianten: DeepSeek-V3.1-Base en de volledige DeepSeek-V3.1:

  • Niet-denken (deepseek-chat): een standaard chatvoltooiingsmodus die is geoptimaliseerd voor snelheid en conversatiegebruik.
  • Denken (diepzoeken-redeneren): een agentische redeneermodus die prioriteit geeft aan gestructureerd, meerstaps redeneren en tool/agent-orkestratie.

De release richt zich op drie zichtbare verbeteringen: een hybride inferentiepijplijn die latentie en capaciteit in evenwicht brengt, slimmere tool-calling/agent-orkestratie en een aanzienlijk uitgebreid contextvenster (geadverteerd als 128K tokens).

Waarom het uitmaakt: DeepSeek-V3.1 zet de bredere trend in de branche voort om efficiënte, grootschalige MoE-architecturen te combineren met tooling-primitieven en zeer lange contextvensters. Deze combinatie is belangrijk voor enterprise agents, zoek-plus-redeneer-workflows, samenvattingen van lange documenten en toolgestuurde automatisering, waarbij zowel doorvoer als de mogelijkheid om deterministisch externe tools aan te roepen, van belang zijn.

Wat maakt DeepSeek-V3.1 anders dan eerdere DeepSeek-releases?

Hybride inferentie: één model, twee operationele modi

De belangrijkste architectonische verandering is hybride inferentieDeepSeek beschrijft V3.1 als een model dat zowel een "denk"-modus als een "niet-denk"-modus ondersteunt binnen dezelfde modelinstantie, selecteerbaar door de chattemplate of een UI-schakelaar te wijzigen (DeepSeeks "DeepThink"-knop). In de praktijk betekent dit dat het model kan worden geïnstrueerd om interne redeneringssporen te produceren (handig voor agentworkflows met een keten van gedachten) of om direct te reageren zonder tussenliggende redeneringstokens bloot te leggen, afhankelijk van de behoeften van de ontwikkelaar. DeepSeek presenteert dit als een pad naar meer agentworkflows, waarbij applicaties kunnen kiezen tussen latentie en breedsprakigheid.

Groter contextvenster en tokenprimitieven

Officiële release-opmerkingen melden een veel groter contextvenster in V3.1; community-testen en bedrijfsberichten plaatsen de uitgebreide context op 128 tokens voor sommige gehoste varianten, waardoor aanzienlijk langere gesprekken, redeneringen over meerdere documenten of lange codebases in één sessie kunnen worden ingevoerd. Als aanvulling daarop introduceert DeepSeek naar verluidt een paar speciale controletokens (bijvoorbeeld <|search_begin|>/<|search_end|>, <think> / </think>) bedoeld om tool calls te structureren en intern ‘denk’-segmenten af ​​te bakenen — een ontwerppatroon dat de coördinatie met externe tools vereenvoudigt.

Verbeterde agent-/toolvaardigheden en latentieverbeteringen

DeepSeek stelt dat V3.1 profiteert van optimalisatie na de training Gericht op toolaanroepen en meerstaps agenttaken: het model zou sneller antwoorden bereiken in de "denkmodus" dan eerdere DeepSeek R1-builds, en betrouwbaarder zijn bij het aanroepen van externe API's of het uitvoeren van meerstapsplannen. Die positionering – snellere maar meer agent-geschikte inferentie – is een duidelijk onderscheidend kenmerk voor teams die assistenten, automatiseringen of agentworkflows bouwen.

Wat is de architectuur achter DeepSeek-V3.1?

DeepSeek-V3.1 bouwt voort op het kernonderzoek van de DeepSeek-V3-familie: een Mix-of-Experts (MoE) Backbone met een reeks architecturale innovaties die zijn ontworpen voor efficiëntie en schaalbaarheid. Het openbare technische rapport voor DeepSeek-V3 (de onderliggende familie) beschrijft:

  • Een groot MoE-ontwerp met honderden miljarden totale parameters en een kleinere geactiveerd aantal parameters per token (de modelkaart vermeldt in totaal 671B parameters met ongeveer 37B geactiveerd per token).
  • Multi-head Latent Attention (MLA) en de aangepaste DeepSeekMoE-routerings- en schaalbenaderingen verlagen de inferentiekosten en behouden tegelijkertijd de capaciteit.
  • Trainingsdoelstellingen en load-balancingstrategieën die de noodzaak voor aanvullende load-balancingverliestermen wegnemen en multi-tokenvoorspellingsdoelstellingen toepassen om de doorvoer en sequentiemodellering te verbeteren.

Waarom MoE + MLA?

Met Mixture-of-Experts behoudt het model een hoog theoretisch parameteraantal, terwijl slechts een subset experts per token wordt geactiveerd. Dit vermindert de rekenkracht per token. MLA is DeepSeeks aandachtsvariant die het model helpt om aandachtsbewerkingen efficiënt te schalen over meerdere experts en lange contexten. Deze keuzes samen maken het mogelijk om zeer grote controlepunten te trainen en te bedienen, terwijl de inferentiekosten voor meerdere implementaties bruikbaar blijven.

Hoe presteert DeepSeek-V3.1 in benchmarks en praktijktests?

Hoe V3.1 zich verhoudt, in woorden

  • Over V3 (0324): V3.1 is een duidelijke upgrade op alle fronten, vooral wat betreft codering en agenttaken. Voorbeeld: LiveCodeBench springt van 43.0 → 56.4 (niet-denkend) en → 74.8 (denkend); Hulp-Polyglot vanaf 55.1 → 68.4 / 76.3.
  • Tegen R1-0528: R1 blijft een sterk op ‘redenering afgestemd’ vergelijkingspunt, maar V3.1-Denken is vaak gelijk aan of overtreft R1-0528 (AIME/HMMT, LiveCodeBench), terwijl het ook een niet-denkend pad biedt voor gebruik met lage latentie.
  • Algemene kennis (MMLU-varianten): V3.1-slots liggen net onder R1-0528 als het om “denken” gaat, maar boven de oudere V3.

Algemene kennis en academische kennis

Benchmark (metrisch)V3.1-Niet-denkenV3 (0324)V3.1-DenkenR1-0528
MMLU-Redux (Exacte overeenkomst)91.890.593.793.4
MMLU-Pro (Exacte overeenkomst)83.781.284.885.0
GPQA-Diamant (Pas@1)74.968.480.181.0

Wat dit inhoudt: V3.1 is beter dan V3 op het gebied van kennis- en academische taken; 'denken' verkleint de kloof met R1 op het gebied van lastige wetenschappelijke vragen (GPQA-Diamond).

Codering (niet-agent)

Benchmark (metrisch)V3.1-Niet-denkenV3 (0324)V3.1-DenkenR1-0528
LiveCodeBench (2408–2505) (Pas@1)56.443.074.873.3
Hulp-Polyglot (Nauwkeurigheid)68.455.176.371.6
Codeforces-Div1 (Beoordeling)--20911930

Opmerkingen:

  • LiveCodeBench (2408–2505) Geeft een geaggregeerd venster aan (aug. 2024→mei 2025). Een hogere Pass@1-score weerspiegelt een sterkere correctheid bij de eerste poging bij diverse coderingstaken.
  • Hulp-Polyglot simuleert assistent-stijl codebewerking voor veel talen; V3.1-Thinking staat bovenaan de lijst, V3.1-NonThinking is een flinke stap voorwaarts ten opzichte van V3 (0324).
  • De modelkaart toont V3 (0324) op 55.1% op Aider - in overeenstemming met Aiders openbare ranglijstvermelding voor die vintage. (De hogere scores van V3.1 zijn nieuw op de modelkaart.)

Codering (agenttaken)

Benchmark (metrisch)V3.1-Niet-denkenV3 (0324)V3.1-DenkenR1-0528
SWE Geverifieerd (Agent-modus)66.045.4-44.6
SWE-bench Meertalig (Agent-modus)54.529.3-30.5
Terminal-bank (Terminus 1-framework)31.313.3-5.7

Belangrijk voorbehoud: Dit zijn agentevaluaties met behulp van de interne frameworks van DeepSeek (tooling, multi-step uitvoering), geen pure next-token decoderingstests. Ze omvatten de mogelijkheid van "LLM + orkestratie". Behandel deze als system resultaten (reproduceerbaarheid kan afhangen van de exacte agentstack en instellingen).

Wiskunde en concurrentieredenering

Benchmark (metrisch)V3.1-Niet-denkenV3 (0324)V3.1-DenkenR1-0528
AIM 2024 (Pas@1)66.359.493.191.4
AIM 2025 (Pas@1)49.851.388.487.5
HMMT 2025 (Pas@1)33.529.284.279.4

Afhaal: Drives in de ‘Denkend’-modus erg groot liften op wiskundewedstrijdsets - V3.1-Denken passeert R1-0528 op AIME/HMMT in de gerapporteerde runs.

Zoekgestuurde / “agentische” QA

Benchmark (metrisch)V3.1-Niet-denkenV3 (0324)V3.1-DenkenR1-0528
BrowseComp--30.08.9
BrowseComp_zh--49.235.7
Het laatste examen van de mensheid (Python + Zoeken)--29.824.8
EenvoudigeQA--93.492.3
Het laatste examen van de mensheid (alleen tekst)--15.917.7

Opmerking: DeepSeek stelt dat de resultaten van zoekmachines gebruikmaken van het interne zoekframework (commerciële zoek-API + paginafiltering, 128K context). De methodologie is hierbij van belang; reproductie vereist vergelijkbare tools.

Wat zijn de beperkingen en wat is de weg vooruit?

DeepSeek-V3.1 is een belangrijke stap in engineering en productontwikkeling: het combineert lange-contexttraining, hybride sjablonen en MoE-architectuur tot een breed bruikbaar controlepunt. Er blijven echter beperkingen bestaan:

  • Veiligheid van agenten in de echte wereld, hallucinaties bij samenvattingen in lange contexten en vijandig promptgedrag vereisen nog steeds maatregelen op systeemniveau.
  • Benchmarks zijn bemoedigend, maar niet uniform: de prestaties variëren per domein, taal en evaluatiesuite; onafhankelijke validatie is noodzakelijk.
  • Geopolitieke en toeleveringsketenfactoren, zoals de beschikbaarheid van hardware en de compatibiliteit van chips, hebben in het verleden al invloed gehad op de planning van DeepSeek en kunnen ook van invloed zijn op de manier waarop klanten op grote schaal implementeren.

Aan de slag via CometAPI

CometAPI is een uniform API-platform dat meer dan 500 AI-modellen van toonaangevende aanbieders – zoals de GPT-serie van OpenAI, Gemini van Google, Claude, Midjourney en Suno van Anthropic – samenvoegt in één, gebruiksvriendelijke interface voor ontwikkelaars. Door consistente authenticatie, aanvraagopmaak en responsverwerking te bieden, vereenvoudigt CometAPI de integratie van AI-mogelijkheden in uw applicaties aanzienlijk. Of u nu chatbots, beeldgenerators, muziekcomponisten of datagestuurde analysepipelines bouwt, met CometAPI kunt u sneller itereren, kosten beheersen en leveranciersonafhankelijk blijven – en tegelijkertijd profiteren van de nieuwste doorbraken in het AI-ecosysteem.

Ontwikkelaars hebben toegang tot Diep zoeken R1(deepseek-r1-0528) en DeepSeek-V3.1 via KomeetAPIDe nieuwste modellen die vermeld staan, gelden vanaf de publicatiedatum van het artikel. Om te beginnen, verken de mogelijkheden van het model in de Speeltuin en raadpleeg de API-gids voor gedetailleerde instructies. Zorg ervoor dat u bent ingelogd op CometAPI en de API-sleutel hebt verkregen voordat u toegang krijgt. KomeetAPI bieden een prijs die veel lager is dan de officiële prijs om u te helpen integreren.

Conclusie

DeepSeek-V3.1 vertegenwoordigt een pragmatische, engineering-gerichte update: een groter contextvenster, hybride denk-/niet-denk-inferentie, verbeterde toolinteracties en een OpenAI-compatibele API maken het een aantrekkelijke optie voor teams die agentische assistenten, lange-contexttoepassingen en goedkope codegerichte workflows.

Lees Meer

500+ modellen in één API

Tot 20% korting