DeepSeek, een Chinese AI-startup die begin 1 voor het eerst in het nieuws kwam met zijn R2025-redeneringsmodel, heeft een heftig debat aangewakkerd over de status van open-source AI en de bredere implicaties ervan. Hoewel veel aandacht zich concentreerde op de indrukwekkende prestaties – waarmee het concurreert met modellen van Amerikaanse bedrijven zoals OpenAI en Alibaba – blijft de vraag bestaan of DeepSeek in essentie en in de praktijk wel echt "open source" is. Dit artikel verdiept zich in de laatste ontwikkelingen rond DeepSeek, onderzoekt de open-source-referenties, vergelijkt het met modellen zoals GPT-4.1 en beoordeelt de gevolgen voor het wereldwijde AI-landschap.
Wat is DeepSeek en hoe is het ontstaan?
De oorsprong en ambitie van DeepSeek
DeepSeek werd opgericht onder de naam Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., met Liang Wenfeng (ook wel Wenfeng Liang genoemd) als belangrijkste visionair aan het roer. De ethos week af van die van veel startups in Silicon Valley: in plaats van prioriteit te geven aan snelle commercialisering, legde DeepSeek de nadruk op onderzoeksefficiëntie en kosteneffectiviteit. Begin 2025 had DeepSeeks R1-model al de aandacht getrokken omdat het toonaangevende benchmarks op het gebied van wiskundig redeneren en codegeneratie evenaarde of overtrof, ondanks de beperkingen van de Amerikaanse exportcontroles op geavanceerde AI-chips.
Doorbraak in redeneermodellen
In januari 2025 onthulde DeepSeek R1 onder een MIT-licentie – een open-source permissieve licentie – en beweerde dat R1 "79.8% Pass@1 behaalde op AIME 2024, iets hoger dan OpenAI-o1-1217" en een score van "97.3% op MATH-500, vergelijkbaar met o1 en beter dan andere openbare modellen". Bij codeertaken behaalde R1 een Elo-score van 2,029 op Codeforces, waarmee het 96.3% van de menselijke deelnemers overtrof. Dit gaf aan dat het model niet slechts een theoretische oefening was, maar een krachtige tool die geschikt was voor toepassingen in de praktijk.
Door gebruik te maken van technieken zoals 'mixing-of-experts'-lagen (MoE) en training op zwakkere AI-chips – noodzakelijk vanwege handelsbeperkingen – verlaagde DeepSeek de trainingskosten drastisch. Waarnemers merkten op dat de aanpak niet alleen de veronderstelde afhankelijkheid van topklasse hardware ter discussie stelde, maar ook 'schokgolven' door de sector stuurde, waardoor de marktwaarde van Nvidia in één sessie met ongeveer $ 600 miljard daalde – 'de grootste daling van een enkel bedrijf in de geschiedenis van de Amerikaanse aandelenmarkt'.
Is DeepSeek echt open source?
Licenties en beschikbaarheid
DeepSeeks R1-model werd in januari 2025 vrijgegeven onder de MIT-licentie op Hugging Face, wat onbeperkt commercieel gebruik, aanpassing en herdistributie van de modelgewichten en bijbehorende code toestaat. Deze licentiekeuze classificeert R1 technisch gezien als een open-sourceproject, maar in de praktijk ontstaan er nuances. Hoewel de modelgewichten en inferentiecode openbaar beschikbaar zijn, is de volledige trainingsdataset of de precieze trainingspijplijnen niet vrijgegeven. Deze omissie roept vragen op over de kwalificatie als "volledig" open source in dezelfde geest als projecten die end-to-end reproduceerbaarheidsdetails delen. Zo kan iedereen R1 downloaden en verfijnen, maar kan men de originele trainingsprocedure van DeepSeek niet repliceren zonder toegang tot de gepatenteerde gegevens en clusterconfiguraties (bijvoorbeeld de Fire-Flyer-clusters met 5,000 A100 GPU's).
Transparantie van trainingsgegevens
Open-sourcepuristen benadrukken vaak niet alleen de beschikbaarheid van modelgewichten en code, maar ook transparantie over trainingsdata, preprocessing scripts en evaluatiebenchmarks. In dit geval heeft het bedrijf details op hoog niveau gedeeld – zoals het gebruik van "synthetische data gegenereerd door R1" om gedistilleerde varianten te verfijnen en de integratie van op regels gebaseerde beloningsfuncties voor R1-Zero – maar heeft het details over de herkomst en curatieprocessen van de data achtergehouden. Zonder deze informatie kunnen externe onderzoekers niet volledig controleren op mogelijke vertekeningen, dataverontreiniging of onbedoelde privacylekken, waardoor er vragen blijven bestaan over de ethische en beveiligingsimplicaties van het model.
Betrokkenheid van de gemeenschap en vorken
Sinds de open-source release heeft DeepSeek-R1 forks en community-gedreven experimenten aangetrokken op platforms zoals Hugging Face. Ontwikkelaars hebben gemeld dat ze kleinere, "gedistilleerde" varianten (variërend van 1.5 miljard tot 70 miljard parameters) hebben aangepast om te draaien op standaardhardware, zoals consumenten-GPU's, waardoor de toegang is verruimd. Er is echter nog geen volledig onafhankelijke uitdaging geweest om R1 vanaf nul te reproduceren, deels vanwege de enorme rekenkracht die nodig is en het ontbreken van openbaar gedeelde ruwe datasets. In tegenstelling tot LLaMA, dat aanleiding gaf tot meerdere reproductie-inspanningen van officiële community's, draait DeepSeeks "open-source" claim primair om het beschikbaar stellen van gewichten in plaats van het mogelijk maken van volledige, door de community geleide onderzoekstransparantie.
Hoe verhoudt DeepSeek zich tot andere AI-modellen?
Benchmarking tegen OpenAI o1, o3 en GPT-4.1
De prestatiemetingen van DeepSeek-R1 plaatsen het model in de top van de categorie redeneermodellen. Volgens interne benchmarks op LiveCodeBench (ontwikkeld door UC Berkeley, MIT en Cornell) scoort DeepSeeks bijgewerkte R1-0528 net onder OpenAI's o4-mini en o3 in codegeneratie, maar overtreft het xAI's Grok 3-mini en Alibaba's Qwen 3 mini. OpenAI's GPT-4.1, uitgebracht op 14 april 2025, beschikt over een contextvenster van één miljoen tokens en blinkt uit in codering, het volgen van instructies en taken met lange contexten, vergeleken met zijn voorganger GPT-4o.
Bij vergelijking van R1 met GPT-4.1 vallen verschillende factoren op:
- Prestaties op code- en wiskundebenchmarks: R1 behaalt 79.8% Pass@1 voor AIME 2024 en een score van 97.3% voor MATH-500, iets hoger dan o1. GPT-4.1 behaalt op zijn beurt een geschatte score van ~54.6% voor coderen (SWE-bench Verified) en 72% voor taken met lange context. Deze statistieken zijn indrukwekkend, maar niet direct vergelijkbaar met de benchmarks voor gespecialiseerd redeneren van R1.
- Contextvenster: GPT-4.1 ondersteunt tot een miljoen tokens, waardoor het hele boeken of lange codebases in één keer kan verwerken. DeepSeeks R1 kan deze contextlengte niet aan en richt zich in plaats daarvan op redeneer- en inferentie-efficiëntie bij kortere invoer.
- Kostenefficiënt toezicht: Volgens Hugging Face kost de API-toegang van R1 tot 95% minder dan die van OpenAI's o1, waardoor het aantrekkelijk is voor startups en onderzoekers met beperkte budgetten. De basisprijs van GPT-4.1 bedraagt $ 2 per miljoen inputtokens en $ 8 per miljoen outputtokens, waarbij de mini- en nanovarianten nog lager geprijsd zijn ($ 0.40/$ 1.60 en $ 0.10/$ 0.40, respectievelijk). De gedistilleerde modellen van DeepSeek kunnen op laptops draaien, wat een extra niveau van kostenbesparing biedt in de hardwarevereistenfase.
Architecturale verschillen
Het R1-model van DeepSeek maakt gebruik van een mix van experts (MoE)-architectuur, waarbij grote delen van het netwerk alleen worden geactiveerd wanneer nodig, wat de kosten voor inferentieverwerking aanzienlijk verlaagt. Deze MoE-lagen, gecombineerd met asynchrone communicatiebibliotheken (bijv. hfreduce) en het Fire-Flyer DDP-framework, stellen DeepSeek in staat om redeneertaken te schalen naar zwakkere hardwareclusters onder handelsbeperkingen.
GPT-4.1 daarentegen gebruikt dichte transformatorlagen over het gehele netwerk om het contextvenster van één miljoen tokens te verwerken. Hoewel dit leidt tot superieure prestaties bij taken met een lange context, vereist het ook aanzienlijke rekenkracht voor training en inferentie. Vandaar de hogere prijs van GPT-4.1 ten opzichte van kleinere modellen zoals de GPT-4.1 mini en nano.
Wat zijn de implicaties van DeepSeeks open-sourcebenadering?
Impact op de wereldwijde AI-concurrentie
De open-source release van DeepSeek ondermijnt het traditionele Silicon Valley-handboek van propriëtaire modellen en data-embargo's. Door R1 openbaar beschikbaar te maken onder een MIT-licentie, heeft DeepSeek het idee uitgedaagd dat high-performance AI gesloten of exclusief gelicentieerd moet blijven. De directe gevolgen waren voelbaar: Amerikaanse techgiganten pasten hun prijzen aan (OpenAI introduceerde bijvoorbeeld GPT-4.1 mini en nano tegen lagere kosten) en versnelden de ontwikkeling van hun eigen op redeneren gebaseerde modellen, zoals o4-mini, om marktaandeel te behouden. Branchecommentatoren noemden de opkomst van DeepSeek een mogelijk "Spoetnik-moment" voor Amerikaanse AI, wat duidt op een verschuiving in de hegemonische controle over fundamentele AI-mogelijkheden.
De open-sourcestrategie van DeepSeek had ook invloed op het sentiment onder durfkapitalisten. Terwijl sommige investeerders vreesden dat het investeren in Amerikaanse AI-bedrijven minder rendement zou opleveren als Chinese open-sourcealternatieven zich zouden verspreiden, zagen anderen het als een kans om de wereldwijde samenwerking op het gebied van AI-onderzoek te diversifiëren. Durfkapitalist Marc Andreessen prees R1 als "een van de meest verbazingwekkende en indrukwekkende doorbraken" en "een groot geschenk aan de wereld". De release van OpenAI's GPT-4.1 in april 2025 kan deels worden gezien als een tegenmaatregel tegen DeepSeeks kosteneffectieve open-sourcemodel, wat aantoont dat open access niet ten koste hoeft te gaan van geavanceerde prestaties.
Beveiligings- en privacyproblemen
Ondanks het enthousiasme over de democratisering van open-source AI, heeft de oorsprong van DeepSeek tot twijfels geleid bij privacyactivisten en overheidsinstanties. In januari 2025 bevestigde de Zuid-Koreaanse Commissie voor de Bescherming van Persoonlijke Informatie (PIPC) dat de onlinedienst Zuid-Koreaanse gebruikersgegevens naar ByteDance-servers in China stuurde, wat leidde tot een verbod op nieuwe app-downloads totdat de nalevingsproblemen waren opgelost. Een daaropvolgend datalek eind januari 2025 legde meer dan een miljoen gevoelige gegevens bloot – chatberichten, API-sleutels en systeemlogboeken – vanwege een verkeerd geconfigureerde cloudopslagdatabase, wat de zorgen over de gegevensbeveiliging van DeepSeek verergerde.
Gezien de Chinese regelgeving die bedrijven kan dwingen gegevens te delen met overheidsinstanties, blijven sommige westerse overheden en bedrijven huiverig om DeepSeek te integreren in kritieke workflows. Hoewel DeepSeek stappen heeft ondernomen om zijn infrastructuur te beveiligen (bijvoorbeeld door de blootgestelde database binnen een uur te patchen), blijft er scepsis bestaan over mogelijke achterdeurtjes of misbruik voor beïnvloedingsoperaties. Wired meldde dat de online dienst DeepSeek die gegevens naar zijn thuisland verstuurt "de weg zou kunnen vrijmaken voor meer controle", en regelgevende instanties in Europa en de VS hebben gesuggereerd dat ze onder de AVG en CCPA-kaders nader onderzoek zullen doen.
Invloed op hardware- en infrastructuurkosten
DeepSeeks vermogen om hoogwaardige redeneermodellen te trainen en te implementeren op suboptimale hardware heeft een domino-effect op de bredere AI-infrastructuurmarkt. Door aan te tonen dat MoE-lagen en geoptimaliseerd parallelisme (bijv. HaiScale DDP) een vergelijkbare redeneernauwkeurigheid kan leveren als volledig dichte modellen, dwong DeepSeek grote cloudproviders – Microsoft Azure, AWS en Google Cloud – om de integratie van DeepSeeks optimalisatietechnieken te evalueren. Microsoft en Amazon zijn naar verluidt begonnen met het aanbieden van DeepSeek-R1 als onderdeel van hun AI-servicecatalogi, waarmee ze tegemoetkomen aan klanten die op zoek zijn naar goedkopere alternatieven voor GPT-4.1 of o1 API's.
Bovendien reageerde NVIDIA, historisch gezien de dominante GPU-leverancier, op zijn MoE-gedreven efficiëntie door de nadruk te leggen op gespecialiseerde hardware (bijvoorbeeld HBM3-compatibele GPU's en NVLink-topologieën) om zijn concurrentievoordeel te behouden. De volatiliteit van de aandelenkoers van NVIDIA na de stijging onderstreept hoe doorbraken in algoritmische efficiëntie de prognoses voor de vraag naar hardware kunnen veranderen. Zelfs zonder gepatenteerde hardware te onthullen, heeft DeepSeek dus indirect de routekaart voor toekomstige AI-versnellers beïnvloed.
Wat onthult de laatste update van R1-0528 over DeepSeeks streven naar openheid?
Technische verbeteringen in R1-0528
De R28-2025-update van DeepSeek, aangekondigd op 1 mei 0528, belooft aanzienlijke verbeteringen in wiskundig redeneren, programmeertaken en het verminderen van hallucinaties – fouten in door AI gegenereerde informatie. Hoewel DeepSeek deze release omschreef als een "kleine proefupgrade", blijkt uit benchmarks op UC Berkeley, MIT en Cornell's LiveCodeBench dat R1-0528 concurrerend presteert met de o3- en o4-mini-modellen van OpenAI. De update benadrukt ook het transparante open-sourcebeleid door kort na de aankondiging de nieuwe gewichten en inferentiecode op Hugging Face te publiceren, wat de toewijding aan communitygedreven ontwikkeling en collaboratieve optimalisatie versterkt.
Ontvangst en feedback van de gemeenschap
De ontwikkelaarscommunity heeft positief gereageerd op R1-0528 en noemde de verminderde hallucinatiepercentages en de verbeterde logische consistentie in de uitvoer. Discussies op forums zoals Hugging Face en GitHub geven aan dat onderzoekers de tastbare prestatieverbeteringen waarderen zonder dat dit ten koste gaat van de permissiviteit van de MIT-licentie. Sommige bijdragers hebben echter hun bezorgdheid geuit over de ondoorzichtigheid van trainingsdata en de mogelijke invloed van overheidsrichtlijnen op de finetuning. Ze benadrukken dat open-sourcelicenties op zichzelf geen volledige transparantie garanderen. Deze dialogen benadrukken de noodzaak van voortdurende betrokkenheid van de community om ervoor te zorgen dat de open-source-ethos zich vertaalt in controleerbare, betrouwbare AI-systemen.
Conclusies
DeepSeeks uitstapje naar open-source AI heeft de verwachtingen ten aanzien van toegankelijkheid, prestaties en kostenefficiëntie opnieuw gedefinieerd. Hoewel het R1-model technisch gezien open source is onder een MIT-licentie, bemoeilijkt het ontbreken van volledige trainingsdata en pipeline-transparantie de classificatie als "volledig" open. Desalniettemin hebben de successen – het trainen van krachtige redeneermodellen onder hardwarematige beperkingen en deze breed beschikbaar maken – zowel enthousiasme als voorzichtige aandacht gewekt binnen de wereldwijde AI-gemeenschap.
Vergelijkingen met OpenAI's GPT-4.1 laten een genuanceerd landschap zien: DeepSeek blinkt uit in gerichte redeneertaken en kostengevoelige omgevingen, terwijl het enorme contextvenster en de uitgebreide benchmarksuperioriteit van GPT-4.1 het de beste keuze maken voor high-end zakelijke applicaties. Naarmate DeepSeek zijn R2-model ontwikkelt en de samenwerking met cloudproviders uitbreidt, zal het lot ervan afhangen van het aanpakken van zorgen over gegevensprivacy, het waarborgen van naleving van de regelgeving en mogelijk het omarmen van nog meer transparantie in het onderzoeksproces.
Uiteindelijk onderstreept de opkomst van DeepSeek dat open-source AI niet langer een theoretisch ideaal is, maar een praktische kracht die de concurrentie opnieuw vormgeeft. Door gevestigde spelers uit te dagen, heeft DeepSeek de innovatiecyclus versneld en zowel gevestigde bedrijven als nieuwkomers ertoe aangezet om te heroverwegen hoe ze AI-systemen ontwikkelen, licenseren en implementeren. In deze dynamische omgeving – waar GPT-4.1 de ene maatstaf vormt en DeepSeek-R1 de andere – lijkt de toekomst van open-source AI veelbelovender en turbulenter dan ooit tevoren.
Beginnen
CometAPI biedt een uniforme REST-interface die honderden AI-modellen samenvoegt onder één consistent eindpunt, met ingebouwd API-sleutelbeheer, gebruiksquota en factureringsdashboards. In plaats van te jongleren met meerdere leveranciers-URL's en inloggegevens, verwijst u uw client naar de basis-URL en specificeert u het doelmodel in elke aanvraag.
Ontwikkelaars hebben toegang tot de API van DeepSeek, zoals DeepSeek-V3 (modelnaam: deepseek-v3-250324) en Deepseek R1 (modelnaam: deepseek-r1-0528) Door KomeetAPIOm te beginnen, verken de mogelijkheden van het model in de Speeltuin en raadpleeg de API-gids voor gedetailleerde instructies. Zorg ervoor dat u bent ingelogd op CometAPI en de API-sleutel hebt verkregen voordat u toegang krijgt.
Nieuw bij CometAPI? Start een gratis proefperiode van 1$ en laat Sora je helpen bij je moeilijkste taken.
We kunnen niet wachten om te zien wat je bouwt. Als er iets niet klopt, klik dan op de feedbackknop. Vertel ons wat er mis is, want dat is de snelste manier om het te verbeteren.
