DeepSeek, en kinesisk AI-startup, der først skabte overskrifter med sin R1-ræsonnementsmodel i begyndelsen af 2025, har udløst intens debat om status for open source AI og dens bredere implikationer. Mens meget af opmærksomheden har været centreret omkring dens imponerende ydeevne – konkurrerende modeller fra amerikanske virksomheder som OpenAI og Alibaba – er der stadig spørgsmål om, hvorvidt DeepSeek virkelig er "open source" i ånd og praksis. Denne artikel dykker ned i den seneste udvikling omkring DeepSeek, udforsker dens open source-referencer, sammenligner den med modeller som GPT-4.1 og vurderer konsekvenserne for det globale AI-landskab.
Hvad er DeepSeek, og hvordan opstod det?
DeepSeeks oprindelse og ambition
DeepSeek blev grundlagt under navnet Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., med Liang Wenfeng (også kaldet Wenfeng Liang) i spidsen som virksomhedens primære visionær. Deres etos adskilte sig fra mange Silicon Valley-startups: i stedet for at prioritere hurtig kommercialisering lagde DeepSeek vægt på forskningseffektivitet og omkostningseffektivitet. I begyndelsen af 2025 havde DeepSeeks R1-model allerede fået opmærksomhed for at matche eller overgå førende benchmarks inden for matematisk ræsonnement og kodegenerering, på trods af at den var udviklet under begrænsningerne af amerikansk eksportkontrol på avancerede AI-chips.
Gennembrud inden for ræsonnementsmodeller
I januar 2025 afslørede DeepSeek R1 under en MIT-licens – en open source-tilladelseslicens – og hævdede, at R1 opnåede "79.8% Pass@1 på AIME 2024, hvilket en smule overgik OpenAI-o1-1217" og scorede "97.3% på MATH-500, på niveau med o1 og overgik andre offentlige modeller". På kodningsopgaver opnåede R1 en Elo-vurdering på 2,029 på Codeforces, hvilket overgik 96.3% af de menneskelige deltagere, hvilket indikerer, at modellen ikke blot var en teoretisk øvelse, men et højtydende værktøj, der var egnet til virkelige applikationer.
Ved at udnytte teknikker som blanding af eksperter (MoE) og træning på svagere AI-chips – nødvendiggjort af handelsrestriktioner – reducerede DeepSeek træningsomkostningerne dramatisk. Observatører bemærkede, at deres tilgang ikke kun udfordrede den antagne afhængighed af hardware i topklasse, men også sendte "chokbølger" gennem branchen, hvilket fik Nvidias markedsværdi til at falde med cirka 600 milliarder dollars i en enkelt session – "det største fald for en enkelt virksomhed i det amerikanske aktiemarkeds historie".
Er DeepSeek virkelig open source?
Licens og tilgængelighed
DeepSeeks R1-model blev udgivet under MIT-licensen på Hugging Face i januar 2025, hvilket muliggør ubegrænset kommerciel brug, ændring og omfordeling af modelvægtene og tilhørende kode. Dette licensvalg klassificerer teknisk set R1 som et open source-projekt, men i praksis opstår der nuancer. Selvom modelvægtene og inferenskoden er offentligt tilgængelige, har det ikke udgivet det fulde træningsdatasæt eller de præcise træningspipelines. Denne udeladelse rejser spørgsmål om, hvorvidt det kvalificerer som "fuldt" open source i samme ånd som projekter, der deler detaljer om end-to-end-reproducerbarhed. For eksempel, selvom alle kan downloade og finjustere R1, kan de ikke replikere DeepSeeks originale træningsprocedure uden adgang til de proprietære data og klyngekonfigurationer (f.eks. Fire-Flyer-klyngerne, der bruger 5,000 A100 GPU'er).
Gennemsigtighed af træningsdata
Open source-purister understreger ofte ikke blot tilgængeligheden af modelvægte og kode, men også gennemsigtighed vedrørende træningsdata, forbehandlingsscripts og evalueringsbenchmarks. I dette tilfælde har virksomheden delt detaljer på overordnet niveau - såsom brugen af "syntetiske data genereret af R1" til at finjustere destillerede varianter og inkorporeringen af regelbaserede belønningsfunktioner til R1-Zero - men har tilbageholdt specifikke oplysninger om dataoprindelse og kurateringsprocesser. Uden disse oplysninger kan eksterne forskere ikke fuldt ud revidere for potentielle bias, datakontaminering eller utilsigtede privatlivslækager, hvilket efterlader åbne spørgsmål om modellens etiske og sikkerhedsmæssige implikationer.
Samfundsengagement og gafler
Siden sin open source-udgivelse har DeepSeek-R1 tiltrukket forks og community-drevne eksperimenter på platforme som Hugging Face. Udviklere har rapporteret at have tilpasset mindre "destillerede" varianter (fra 1.5 milliarder til 70 milliarder parametre) til at køre på almindelig hardware, såsom forbruger-GPU'er, og dermed udvidet adgangen. Der har dog endnu ikke været en fuldstændig uafhængig udfordring til at reproducere R1 fra bunden, delvist på grund af de enorme beregningsressourcer, der kræves, og fraværet af offentligt delte rå datasæt. I modsætning til LLaMA, som affødte flere officielle reproduktionsbestræbelser fra community'et, afhænger DeepSeeks "open source"-påstand primært af at gøre vægte tilgængelige snarere end at muliggøre fuld community-ledet forskningstransparens.
Hvordan klarer DeepSeek sig i forhold til andre AI-modeller?
Benchmarking mod OpenAI o1, o3 og GPT-4.1
DeepSeek-R1's præstationsmålinger placerer den blandt de bedste inden for ræsonnementsmodeller. Ifølge interne benchmarks på LiveCodeBench (udviklet af UC Berkeley, MIT og Cornell) rangerer DeepSeeks opdaterede R1-0528 lige under OpenAI's o4-mini og o3 i kodegenerering, men overgår xAI's Grok 3-mini og Alibabas Qwen 3 mini. I mellemtiden kan OpenAI's GPT-4.1, udgivet den 14. april 2025, prale af et kontekstvindue på en million tokens og udmærker sig i kodning, instruktionsfølgelse og lange kontekstopgaver sammenlignet med sin forgænger GPT-4o.
Når man sammenligner R1 med GPT-4.1, fremkommer flere faktorer:
- Ydeevne på kode- og matematikbenchmarksR1 opnår 79.8% Pass@1 på AIME 2024 og en score på 97.3% på MATH-500, hvilket overgår o1 en smule. GPT-4.1 opnår til gengæld anslået ~54.6% på kodning (SWE-bench verificeret) og 72% på opgaver med lang kontekst – målinger, der, selvom de er imponerende, ikke er direkte sammenlignelige med R1's specialiserede ræsonnementbenchmarks.
- KontekstvindueGPT-4.1 understøtter op til en million tokens, hvilket gør det muligt at behandle hele bøger eller lange kodebaser i en enkelt gennemgang. DeepSeeks R1 matcher ikke denne kontekstlængde og fokuserer i stedet på effektivitet inden for ræsonnement og inferens på kortere input.
- OmkostningseffektivitetPå Hugging Face koster R1's API-adgang op til 95 % mindre end OpenAI's o1, hvilket gør den attraktiv for startups og forskere med begrænsede budgetter. GPT-4.1's basispris er $2 pr. million input-tokens og $8 pr. million output-tokens, med mini- og nano-varianter prissat endnu lavere ($0.40/$1.60 og $0.10/$0.40, henholdsvis). DeepSeeks destillerede modeller kan køre på bærbare computere, hvilket tilbyder et yderligere niveau af omkostningsbesparelser i hardwarekravfasen.
Arkitektoniske forskelle
DeepSeeks R1-model udnytter en blanding af eksperter (MoE) arkitektur, hvor store dele af netværket kun aktiveres efter behov, hvilket reducerer inferensberegningsomkostningerne betydeligt. Disse MoE-lag, kombineret med asynkrone kommunikationsbiblioteker (f.eks. hfreduce) og Fire-Flyer DDP-frameworket gør det muligt for DeepSeek at skalere ræsonnementsopgaver på tværs af svagere hardwareklynger under handelsrestriktioner.
I modsætning hertil bruger GPT-4.1 tætte transformerlag på tværs af hele sit netværk til at håndtere kontekstvinduet på en million tokens. Selvom dette fører til overlegen ydeevne på opgaver med lang kontekst, kræver det også betydelig beregningskraft til træning og inferens, deraf GPT-4.1's premium-placerede pris i forhold til mindre modeller som GPT-4.1 mini og nano.
Hvad er implikationerne af DeepSeeks open source-tilgang?
Indvirkning på global AI-konkurrence
DeepSeeks open source-udgivelse underminerer den traditionelle Silicon Valley-strategi med embargoer for proprietære modeller og data. Ved at gøre R1 offentligt tilgængelig under en MIT-licens har DeepSeek udfordret forestillingen om, at højtydende AI skal forblive lukket eller eksklusivt licenseret. De umiddelbare konsekvenser var håndgribelige: Amerikanske tech-giganter justerede priserne (f.eks. OpenAI udrullede GPT-4.1 mini og nano til lavere omkostninger) og accelererede udviklingen af deres egne ræsonnementscentrerede modeller, såsom o4-mini, for at bevare markedsandele. Branchekommentatorer kaldte DeepSeeks fremkomst et muligt "Sputnik-øjeblik" for amerikansk AI, hvilket signalerer et skift i den hegemoniske kontrol over grundlæggende AI-kapaciteter.
DeepSeeks open source-strategi påvirkede også venturekapitalens stemning. Mens nogle investorer frygtede, at støtte til amerikanske AI-firmaer kunne give faldende afkast, hvis kinesiske open source-alternativer spredte sig, så andre det som en mulighed for at diversificere globale AI-forskningssamarbejder. Venturekapitalisten Marc Andreessen roste R1 som "et af de mest fantastiske og imponerende gennembrud" og "en dyb gave til verden". I mellemtiden kan OpenAIs GPT-4.1-udgivelse i april 2025 delvist ses som en modforanstaltning til DeepSeeks omkostningseffektive open source-model, hvilket demonstrerer, at åben adgang ikke behøver at ofre banebrydende ydeevne.
Bekymringer om sikkerhed og privatliv
Trods entusiasmen omkring demokratisering af open source AI har DeepSeeks oprindelse skabt røde flag blandt privatlivsforkæmpere og offentlige myndigheder. I januar 2025 bekræftede Sydkoreas Personal Information Protection Commission (PIPC), at deres onlinetjeneste sendte sydkoreanske brugerdata til ByteDance-servere i Kina, hvilket førte til et forbud mod downloads af nye apps, indtil problemer med overholdelse af reglerne var løst. Et efterfølgende databrud i slutningen af januar 2025 afslørede over en million følsomme poster - chatbeskeder, API-nøgler og systemlogfiler - på grund af en forkert konfigureret cloud-lagringsdatabase, hvilket forværrede bekymringerne om DeepSeeks datasikkerhedspraksis.
I betragtning af kinesiske regler, der kan tvinge virksomheder til at dele data med statslige myndigheder, er nogle vestlige regeringer og virksomheder fortsat skeptiske over for at integrere DeepSeek i kritiske arbejdsgange. Selvom DeepSeek har taget skridt til at sikre sin infrastruktur (f.eks. ved at opdatere den eksponerede database inden for en time), er der fortsat skepsis over for potentielle bagdøre eller misbrug til påvirkningsoperationer. Wired rapporterede, at DeepSeek-onlinetjenesten, der sender data til sit hjemland, "kan bane vejen for større kontrol", og regulerende organer i Europa og USA har antydet en nærmere undersøgelse under GDPR- og CCPA-rammerne.
Indflydelse på hardware- og infrastrukturomkostninger
DeepSeeks evne til at træne og implementere højtydende ræsonnementsmodeller på suboptimal hardware har ringvirkninger på det bredere marked for AI-infrastruktur. Ved at demonstrere, at MoE-lag og optimeret parallelisme (f.eks. HaiScale DDP) kan levere sammenlignelig ræsonnementsnøjagtighed med fuldt tætte modeller, tvang DeepSeek store cloududbydere - Microsoft Azure, AWS og Google Cloud - til at evaluere integrationen af DeepSeeks optimeringsteknikker. Microsoft og Amazon er angiveligt begyndt at tilbyde DeepSeek-R1 som en del af deres AI-servicekataloger, der henvender sig til kunder, der søger billigere alternativer til GPT-4.1 eller o1 API'er.
Derudover reagerede NVIDIA, historisk set den dominerende GPU-leverandør, på sin MoE-drevne effektivitet ved at lægge vægt på specialiseret hardware (f.eks. HBM3-aktiverede GPU'er og NVLink-topologier) for at opretholde sin konkurrencefordel. NVIDIAs aktiekursvolatilitet efter stigningen understreger, hvordan gennembrud inden for algoritmisk effektivitet kan omforme prognoserne for hardwareefterspørgslen. Således har DeepSeek, selv uden at afsløre proprietær hardware, indirekte påvirket køreplanen for fremtidige AI-acceleratorer.
Hvad afslører den seneste R1-0528-opdatering om DeepSeeks engagement i åbenhed?
Tekniske forbedringer i R1-0528
DeepSeeks R28-2025-opdatering, der blev annonceret den 1. maj 0528, lover betydelige forbedringer inden for matematisk ræsonnement, programmeringsopgaver og afbødning af hallucinationer - fejl i AI-genereret information. Selvom DeepSeek beskrev denne udgivelse som en "mindre prøveopgradering", indikerer benchmarking på UC Berkeley, MIT og Cornells LiveCodeBench, at R1-0528 klarer sig konkurrencedygtigt med OpenAIs o3- og o4-mini-modeller. Opdateringen gentager også sin transparente open source-politik ved at frigive de nye vægte og inferenskode på Hugging Face kort efter annonceringen, hvilket forstærker sin forpligtelse til community-drevet udvikling og samarbejdsoptimering.
Modtagelse og feedback fra lokalsamfundet
Udviklermiljøet har reageret positivt på R1-0528 og henvist til reducerede hallucinationsrater og forbedret logisk konsistens i output. Diskussioner på fora som Hugging Face og GitHub viser, at forskere værdsætter de håndgribelige præstationsforbedringer uden at ofre MIT-licensens liberalitet. Nogle bidragydere har dog udtrykt bekymring over opaciteten af træningsdata og den potentielle indflydelse af statslige direktiver på finjustering og understreget, at open source-licensering alene ikke garanterer fuld gennemsigtighed. Disse dialoger understreger behovet for løbende engagement i lokalsamfundet for at sikre, at dens open source-etos omsættes til auditerbare, troværdige AI-systemer.
konklusioner
DeepSeeks satsning på open source AI har omdefineret forventningerne til tilgængelighed, ydeevne og omkostningseffektivitet. Selvom deres R1-model teknisk set er open source under en MIT-licens, komplicerer manglen på komplette træningsdata og pipeline-transparens dens klassificering som "fuldt" åben. Ikke desto mindre har dens resultater - træning af kraftfulde ræsonnementsmodeller under hardwarebegrænsninger og gøre dem bredt tilgængelige - ansporet både begejstring og forsigtig granskning i det globale AI-fællesskab.
Sammenligninger med OpenAIs GPT-4.1 afslører et nuanceret landskab: DeepSeek udmærker sig ved målrettede ræsonnementopgaver og omkostningsfølsomme indstillinger, hvorimod GPT-4.1's massive kontekstvindue og omfattende benchmark-overlegenhed gør det til det foretrukne valg til avancerede virksomhedsapplikationer. Efterhånden som DeepSeek udvikler sin R2-model og udvider samarbejdet med cloud-udbydere, vil dets skæbne afhænge af at adressere bekymringer om databeskyttelse, sikre overholdelse af lovgivningen og potentielt omfavne endnu større gennemsigtighed i sin forskningsproces.
I sidste ende understreger DeepSeeks fremgang, at open source AI ikke længere er et teoretisk ideal, men en praktisk kraft, der omformer konkurrencen. Ved at udfordre etablerede aktører har DeepSeek accelereret innovationscyklussen og fået både etablerede virksomheder og nye aktører til at gentænke, hvordan de udvikler, licenserer og implementerer AI-systemer. I dette dynamiske miljø – hvor GPT-4.1 sætter én standard og DeepSeek-R1 en anden – virker fremtiden for open source AI mere lovende og turbulent end nogensinde før.
Kom godt i gang
CometAPI leverer en samlet REST-grænseflade, der samler hundredvis af AI-modeller – under et ensartet slutpunkt med indbygget API-nøglestyring, brugskvoter og faktureringsdashboards. I stedet for at jonglere med flere leverandør-URL'er og legitimationsoplysninger, peger du din klient på basis-URL'en og angiver målmodellen i hver anmodning.
Udviklere kan få adgang til DeepSeeks API, såsom DeepSeek-V3 (modelnavn: deepseek-v3-250324) og Deepseek R1 (modelnavn: deepseek-r1-0528) Gennem CometAPIFor at begynde, udforsk modellens muligheder i Legeplads og konsulter API guide for detaljerede instruktioner. Før du får adgang, skal du sørge for at være logget ind på CometAPI og have fået API-nøglen.
Ny bruger af CometAPI? Start en gratis prøveperiode på 1$ og slip Sora løs på dine sværeste opgaver.
Vi glæder os til at se, hvad du bygger. Hvis noget føles forkert, så tryk på feedback-knappen – at fortælle os, hvad der gik i stykker, er den hurtigste måde at gøre det bedre på.
