DeepSeek, en kinesisk AI-oppstartsbedrift som først skapte overskrifter med sin R1-resonnementsmodell tidlig i 2025, har utløst intens debatt om tilstanden til åpen kildekode-AI og dens bredere implikasjoner. Selv om mye av oppmerksomheten har vært sentrert rundt dens imponerende ytelse – konkurrerende modeller fra amerikanske firmaer som OpenAI og Alibaba – gjenstår det spørsmål om hvorvidt DeepSeek genuint er «åpen kildekode» i ånd og praksis. Denne artikkelen fordyper seg i den siste utviklingen rundt DeepSeek, utforsker dens åpen kildekode-referanser, sammenligner den med modeller som GPT-4.1, og vurderer konsekvensene for det globale AI-landskapet.
Hva er DeepSeek, og hvordan oppsto det?
DeepSeeks opprinnelse og ambisjon
DeepSeek ble grunnlagt under navnet Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., med Liang Wenfeng (også omtalt som Wenfeng Liang) i spissen som selskapets viktigste visjonær. Deres etos skilte seg fra mange oppstartsbedrifter i Silicon Valley: i stedet for å prioritere rask kommersialisering, la DeepSeek vekt på forskningseffektivitet og kostnadseffektivitet. Tidlig i 2025 hadde DeepSeeks R1-modell allerede fått oppmerksomhet for å matche eller overgå ledende standarder innen matematisk resonnement og kodegenerering, til tross for at den ble utviklet under begrensningene fra amerikanske eksportkontroller på avanserte AI-brikker.
Gjennombrudd innen resonneringsmodeller
I januar 2025 avduket DeepSeek R1 under en MIT-lisens – en åpen kildekode-permissiv lisens – og hevdet at R1 oppnådde «79.8 % Pass@1 på AIME 2024, noe som overgikk OpenAI-o1-1217» og scoret «97.3 % på MATH-500, på nivå med o1 og bedre enn andre offentlige modeller». På kodeoppgaver oppnådde R1 en Elo-vurdering på 2,029 på Codeforces, og overgikk 96.3 % av menneskelige deltakere, noe som indikerte at modellen ikke bare var en teoretisk øvelse, men et høytytende verktøy egnet for virkelige applikasjoner.
Ved å utnytte teknikker som blanding av eksperter (MoE) og opplæring på svakere AI-brikker – nødvendiggjort av handelsrestriksjoner – reduserte DeepSeek opplæringskostnadene dramatisk. Observatører bemerket at tilnærmingen ikke bare utfordret den antatte avhengigheten av toppnivåmaskinvare, men også sendte «sjokkbølger» gjennom bransjen, noe som førte til at Nvidias markedsverdi falt med omtrent 600 milliarder dollar i én økt – «den største nedgangen for et enkelt selskap i det amerikanske aksjemarkedets historie».
Er DeepSeek virkelig åpen kildekode?
Lisens og tilgjengelighet
DeepSeeks R1-modell ble utgitt under MIT-lisensen på Hugging Face i januar 2025, noe som tillater ubegrenset kommersiell bruk, modifisering og omfordeling av modellvektene og tilhørende kode. Dette lisensvalget klassifiserer teknisk sett R1 som et åpen kildekode-prosjekt, men i praksis oppstår det nyanser. Selv om modellvektene og inferansekoden er offentlig tilgjengelig, har ikke hele treningsdatasettet eller de nøyaktige treningsrørledningene blitt utgitt. Denne utelatelsen reiser spørsmål om hvorvidt den kvalifiserer som "fullstendig" åpen kildekode i samme ånd som prosjekter som deler detaljer om ende-til-ende-reproduserbarhet. For eksempel, selv om hvem som helst kan laste ned og finjustere R1, kan de ikke gjenskape DeepSeeks originale treningsprosedyre uten tilgang til de proprietære dataene og klyngekonfigurasjonene (f.eks. Fire-Flyer-klyngene som bruker 5,000 A100 GPU-er).
Åpenhet av treningsdata
Åpen kildekode-purister legger ofte ikke bare vekt på tilgjengeligheten av modellvekter og kode, men også åpenhet om treningsdata, forbehandlingsskript og evalueringsbenchmarks. I dette tilfellet har selskapet delt detaljer på høyt nivå – som bruk av «syntetiske data generert av R1» for å finjustere destillerte varianter og innlemmelsen av regelbaserte belønningsfunksjoner for R1-Zero – men har holdt tilbake detaljer om dataopprinnelse og kurateringsprosesser. Uten denne informasjonen kan ikke eksterne forskere foreta en fullstendig revisjon for potensielle skjevheter, dataforurensning eller utilsiktede personvernlekkasjer, noe som etterlater åpne spørsmål om modellens etiske og sikkerhetsmessige implikasjoner.
Samfunnsengasjement og gafler
Siden lanseringen med åpen kildekode har DeepSeek-R1 tiltrukket seg forks og fellesskapsdrevne eksperimenter på plattformer som Hugging Face. Utviklere har rapportert at de har tilpasset mindre "destillerte" varianter (fra 1.5 milliarder til 70 milliarder parametere) for å kjøre på vanlig maskinvare, for eksempel forbruker-GPU-er, og dermed utvidet tilgangen. Det har imidlertid ennå ikke vært en helt uavhengig utfordring å reprodusere R1 fra bunnen av, delvis på grunn av de enorme beregningsressursene som kreves og fraværet av offentlig delte rådatasett. I motsetning til LLaMA, som skapte flere offisielle reproduksjonsinnsatser fra fellesskapet, avhenger DeepSeeks påstand om "åpen kildekode" først og fremst av å gjøre vekter tilgjengelige snarere enn å muliggjøre full åpenhet i fellesskapsledet forskning.
Hvordan er DeepSeek sammenlignet med andre AI-modeller?
Benchmarking mot OpenAI o1, o3 og GPT-4.1
DeepSeek-R1s ytelsesmålinger plasserer den blant de beste resonneringsmodellene. I følge interne benchmarks på LiveCodeBench (utviklet av UC Berkeley, MIT og Cornell), rangerer DeepSeeks oppdaterte R1-0528 rett under OpenAIs o4-mini og o3 i kodegenerering, men overgår xAIs Grok 3-mini og Alibabas Qwen 3 mini. I mellomtiden har OpenAIs GPT-4.1, utgitt 14. april 2025, et kontekstvindu på én million tokens og utmerker seg i koding, instruksjonsfølgelse og lange kontekstoppgaver sammenlignet med forgjengeren GPT-4o.
Når man sammenligner R1 med GPT-4.1, dukker det opp flere faktorer:
- Ytelse på kode- og matematikkbenchmarksR1 oppnår 79.8 % Pass@1 på AIME 2024 og en score på 97.3 % på MATH-500, noe som overgår o1. GPT-4.1 oppnår på sin side anslagsvis ~54.6 % på koding (SWE-bench verifisert) og 72 % på oppgaver med lang kontekst – målinger som, selv om de er imponerende, ikke er direkte sammenlignbare med R1s spesialiserte resonneringsbenchmarks.
- KontekstvinduGPT-4.1 støtter opptil én million tokens, noe som gjør det mulig å behandle hele bøker eller lange kodebaser i én omgang. DeepSeeks R1 matcher ikke denne kontekstlengden, og fokuserer i stedet på resonnement og inferenseffektivitet på kortere input.
- KostnadseffektivitetPå Hugging Face koster R1s API-tilgang opptil 95 % mindre enn OpenAIs o1, noe som gjør den attraktiv for oppstartsbedrifter og forskere med begrensede budsjetter. GPT-4.1s basispris er $2 per million input-tokener og $8 per million output-tokener, med mini- og nano-varianter priset enda lavere ($0.40/$1.60 og $0.10/$0.40, henholdsvis). DeepSeeks destillerte modeller kan kjøres på bærbare datamaskiner, noe som gir et ytterligere nivå av kostnadsbesparelser i maskinvarekravfasen.
Arkitektoniske forskjeller
DeepSeeks R1-modell benytter en blanding av eksperter (MoE)-arkitektur, der store deler av nettverket kun aktiveres etter behov, noe som reduserer inferensberegningskostnadene betydelig. Disse MoE-lagene, kombinert med asynkrone kommunikasjonsbiblioteker (f.eks. hfreduce) og Fire-Flyer DDP-rammeverket, gjør det mulig for DeepSeek å skalere resonneringsoppgaver på tvers av svakere maskinvareklynger under handelsrestriksjoner.
I motsetning til dette bruker GPT-4.1 tette transformatorlag over hele nettverket for å håndtere kontekstvinduet på én million tokens. Selv om dette fører til overlegen ytelse på oppgaver med lang kontekst, krever det også betydelig databehandling for trening og inferens, derav GPT-4.1s premiumprising i forhold til mindre modeller som GPT-4.1 mini og nano.
Hva er implikasjonene av DeepSeeks åpen kildekode-tilnærming?
Innvirkning på global AI-konkurranse
DeepSeeks åpen kildekode-utgivelse undergraver den tradisjonelle Silicon Valley-strategien med proprietære modell- og dataembargoer. Ved å gjøre R1 offentlig tilgjengelig under en MIT-lisens, har DeepSeek utfordret ideen om at høyytelses AI må forbli lukket eller eksklusivt lisensiert. De umiddelbare konsekvensene var merkbare: Amerikanske teknologigiganter justerte prisene (f.eks. rullet OpenAI ut GPT-4.1 mini og nano til lavere kostnader) og akselererte utviklingen av sine egne resonnementsentriske modeller, som o4-mini, for å beholde markedsandeler. Bransjekommentatorer kalte DeepSeeks fremvekst et mulig «Sputnik-øyeblikk» for amerikansk AI, noe som signaliserte et skifte i hegemonisk kontroll over grunnleggende AI-kapasiteter.
DeepSeeks strategi for åpen kildekode påvirket også holdningen til risikokapital. Mens noen investorer fryktet at støtte til amerikanske AI-firmaer kunne gi avtagende avkastning hvis kinesiske alternativer til åpen kildekode spredte seg, så andre det som en mulighet til å diversifisere globale AI-forskningssamarbeid. Risikokapitalisten Marc Andreessen hyllet R1 som «et av de mest fantastiske og imponerende gjennombruddene» og «en dyp gave til verden». Samtidig kan OpenAIs GPT-4.1-utgivelse i april 2025 delvis sees på som et mottiltak til DeepSeeks kostnadseffektive modell for åpen kildekode, noe som demonstrerer at åpen tilgang ikke trenger å ofre banebrytende ytelse.
Bekymringer om sikkerhet og personvern
Til tross for entusiasmen rundt demokratisering av åpen kildekode for kunstig intelligens, har DeepSeeks opprinnelse skapt røde flagg blant personvernforkjempere og offentlige etater. I januar 2025 bekreftet Sør-Koreas kommisjon for beskyttelse av personopplysninger (PIPC) at deres nettjeneste sendte sørkoreanske brukerdata til ByteDance-servere i Kina, noe som førte til et forbud mot nedlastinger av nye apper inntil samsvarsproblemer var løst. Et påfølgende datainnbrudd sent i januar 2025 avslørte over én million sensitive oppføringer – chatmeldinger, API-nøkler og systemlogger – på grunn av en feilkonfigurert skylagringsdatabase, noe som forverret bekymringene rundt DeepSeeks datasikkerhetspraksis.
Gitt kinesiske forskrifter som kan tvinge selskaper til å dele data med statlige myndigheter, er noen vestlige regjeringer og bedrifter fortsatt skeptiske til å integrere DeepSeek i kritiske arbeidsflyter. Selv om DeepSeek har tatt grep for å sikre infrastrukturen sin (f.eks. ved å oppdatere den eksponerte databasen innen en time), er det fortsatt skepsis til potensielle bakdører eller misbruk for påvirkningsoperasjoner. Wired rapporterte at DeepSeek-netttjenesten som sender data til hjemlandet sitt «kan bane vei for større gransking», og reguleringsorganer i Europa og USA har antydet nærmere undersøkelse under GDPR- og CCPA-rammeverkene.
Innflytelse på maskinvare- og infrastrukturkostnader
DeepSeeks evne til å trene og distribuere høytytende resonneringsmodeller på suboptimal maskinvare har ringvirkninger på det bredere markedet for AI-infrastruktur. Ved å demonstrere at MoE-lag og optimalisert parallellisme (f.eks. HaiScale DDP) kan levere sammenlignbar resonneringsnøyaktighet med fullstendig tette modeller, og DeepSeek tvang store skyleverandører – Microsoft Azure, AWS og Google Cloud – til å evaluere integreringen av DeepSeeks optimaliseringsteknikker. Microsoft og Amazon har angivelig begynt å tilby DeepSeek-R1 som en del av sine AI-tjenestekataloger, som henvender seg til kunder som søker rimeligere alternativer til GPT-4.1 eller o1 API-er.
Videre reagerte NVIDIA, historisk sett den dominerende GPU-leverandøren, på sin MoE-drevne effektivitet ved å legge vekt på spesialisert maskinvare (f.eks. HBM3-aktiverte GPU-er og NVLink-topologier) for å opprettholde sitt konkurransefortrinn. NVIDIAs aksjekursvolatilitet etter oppgangen understreker hvordan gjennombrudd innen algoritmisk effektivitet kan omforme prognoser for maskinvareetterspørsel. Dermed har DeepSeek, selv uten å avduke proprietær maskinvare, indirekte påvirket veikartet for fremtidige AI-akseleratorer.
Hva avslører den siste R1-0528-oppdateringen om DeepSeeks forpliktelse til åpenhet?
Tekniske forbedringer i R1-0528
DeepSeeks R28-2025-oppdatering, som ble annonsert 1. mai 0528, lover betydelige forbedringer i matematisk resonnering, programmeringsoppgaver og reduksjon av hallusinasjoner – feil i AI-generert informasjon. Selv om DeepSeek beskrev denne utgivelsen som en «mindre prøveoppgradering», indikerer benchmarking på UC Berkeley, MIT og Cornells LiveCodeBench at R1-0528 yter konkurransedyktig med OpenAIs o3- og o4-mini-modeller. Oppdateringen gjentar også sin transparente åpen kildekode-policy ved å gi ut de nye vektene og slutningskoden på Hugging Face kort tid etter kunngjøringen, noe som forsterker sin forpliktelse til fellesskapsdrevet utvikling og samarbeidende optimalisering.
Mottakelse og tilbakemeldinger fra lokalsamfunnet
Utviklermiljøet har reagert positivt på R1-0528, og vist til reduserte hallusinasjonsrater og forbedret logisk konsistens i resultatene. Diskusjoner på forum som Hugging Face og GitHub indikerer at forskere setter pris på de konkrete ytelsesforbedringene uten at det går på bekostning av MIT-lisensens tillatelsesnivå. Noen bidragsytere har imidlertid uttrykt bekymring for ugjennomsiktigheten i treningsdata og potensiell innflytelse fra statlige direktiver i finjusteringen, og understreket at åpen kildekode-lisensiering alene ikke garanterer full åpenhet. Disse dialogene understreker behovet for kontinuerlig samfunnsengasjement for å sikre at dens åpen kildekode-etos oversettes til reviderbare, pålitelige AI-systemer.
Konklusjoner
DeepSeeks satsing på åpen kildekode-AI har omdefinert forventningene til tilgjengelighet, ytelse og kostnadseffektivitet. Selv om R1-modellen teknisk sett er åpen kildekode under en MIT-lisens, kompliserer mangelen på fullstendige treningsdata og gjennomsiktighet i pipeline klassifiseringen som «fullstendig» åpen. Likevel har prestasjonene – å trene kraftige resonneringsmodeller under maskinvarebegrensninger og gjøre dem allment tilgjengelige – skapt både entusiasme og forsiktig gransking i det globale AI-fellesskapet.
Sammenligninger med OpenAIs GPT-4.1 avslører et nyansert landskap: DeepSeek utmerker seg i målrettede resonneringsoppgaver og kostnadssensitive innstillinger, mens GPT-4.1s massive kontekstvindu og omfattende overlegenhet innen referanseverdier gjør det til det foretrukne valget for avanserte bedriftsapplikasjoner. Etter hvert som DeepSeek utvikler sin R2-modell og utvider samarbeid med skyleverandører, vil dens skjebne avhenge av å håndtere bekymringer knyttet til personvern, sikre samsvar med regelverk og potensielt omfavne enda større åpenhet i forskningsprosessen.
Til syvende og sist understreker fremveksten av DeepSeek at åpen kildekode-AI ikke lenger er et teoretisk ideal, men en praktisk kraft som omformer konkurransen. Ved å utfordre etablerte aktører har DeepSeek akselerert innovasjonssyklusen, noe som har fått både etablerte firmaer og nye aktører til å revurdere hvordan de utvikler, lisensierer og distribuerer AI-systemer. I dette dynamiske miljøet – hvor GPT-4.1 setter én standard og DeepSeek-R1 en annen – virker fremtiden for åpen kildekode-AI mer lovende og turbulent enn noen gang før.
Komme i gang
CometAPI tilbyr et enhetlig REST-grensesnitt som samler hundrevis av AI-modeller – under et konsistent endepunkt, med innebygd API-nøkkeladministrasjon, brukskvoter og faktureringsdashboards. I stedet for å sjonglere flere leverandør-URL-er og legitimasjonsinformasjon, peker du klienten din mot basis-URL-en og spesifiserer målmodellen i hver forespørsel.
Utviklere kan få tilgang til DeepSeeks API, for eksempel DeepSeek-V3 (modellnavn: deepseek-v3-250324) og Deepseek R1 (modellnavn: deepseek-r1-0528) gjennom CometAPIFor å begynne, utforsk modellens muligheter i lekeplass og konsulter API-veiledning for detaljerte instruksjoner. Før du får tilgang, må du sørge for at du har logget inn på CometAPI og fått API-nøkkelen.
Ny bruker av CometAPI? Start en gratis prøveperiode på 1 dollar og slipp Sora løs på de vanskeligste oppgavene dine.
Vi gleder oss til å se hva du lager. Hvis noe føles rart, trykk på tilbakemeldingsknappen – å fortelle oss hva som gikk i stykker er den raskeste måten å gjøre det bedre på.
