DeepSeek v4 er nu tilgængelig på nettet: Sådan får du adgang til det og tester det

CometAPI
AnnaApr 9, 2026
DeepSeek v4 er nu tilgængelig på nettet: Sådan får du adgang til det og tester det

I et træk, der har sendt rystelser gennem det globale AI-fællesskab, har DeepSeek stille og roligt rullet en gråskaletest af sin længe ventede V4-model ud på nettet. Lækkede skærmbilleder af grænsefladen afslører et transformerende system med tre tilstande—Fast, Expert og Vision—der positionerer DeepSeek V4 som en multimodal kraftpakke med dybe ræsonneringsevner, der kan matche eller overgå førende modeller som Claude Opus og GPT-5-varianter.

Dette er ikke blot endnu en inkrementel opdatering. Med rygtede 1 trillion parametre, et 1 million token kontekstvindue drevet af ny Engram-hukommelsesarkitektur og indbygget billed-/videobehandling lover DeepSeek V4 at levere enterprise-niveau ydeevne til forbrugervenlige omkostninger. Uanset om du er udvikler, der bygger agenter, forsker med komplekse analyser, eller en virksomhed på jagt efter avanceret multimodal AI, dækker denne guide alt, du behøver at vide.

Hos CometAPI har vi fulgt DeepSeeks udvikling tæt. Som en samlet AI API-platform, der tilbyder DeepSeek V3.2 og tidligere modeller med op til 20% under officiel prissætning og sømløse OpenAI-kompatible endpoints, er vi begejstrede for integrationen af V4. Senere i dette indlæg viser vi, hvordan CometAPI kan fremtidssikre dine arbejdsgange, når V4 går fuldt i luften.

Hvad er DeepSeek V4?

DeepSeek V4 repræsenterer næste skridt i det kinesiske AI-labs flagskibs V-serie. Med afsæt i succesen fra DeepSeek-V3 og V3.2—som introducerede hybride tænkende/ikke-tænkende tilstande og stærke agentiske kapabiliteter—skalerer V4 dramatisk i størrelse, intelligens og alsidighed.

Brancheanalytikere estimerer V4 som en Mixture-of-Experts (MoE)-model, der overstiger 1 trillion samlede parametre, med kun ~37-40 milliarder aktive pr. token for effektivitet. Denne arkitektur, forfinet fra V3’s MoE-fundament, aktiverer specialiserede “eksperter” dynamisk, hvilket skærer i inferensomkostningerne, mens ydeevnen øges på kode, matematik og lang-kontekst opgaver.

Vigtige differentieringspunkter omfatter:

  • Indbygget multimodal støtte (tekst + billeder + video).
  • Ultralang kontekst op til 1M tokens via Engram betinget hukommelse.
  • Optimering til indenlandsk hardware—V4 er designet til primært at køre på Huawei Ascend-chips, hvilket afspejler Kinas stræben efter teknologisk selvforsyning.

DeepSeek har en historik for at open-source modeller under Apache 2.0, hvilket gør V4 til potentielt en af de mest tilgængelige frontliniemodeller. Lækkede benchmarks antyder, at den kan nå 90% på HumanEval og 80%+ på SWE-bench Verified, hvilket placerer den i direkte konkurrence med Claude Opus 4.5/4.6 og GPT-5 Codex-varianter. V4 er ikke en simpel inkrementel opdatering — den repræsenterer en fuld produktmatrix-omlægning med tilpassede tilstande til forskellige brugerbehov, lig Kimi’s Fast/Expert-stratificering, men med tilføjet Vision.

Seneste opdateringer vedrørende DeepSeek V4

Pr. april 2026 er DeepSeek V4 i begrænset gråskaletest frem for en fuld offentlig lancering. Flere programmører og Weibo-influencere delte skærmbilleder af den opdaterede chatgrænseflade den 7.-8. april, der viser en markant omkalfatring fra den tidligere dobbelt-option (Deep Thinking R1 / Smart Search) layout.

Det nye UI introducerer en fremtrædende tilstandsvælger med tre muligheder:

  • Fast Mode (standard, ubegrænset daglig brug til almindelige opgaver).
  • Expert Mode.
  • Vision Mode.

V4 vil udnytte Huaweis nyeste chips, med en fuld lancering forventet “i de næste par uger” fra begyndelsen af april.

Fast Mode (også kaldet Instant) er standard og ubegrænset til daglig brug. Expert Mode lægger vægt på dyb tænkning og viser højere token-gennemløb i nogle tests (~64 tokens/s mod ~49 for Fast). Vision Mode muliggør direkte upload og analyse af billeder/video.

  • Nogle tidlige testere rapporterer 1M kontekst og opdateret viden-cutoff (data efter 2025); andre bemærker, at Expert stadig føles som en optimeret V3.2 med 128K begrænsninger — hvilket bekræfter gråskalens gradvise natur.

Virksomheden har forblevet tavs om officiel navngivning, men ændringerne i grænsefladen, multimodale hints og sammenfaldet med tidligere læk (suite af tre modeller på indenlandske chips) indikerer stærkt, at dette er V4-varianter i test. Fuld lancering forventes bredt “denne måned” (april 2026).

Hvad er den nye funktionsarkitektur for DeepSeek V4? (Quick-version vs. Expert-version spekulation)

Lækkede detaljer peger på en sofistikeret trelagsarkitektur, der adskiller daglig effektivitet fra højtprioriteret ræsonnering og multimodal behandling.

Fast Mode (Quick-version): Optimeret til øjeblikkelige svar og høj gennemstrømning i daglig dialog. Analytikere mener, at dette routes til en let destilleret variant eller en mindre aktiv-parameterandel af MoE-modellen. Den understøtter filuploads og basale opgaver med minimal latenstid—perfekt til hurtige forespørgsler eller prototyper. Ubegrænset daglig brug gør den ideel for almindelige brugere.

Expert Mode (Deep Reasoning-version): Udbredt spekulation peger på, at dette er den sande “DeepSeek V4”-kerne. Den lægger vægt på flertrins ræsonnering, domænespecifikke forbedringer, visualisering af tankeprocesser og styrket sporbarhed af citationer. Insidere knytter den til den “nye hukommelsesarkitektur” (Engram betinget hukommelse), beskrevet i papers underskrevet af DeepSeeks ledelse. Engram adskiller statisk viden (O(1) hash-opslag) fra dynamisk ræsonnering, hvilket muliggør stabile 1M-token kontekster uden eksploderende beregningsomkostninger. Tidlige testere rapporterer overlegen logisk stabilitet og selvkorrektion på komplekse problemer.

Vision Mode: Den multimodale flagskibs-tilstand, der er i stand til indbygget billed-/videoforståelse og -generering. I modsætning til traditionelle VLM’er, der boltes på tekstmodeller, antydes en “dybt forenet verdensmodel”-arkitektur—potentielt ved at integrere visuelle tokens direkte i MoE-routing for sømløs krydsmodal ræsonnering.

Denne Quick-vs-Expert-opdeling gør det muligt for DeepSeek at betjene både massemarkedet (Fast) og power-brugere (Expert/Vision) uden at kompromittere nogen af oplevelserne. Fuld kommercialisering kan introducere kvoter på Expert/Vision, mens Fast holdes gratis/ubegrænset.

DeepSeek V4’s Visual- og Expert-tilstand i gråskaletest

Gråskalaeksponeringen har været den største katalysator for begejstring. Jeg tester:

  • Expert Mode udløser længere intern “tænkning” (synlig chain-of-thought i nogle visninger) og producerer mere præcise output med kilder.
  • Vision Mode aktiveres automatisk, når billeder vedhæftes, og omdirigerer prompts til analyse eller generering.

Disse funktioner stemmer overens med DeepSeeks publicerede forskning i manifold-begrænsede hyper-forbindelser (mHC) og DeepSeek Sparse Attention (DSA)—innovationer, der stabiliserer træning i trillion-parameter skala og forbedrer langhorisont agentiske opgaver.

Expert Mode kan allerede køre et tidligt V4-checkpoint, hvilket forklarer det oplevede intelligensspring. Vision Modes adskillelse antyder, at den ikke er et simpelt add-on, men en kernearkitektonisk søjle.

Sådan får du adgang til og bruger DeepSeek V4 på nettet: Trin-for-trin guide

Adgang til gråskalaversionen er ligetil, men i øjeblikket begrænset:

  1. Besøg den officielle platform: Gå til chat.deepseek.com eller platform.deepseek.com og log ind med din DeepSeek-konto (gratis tilmelding tilgængelig).
  2. Kig efter tilstandsvælgeren: Hvis du er i gråskalakohorten, vil du se de nye Fast/Expert/Vision-knapper. Ikke alle har den endnu—udrulningen er faset.
  3. Vælg din tilstand:
  • Start med Fast Mode til hverdagssnak.
  • Skift til Expert Mode for kompleks ræsonnering, kodning eller forskning.
  • Upload billeder/videoer for at aktivere Vision Mode.
  1. Prompt effektivt: For Expert, brug detaljerede instruktioner som “Tænk trin for trin og verificer din logik.” For Vision, beskriv billeder præcist (fx “Analyser dette diagram for tendenser og generér en oversigtstabel”).
  2. Overvåg begrænsninger: Fast er ubegrænset; Expert og Vision kan have daglige kvoter under test.

Pro tip: Aktiver websøgning eller filuploads, hvor det er tilgængeligt, for rigere kontekst.

Hvis gråskalaadgang endnu ikke er tilgængelig, kan du stadig bruge DeepSeek-V3.2 (den nuværende produktionsmodel) på samme side. Fuld V4-udrulning er nært forestående—hold øje med CometAPI.

Sådan integrerer du DeepSeek V4 i din arbejdsgang via API

Mens webadgang er god til udforskning, kræver produktion brug pålidelige API’er. Den officielle DeepSeek API betjener i øjeblikket V3.2 (128K kontekst), men V4-endpoints forventes snart.

Enter CometAPI: Som en samlet AI API-aggregator leverer CometAPI allerede DeepSeek V3, V3.1, V3.2 og R1-modeller med OpenAI-kompatible endpoints, 20% lavere prissætning, gratis startkreditter, forbrugsanalyse og automatisk failover på tværs af udbydere. Ingen kodeændringer er nødvendige, når V4 lander—vi tilføjer den sømløst.

Hurtig opsætning på CometAPI:

  • Registrér på cometapi.com.
  • Generér en API-nøgle (sk-xxx).
  • Brug base-URL’en https://api.cometapi.com og modelnavne som deepseek-v4-expert (når den er live).
  • Eksempel på Python-kald:
  from openai import OpenAI
  client = OpenAI(api_key="your_cometapi_key", base_url="https://api.cometapi.com")
  response = client.chat.completions.create(
      model="deepseek-v4-expert",  # eller Vision-variant
      messages=[{"role": "user", "content": "Din prompt her"}]
  )

CometAPI’s playground lader dig teste V4-tilstande side om side med Claude eller GPT uden at skifte dashboards. For virksomheder betyder dette lavere omkostninger, forudsigelig afregning og ingen leverandørlås—ideelt til skalering af agentiske arbejdsgange eller multimodale apps.

Nøglekapabiliteter og benchmarks for DeepSeek V4

Lækkede data tegner et imponerende billede:

  • Kodning: ~90% HumanEval, 80%+ SWE-bench Verified (projekteret til at matche eller slå Claude Opus 4.6).
  • Ræsonnering: Forbedret MATH-500 (~96%) og lang-kontekst Needle-in-Haystack (97% ved 1M tokens).
  • Multimodal: Indbygget billed-/videoforståelse plus SVG/kodegenerering langt bedre end V3.
  • Effektivitet: MoE holder omkostningerne nede; Engram-hukommelse reducerer VRAM-behov med ~45% ift. tætte modeller.

Virkelige tests i Expert Mode viser stærkere selvkorrektion og repository-niveau kodning sammenlignet med V3.2.

Hvordan sammenlignes DeepSeek V4 med andre førende AI-modeller?

FunktionDeepSeek V4 (projekteret)Claude Opus 4.6GPT-5.4 Codex
Parametre (total/aktive)~1T / ~37BIkke oplystIkke oplyst
Kontekstvindue1M tokens200K-256K~200K
Multimodal (indbygget)Ja (Vision Mode)JaJa
Kodning (SWE-bench)80%+80.9%~80%
Pris (anslået output)Meget lav (åben kurs)HøjHøj
Åbne vægteSandsynligvisNejNej

V4’s fordel ligger i pris-ydelse og åben tilgængelighed, hvilket gør frontlinje-AI tilgængelig for mindre teams.

Hvad er praktiske use cases for DeepSeek V4?

  • Softwareudvikling: Expert Mode til refaktorering på tværs af filer, fejlfinding og analyse på repo-niveau.
  • Multimodal analyse: Upload diagrammer, skemaer eller videoer for øjeblikkelige indsigter (Vision Mode).
  • Agentiske arbejdsgange: Lang-kontekst hukommelse driver autonome forskningsagenter.
  • Indhold & design: Generér præcise SVG/kode ud fra beskrivelser; analyser visuelt data.
  • Uddannelse/Forskning: Trin-for-trin forklaringer med verificerbare kildehenvisninger.

Hvorfor vælge CometAPI til DeepSeek V4 og fremover?

For udviklere og virksomheder er webchatten et startpunkt—men skalerbar produktion kræver robust infrastruktur. CometAPI leverer netop det: rabatteret DeepSeek-adgang i dag (V3.2 til $0.22–$0.35/M tokens) og en klar migrationssti til V4. Funktioner som prompt-caching, analyse og multimodel-routing reducerer omkostningerne med 20-30% samtidig med, at nedetid elimineres. Uanset om du bygger den næste AI-agent eller indlejrer vision-kapabiliteter, sikrer CometAPI, at du er klar i det øjeblik V4 API’en lander.

Konklusion

Ved at tilbyde intelligens på frontlinjeniveau gratis med tilpassede tilstande demokratiserer DeepSeek avanceret AI, mens der optimeres til indenlandsk compute. Dette lægger pres på vestlige laboratorier på både ydeevne og pris, og accelererer hele branchen mod mere effektive, tilgængelige modeller.

DeepSeek V4 er ikke bare en opgradering—det er en køreplan for effektiv, tilgængelig superintelligens. Begynd at eksperimentere på nettet i dag, og forbered din stack med CometAPI for sømløs skalering i morgen.

Adgang til topmodeller til lav pris

Læs mere