Den 16. februar 2026 — timet til at falde sammen med det højprofilerede øjeblik på kinesisk nytårsaften — annoncerede Alibaba lanceringen af Qwen 3.5, den næste store iteration af deres flagskabsfamilie af store sprog- og multimodale modeller.
Qwen-varianter mindsker afstanden til de bedste lukkede modeller, mens andre kinesiske udgivelser som GLM-5 og MiniMax M2.5 også skubber grænserne. På rene benchmark-topninger fører nogle proprietære konfigurationer (specialiserede GPT/Gemini/Claude-varianter) stadig i snævre nicher, men Qwen-3.5’s kombination af åbne vægte, multimodale agent-funktioner og markant lavere driftsomkostninger gør det til den mest disruptive nyhed i begyndelsen af 2026.
Hvad er Qwen3.5, helt præcist?
Qwen3.5 er den nyeste generation i Alibabas open-weight, multimodale grundmodel-familie (åbne vægte for nogle varianter samt et lukket/“plus”-niveau for højere ydeevne), designet til såkaldte “agentiske” arbejdsforløb — dvs. modeller der kan sanse (vision + tekst), ræsonnere over flere trin og udløse værktøjer eller handlinger. Alibabas annoncering fremhæver Qwen3.5 som et spring i ydeevne + omkostninger i forhold til Qwen3 og tidligere varianter, med indbyggede vision-sprog-/agentiske kapabiliteter og understøttelse af store kontekstvinduer.
Udgivne versioner
Alibaba udgav mindst to varianter:
| Modelversion | Samlet antal parametre | Aktive parametre | Nøglekarakteristika |
|---|---|---|---|
| Qwen3.5-397B-A17B | ~397 milliarder | 17 milliarder | Flagskib med åbne vægte; effektiv inferens; multimodal |
| Qwen3.5-Plus | ~3970 mia. ækvivalent | ~170 milliarder | Skyhostet fuldkapacitetsvariant til API-brug |
Hvad er Qwen3.5’s nøglefunktioner?
Nedenfor er en detaljeret oversigt over de vigtigste innovationer i Qwen3.5 og hvordan de sammenlignes med topklasse-lukkede modeller:
1. Hybridarkitektur og inferens-effektivitet
Qwen3.5 kombinerer:
- Sparse MoE-lag — for effektiv skalering
- Gated Delta Networks med lineær attention — for hurtigere token-behandling
- Massivt kontekstvindue — op til 1M tokens (udvideligt), muliggør lange opgavesevenser som lange videoer eller kodebaser uden placeholder-afvejninger
| Funktion | Qwen3.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| Arkitektur | MoE + Gated Delta | Dense transformer | Dense transformer | Dense transformer |
| Kontekstlængde | Op til 1M tokens | ~100–200K tokens | ~100–200K tokens | ~100–200K tokens |
| Multimodal (indbygget) | Ja | Ja | Ja | Ja |
| Understøttede sprog | 201+ | ~100+ | ~100+ | ~100+ |
| Inferens-effektivitet | Meget høj | Moderat | Moderat | Moderat |
Vurdering: Qwen3.5’s hybridarkitektur er særligt egnet til effektiv inferens med mange tokens, en konkurrencefordel i virkelige implementeringer hvor throughput og omkostninger betyder meget.
2. Agentiske evner
“Agentisk AI” refererer til modeller, der autonomt operationaliserer opgaver — træffer beslutninger, agerer på GUI-mål eller udfører logik i flere trin uden menneskelig indgriben.
Ifølge Alibabas officielle meddelelser kan Qwen3.5:
- Udføre flertrinsopgaver autonomt på tværs af mobil- og desktopapplikationer
- Understøtte visuelt agentarbejde, såsom GUI-manipulation og videoforståelse
- Omfatte udvidet ræsonnering og opgaveplanlægning
Dette positionerer Qwen3.5 ikke kun som en konversationel LLM, men som et fundament for autonome AI-arbejdsforløb — aktuelt en fremvoksende front i AI-forskning og -implementering.
3. Multimodalitet og sprogdækning
En af Qwen3.5’s fremtrædende egenskaber er indbygget multimodal kapabilitet: den håndterer tekst, billede og video sømløst — et kendetegn for næste generations AI-systemer. Derudover er sprogunderstøttelsen udvidet markant, nu med 201 sprog og dialekter (op fra 119 i Qwen3), hvilket i høj grad udvider den globale anvendelighed.
4. Multimodal intelligens
I modsætning til de fleste traditionelle sprogmodeller, der kun excellerer i tekst, muliggør Qwen 3.5’s vision-sprog-integration funktioner som:
- Forståelse af lange videoer — med op til 2 timers kontinuerlig videoindgang.
- Visuel ræsonnering og fortolkning — på tværs af opgaver som billedgenkendelse, billedtekster og visuelle kommandoer.
- GUI- og kodesyntese — f.eks. at konvertere visuelle UI-mockups til fungerende kode.
Disse funktioner positionerer den ikke kun som en LLM, men som et multimodalt fundament for autonome agenter.
Hvordan klarer Qwen-3.5 sig på benchmarks

Kerneræsonnering og vidensevalueringer
Følgende tabel opsummerer offentliggjorte benchmark-tal, der sammenligner Qwen3.5 med store proprietære modparter:
| Benchmark | Qwen3.5 | GPT-5.2 | Claude 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMLU-Pro (viden) | 87.8 | ~85+ | n/a | ~86+ |
| GPQA (ph.d.-niveau ræsonnering) | 88.4 | ~87 | ~87 | ~88 |
| IFBench (instruktionsfølgning) | 76.5 | ~74–75 | ~75 | ~74 |
| BFCL-V4 (generel agent) | >Gemini 3 Pro | Baseline | Below Qwen3.5 | Se noter |
- TAU2-Bench (værktøjsudførelse + ræsonnering): Qwen3.5 (åben 397B-variant) — ~87.1; GPT-5.2-konfigurationer ligger ofte i høje 80’ere–90’ere på TAU-suiter i leverandørtabeller.
- BFCL-V4 (funktion-/værktøjskald): Qwen3.5 — ~72.9; top lukkede modeller i leverandørers lister viser højere værdier (GPT-5.2 / Claude Opus-varianter ligger ~77–78 for nogle konfigurationer). BFCL måler korrekt funktionsvalg, argumentopstilling og værktøjsorkestrering.
- VITA-Bench (multimodale agent-interaktioner): Qwen3.5 — ~49.7; konkurrerende lukkede modeller spænder bredt: nogle har højere visuel ræsonnering i enkeltmodalitet, men Qwens integrerede multimodale agent-tal er konkurrencedygtige.
- DeepPlanning (lang-horisont planlægning): Qwen3.5 — ~34.3; DeepPlanning er en nyere, sværere test med fokus på flerdages planlægning og lange handlingskæder (paper: arXiv). Point på tværs af alle frontmodeller viser plads til forbedring; Qwens værdi er, at den forbedrer agentisk lang-horisont-evne i forhold til tidligere Qwen-iterationer.
- MMLU / MMMLU / vidensopgaver: Qwen3.5 — MMLU/varianter rapporteret ~88–89 (leverandørtal), hvilket placerer den i topniveauet for almen viden/ræsonnering sammenlignet med tidligere Qwen-versioner.
Hvad disse tal implicerer: Qwen3.5 scorer især godt på multi-værktøjs- og multimodale agent-leaderboards (BFCL, TAU2-varianter, VITA), hvilket stemmer overens med Alibabas erklærede produktmål (agenter der handler i apps). På standard ræsonnerings- eller kodningsområder er modellen konkurrencedygtig, men ikke en entydig, altoverskyggende vinder over de stærkeste lukkede systemer — snarere ligger den i topniveauet og lukker huller i mange praktiske områder. Qwen3.5 matcher eller overgår snævert førende lukkede modeller i udvalgte opgaver — især vidensræsonnering, multimodal forståelse og agent-arbejdsflows.
Overgår Qwen3.5 topklasse-lukkede modeller i 2026?
Dette er det centrale spørgsmål — og svaret kræver nuancer. De fleste neutrale AI-analytikere vil karakterisere Qwen3.5 som konkurrencedygtig med den højeste klasse af lukkede modeller i 2026, og — i virkelig kost-værdi-forstand — ofte bedre til mange praktiske anvendelser, især hvor multimodalitet og kontekstlængde er kritiske.
Ja — i specifikke benchmarks og omkostningsmetrikker
Effektivitet og prissætning: På tokenomkostning, inferenshastighed og implementeringspris er Qwen3.5 markant foran.
Benchmark-ydelse: Rapporterede resultater viser, at Qwen3.5 matcher eller overgår GPT-5.2 og Gemini 3 Pro i vidensræsonnering (MMLU-Pro) og avancerede ræsonneringsbenchmarks. I agentiske opgaver hævdes ydeevne over Gemini 3 Pro og GPT-5.2.
Agent-evner: Qwen3.5’s arkitektur synes særligt stærk i agentiske testsuiter, hvor multimodalitet og udvidet kontekst betyder noget. I agentiske opgaver hævdes ydeevne over Gemini 3 Pro og GPT-5.2.
Scenarier hvor Qwen-3.5 sandsynligvis overgår
- Storskala, latenstfølsomme inferensstakke, hvor throughput-forbedringer direkte bliver til besparelser (fx højt volumen kundechat, masse-kodegenerering). Qwen-3.5’s throughput-påstande gør den attraktiv.
- On-premises, privatlivsfølsomme implementeringer, hvor åbne vægte og lokal finetuning er essentielle (sundhedssektoren, regulerede sektorer). Den åbne licens reducerer vendor lock-in.
- Agentiske multimodale pipelines integreret i proprietære apps, hvor de indbyggede fra-vision-til-handling-forløb reducerer integrationskompleksitet og forbedrer end-to-end succesrate.
Pris og rabat: omkostningseffektivitet som en konkurrencefordel
En af de mest markante differentiatører for Qwen3.5 er prissætningen — både den absolutte pris og hvordan den står i forhold til amerikanske proprietære systemer.
API- og tokenpriser
| Model | API-pris pr. 1M tokens | Relativ omkostningsindeks* |
|---|---|---|
| Qwen3.5-Plus (Alibaba) | ~0,8 CNY (~$0,11) | 1× |
| Gemini 3 Pro | ~14,4 CNY (~$2,00) | ~18× |
| GPT-5.2 | ~12–20 CNY (~$1,70–$2,80) | ~15–25× |
| Claude Opus 4.5 | ~12–15 CNY (~$1,70–$2,10) | ~15–18× |
*Konverteret fra rapporterede lokale priser; omtrentlige værdier til sammenligning.
Indsigt: Qwen3.5’s native pris — på omtrent 1/18 af nogle proprietære modeller — ændrer fundamentalt pris-til-ydelse for virksomheder og udviklere. Lavere tokenomkostninger reducerer dramatisk implementeringsomkostninger, især for inferens med højt volumen.
Strategisk og markedsmæssig indvirkning
Qwen3.5’s kombination af åben licensering (Apache 2.0), multimodal kapabilitet, agent-klarhed og lav prissætning kan omforme globale AI-implementeringsmønstre — især for internationale udviklere, der prioriterer pris og fleksibilitet.
Derudover kan denne udgivelse accelerere konkurrencemæssige dynamikker:
- Øget pres på lukkede udbydere for at tilbyde bedre priser eller åbne vægte.
- Større adoption af AI i lokale virksomhedssystemer, hvor omkostninger historisk har begrænset implementering.
- Øget forskningsinnovation takket være åben adgang og community-bidrag på platforme som Hugging Face og Alibabas eget udviklerøkosystem.
Konklusion
Qwen3.5’s udgivelse på kinesisk nytårsaften har efter alt at dømme sat en ny standard i AI-landskabet i 2026. Mens proprietære systemer som GPT-5.2, Claude Opus 4.5 og Gemini 3 Pro forbliver formidable, matcher eller overgår Qwen3.5 deres ydeevne i mange opgaver — og gør det med dramatisk lavere omkostninger og bred multimodal kapabilitet.
I benchmark-evalueringer placerer mange førende målinger Qwen3.5 på niveau med eller over top-lukkede modeller; på pris og inferens-effektivitet er den tydeligt overlegen.
Udviklere kan få adgang til Qwen 3.5 API via CometAPI nu. For at komme i gang, udforsk modellens kapabiliteter i Playground og se API guide for detaljerede instruktioner. Før adgang, sørg for at du er logget ind på CometAPI og har fået din API-nøgle. CometAPI tilbyder en pris langt under den officielle pris for at hjælpe dig med integrationen.
Klar til at gå i gang?→ Tilmeld dig Qwen-3.5 i dag!
Hvis du vil have flere tips, vejledninger og nyheder om AI, så følg os på VK, X og Discord!
