I april 2025 lancerede Alibaba Cloud Qwen3, den seneste version i Qwen-serien af store sprogmodeller (LLM'er). Som et betydeligt fremskridt inden for kunstig intelligens demonstrerer Qwen3 enestående evner inden for sprogforståelse, ræsonnement, multimodal behandling og beregningseffektivitet. Modellen understøtter 119 sprog, er trænet på et datasæt på 36 billioner tokens og tilbyder forskellige modelstørrelser fra 0.6 milliarder til 235 milliarder parametre. Denne artikel giver en dybdegående udforskning af Qwen3's definition, funktioner, brugsmetoder, adgangsmetoder, sammenligninger med andre modeller og dens potentielle indvirkning på AI-domænet med det formål at tjene som en omfattende reference for udviklere, forskere og virksomheder.
Hvad er Qwen3?
Qwen3 er en serie af store sprogmodeller designet til at forstå og generere menneskelignende tekst, der er egnet til en række scenarier fra hverdagssamtaler til komplekse ræsonnementsopgaver. Det er den tredje generation i Qwen-serien, der er udviklet af Alibaba Cloud, efter udgivelsen af Qwen i 2023 og Qwen2 i 2024, som introducerede forbedringer i ydeevne og funktionalitet.
En kort historie om Qwen-serien
Qwen-serien startede i april 2023 med udgivelsen af Qwen-modellen, oprindeligt kaldet "Tongyi Qianwen", baseret på Meta AI's Llama-arkitektur. Efter at have modtaget godkendelse fra den kinesiske regering i september 2023 blev Qwen officielt frigivet til offentligheden. I december 2023 blev Qwen 72B- og 1.8B-modellerne gjort open source, efterfulgt af lanceringen af Qwen2 i juni 2024, som anvendte en Mixture of Experts (MoE)-arkitektur. Qwen3, der blev introduceret i april 2025, inkorporerer hybride ræsonnementfunktioner og multimodale funktionaliteter, hvilket gør den til den mest avancerede version i serien.
Funktioner i Qwen3
Qwen3 tilbyder en række innovative funktioner, der adskiller den i det globale AI-modellandskab:
flersproget Support
Qwen3 understøtter 119 sprog, der dækker større globale sprogsystemer. Dette gør det til et ideelt valg til tværkulturelle og flersprogede applikationer, såsom international kundesupport og generering af flersproget indhold.
Storskala træningsdata
Qwen3-træningsdatasættet består af næsten 36 billioner tokens, svarende til cirka 270 milliarder ord. Det omfatter en bred vifte af indhold, såsom lærebøger, spørgsmål-og-svar-par, kodestykker og AI-genereret indhold, primært på kinesisk og engelsk. Denne skala sikrer fremragende ydeevne inden for sprogforståelse og -generering.
Forskellige modelstørrelser
Qwen3 tilbyder en række modelstørrelser fra 0.6 milliarder til 235 milliarder parametre:
- Små modeller (0.6B, 1.7B): Velegnet til lette applikationer, der kan køre på enheder som smartphones.
- Mellemstore modeller (4B, 8B, 14B, 32B): Balancer ydeevne med ressourcebehov, relevant for de fleste udviklingsscenarier.
- Store modeller (235B): Lever ydeevne i topklasse til opgaver på virksomhedsniveau.
| Modelnavn | Parameterstørrelse | Kontekstvindue (tokens) | Gældende scenarier |
|---|---|---|---|
| Qwen3-0.6B | 0.6 milliarder | 32,768 | Mobile enheder, lette applikationer |
| Qwen3-1.7B | 1.7 milliarder | 32,768 | Indlejrede systemer, hurtig ræsonnement |
| Qwen3-4B | 4 milliarder | 131,072 | Små og mellemstore projekter, forskning |
| Qwen3-8B | 8 milliarder | 131,072 | Generelle anvendelser, udvikling |
| Qwen3-32B | 32 milliarder | 131,072 | Højtydende opgaver, virksomhedsapplikationer |
| Qwen3-235B-A22B | 235 milliarder | 131,072 | Toppræstation, kompleks argumentation (ikke offentligt tilgængelig) |
Hybride ræsonnementsevner
Qwen3 introducerer en "hybrid ræsonnement"-funktion, der gør det muligt for modellen at ræsonnere trin for trin, før den giver svar på komplekse spørgsmål. Denne funktion er især fremtrædende i logisk ræsonnement, matematiske problemer og programmeringsopgaver. Brugere kan aktivere eller deaktivere denne tilstand via indstillinger (f.eks. enable_thinking=True).
Blandingsmodeller af eksperter (MoE)
Qwen3 inkluderer Mixture of Experts-modeller, såsom Qwen3-30B-A3B (30 milliarder parametre, 3 milliarder aktive) og Qwen3-235B-A22B (235 milliarder parametre, 22 milliarder aktive). Disse modeller accelererer inferens ved kun at aktivere en delmængde af parametre, samtidig med at de opretholder høj ydeevne, hvilket gør dem velegnede til storstilet implementering.
Udvidede tokengrænser
Nogle Qwen3-modeller understøtter kontekstvinduer på op til 131,072 tokens (model 4B og derover), en betydelig stigning fra Qwen2's 32,768 tokens. Denne forbedring gør det muligt for modellen at håndtere længere dialoger og mere komplekse tekstgenereringsopgaver.

Qwen 3 Benchmarks
Modellen demonstrerer færdigheder i kodegenerering, fejlfinding og matematisk problemløsning, hvilket gør den til et værdifuldt værktøj til softwareudvikling og dataanalyse.

Sådan bruger du Qwen3
Applikationer
Qwen3's alsidighed gør den velegnet til forskellige scenarier:
- Chatbots og virtuelle assistenter: Giv naturlige, kontekstbevidste svar til kundesupport og personlige assistentapplikationer.
- Indholdsgenerering: Generer artikler, historier, kode og andet kreativt eller teknisk indhold.
- Dataanalyse: Hjælp med at fortolke og opsummere store datasæt til forskning og business intelligence.
- Pædagogiske værktøjer: Hjælp eleverne med lektier, forklaringer og personlige læringsoplevelser.
- Videnskabelig undersøgelse: Støtte til litteraturgennemgang, hypotesegenerering og videnskabelig problemløsning.
Projektintegration
Udviklere kan integrere Qwen3 i deres projekter ved hjælp af følgende frameworks og værktøjer:
- Transformers: Kræver
transformers>=4.51.0Eksempel på kodestykke:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
outputs = model.generate(**inputs, enable_thinking=True)
print(tokenizer.decode(outputs))
Brugere kan aktivere ræsonnementstilstanden med enable_thinking=True eller styre den ved hjælp af /think og /nothink.
- llama.cpp: Kræver
llama.cpp>=b5092Eksempel på kommandolinje:
./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
- Ollama: Kræver
Ollama v0.6.6eller højere. Kør kommandoen:
ollama run qwen3:8b
Understøtter parametre som f.eks. num_ctx 40960 og num_predict 32768.
- Implementeringsmuligheder:
- SGLang: Kræver
sglang>=0.4.6.post1Start kommando:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 - vLLM: Kræver
vllm>=0.8.5Serveringskommando:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1 - MindIE: Understøtter Ascend NPU; besøg Modelers for detaljer.
Brug af værktøj
Qwen-Agent understøtter Qwen3's interaktion med eksterne værktøjer og API'er, hvilket er egnet til opgaver, der kræver dynamisk dataadgang. Denne funktion understøttes også af SGLang, vLLM, Transformers, llama.cpp og Ollama.
Finjustering
Qwen3 kan finjusteres ved hjælp af frameworks som Axolotl, UnSloth, Swift og Llama-Factory, der understøtter teknikker som Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) og Group Robust Preference Optimization (GRPO).
Konklusion
Qwen3 repræsenterer et gennembrud inden for store sprogmodeller og tilbyder forbedret funktionalitet, alsidighed og tilgængelighed. Med sin flersprogede understøttelse, hybride ræsonnement og specialiserede versioner til syns-, matematik- og lydopgaver positionerer Qwen3 sig som en nøglespiller inden for AI-feltet. Dens konkurrencedygtige præstation i benchmarks som Codeforces, AIME og BFCL, sammen med dens open source-tilgængelighed, gør det til et ideelt valg for udviklere, forskere og virksomheder. I takt med at AI-teknologien udvikler sig, markerer Qwen3 et vigtigt skridt i retning af at skabe intelligente systemer, der er i stand til at forstå, ræsonnere og interagere med verden på stadig mere sofistikerede måder.
Kom godt i gang
Udviklere kan få adgang Qwen 3 API igennem CometAPI. For at begynde skal du udforske modellens muligheder i Legepladsen og konsultere API guide for detaljerede instruktioner. Bemærk, at nogle udviklere muligvis skal bekræfte deres organisation, før de bruger modellen.
