I april 2025 lanserte Alibaba Cloud Qwen3, den nyeste versjonen i Qwen-serien av store språkmodeller (LLM-er). Som et betydelig fremskritt innen kunstig intelligens, demonstrerer Qwen3 enestående evner innen språkforståelse, resonnement, multimodal prosessering og beregningseffektivitet. Modellen støtter 119 språk, er trent på et datasett med 36 billioner tokens, og tilbyr forskjellige modellstørrelser fra 0.6 milliarder til 235 milliarder parametere. Denne artikkelen gir en grundig utforskning av Qwen3s definisjon, funksjoner, bruksmetoder, tilgangsmetoder, sammenligninger med andre modeller og dens potensielle innvirkning på AI-domenet, med sikte på å tjene som en omfattende referanse for utviklere, forskere og bedrifter.
Hva er Qwen3?
Qwen3 er en serie store språkmodeller designet for å forstå og generere menneskelignende tekst, egnet for en rekke scenarier fra hverdagssamtaler til komplekse resonneringsoppgaver. Det er den tredje generasjonen i Qwen-serien utviklet av Alibaba Cloud, etter lanseringen av Qwen i 2023 og Qwen2 i 2024, som introduserte forbedringer i ytelse og funksjonalitet.
En kort historie om Qwen-serien
Qwen-serien startet i april 2023 med lanseringen av Qwen-modellen, opprinnelig kalt «Tongyi Qianwen», basert på Meta AIs Llama-arkitektur. Etter å ha mottatt godkjenning fra den kinesiske regjeringen i september 2023, ble Qwen offisielt utgitt for offentligheten. I desember 2023 ble Qwen 72B- og 1.8B-modellene gjort åpen kildekode, etterfulgt av lanseringen av Qwen2 i juni 2024, som tok i bruk en Mixture of Experts (MoE)-arkitektur. Qwen3, introdusert i april 2025, inkluderer hybride resonneringsmuligheter og multimodale funksjoner, noe som gjør den til den mest avanserte versjonen i serien.
Funksjoner i Qwen3
Qwen3 tilbyr en rekke innovative funksjoner som skiller den ut i det globale AI-modelllandskapet:
flerspråklig Støtte
Qwen3 støtter 119 språk, som dekker store globale språksystemer. Dette gjør det til et ideelt valg for tverrkulturelle og flerspråklige applikasjoner, som internasjonal kundestøtte og generering av flerspråklig innhold.
Storskala treningsdata
Qwen3-opplæringsdatasettet består av nesten 36 billioner tokens, som tilsvarer omtrent 270 milliarder ord. Det inkluderer et bredt spekter av innhold, som lærebøker, spørsmål-og-svar-par, kodebiter og AI-generert innhold, hovedsakelig på kinesisk og engelsk. Denne skalaen sikrer utmerket ytelse innen språkforståelse og -generering.
Ulike modellstørrelser
Qwen3 tilbyr en rekke modellstørrelser fra 0.6 milliarder til 235 milliarder parametere:
- Små modeller (0.6B, 1.7B): Passer for lette applikasjoner, som kan kjøres på enheter som smarttelefoner.
- Mellomstore modeller (4B, 8B, 14B, 32B): Balanse mellom ytelse og ressursbehov, gjeldende for de fleste utviklingsscenarier.
- Store modeller (235B): Sørg for ytelse på toppnivå for oppgaver på bedriftsnivå.
| Modellnavn | Parameterstørrelse | Kontekstvindu (tokens) | Gjeldende scenarier |
|---|---|---|---|
| Qwen3-0.6B | 0.6 milliarder | 32,768 | Mobile enheter, lette applikasjoner |
| Qwen3-1.7B | 1.7 milliarder | 32,768 | Innebygde systemer, rask resonnering |
| Qwen3-4B | 4 milliarder | 131,072 | Små og mellomstore prosjekter, forskning |
| Qwen3-8B | 8 milliarder | 131,072 | Generelle applikasjoner, utvikling |
| Qwen3-32B | 32 milliarder | 131,072 | Høytytende oppgaver, bedriftsapplikasjoner |
| Qwen3-235B-A22B | 235 milliarder | 131,072 | Førsteklasses ytelse, kompleks resonnement (ikke offentlig tilgjengelig) |
Hybride resonneringsevner
Qwen3 introduserer en «hybrid resonnement»-funksjon som lar modellen resonnere trinn for trinn før den gir svar på komplekse spørsmål. Denne funksjonen er spesielt fremtredende i logisk resonnement, matematiske problemer og programmeringsoppgaver. Brukere kan aktivere eller deaktivere denne modusen gjennom innstillinger (f.eks. enable_thinking=True).
Modeller for blanding av eksperter (MoE)
Qwen3 inkluderer Mixture of Experts-modeller, som Qwen3-30B-A3B (30 milliarder parametere, 3 milliarder aktive) og Qwen3-235B-A22B (235 milliarder parametere, 22 milliarder aktive). Disse modellene akselererer inferens ved å aktivere bare et delsett av parametere samtidig som de opprettholder høy ytelse, noe som gjør dem godt egnet for storskala distribusjon.
Utvidede tokengrenser
Noen Qwen3-modeller støtter kontekstvinduer på opptil 131,072 4 tokens (modell 2B og over), en betydelig økning fra Qwen32,768s XNUMX XNUMX tokens. Denne forbedringen lar modellen håndtere lengre dialoger og mer komplekse tekstgenereringsoppgaver.

Qwen 3-referanseverdier
Modellen demonstrerer ferdigheter i kodegenerering, feilsøking og matematisk problemløsning, noe som gjør den til et verdifullt verktøy for programvareutvikling og dataanalyse.

Slik bruker du Qwen3
Applikasjoner
Allsidigheten til Qwen3 gjør den egnet for ulike scenarier:
- Chatbots og virtuelle assistenter: Gi naturlige, kontekstbevisste svar for kundestøtte og personlige assistentapplikasjoner.
- Innholdsgenerering: Generer artikler, historier, kode og annet kreativt eller teknisk innhold.
- Dataanalyse: Bistå med å tolke og oppsummere store datasett for forskning og forretningsintelligens.
- Pedagogiske verktøy: Hjelp elevene med lekser, forklaringer og personlige læringsopplevelser.
- Vitenskapelig forskning: Støtte litteraturgjennomgang, hypoteseutvikling og vitenskapelig problemløsning.
Prosjektintegrering
Utviklere kan integrere Qwen3 i prosjektene sine ved hjelp av følgende rammeverk og verktøy:
- Transformers: Krever
transformers>=4.51.0Eksempel på kodebit:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
outputs = model.generate(**inputs, enable_thinking=True)
print(tokenizer.decode(outputs))
Brukere kan aktivere resonneringsmodus med enable_thinking=True eller kontroller den ved hjelp av /think og /nothink.
- llama.cpp: Krever
llama.cpp>=b5092Eksempel på kommandolinje:
./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
- Ollama: Krever
Ollama v0.6.6eller høyere. Kjør kommandoen:
ollama run qwen3:8b
Støtter parametere som num_ctx 40960 og num_predict 32768.
- Implementeringsalternativer:
- SGLang: Krever
sglang>=0.4.6.post1Start kommando:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 - vLLM: Krever
vllm>=0.8.5Serveringskommando:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1 - MindIE: Støtter Ascend NPU; besøk Modelers for detaljer.
Verktøybruk
Qwen-Agent støtter Qwen3s samhandling med eksterne verktøy og API-er, egnet for oppgaver som krever dynamisk datatilgang. Denne funksjonen støttes også av SGLang, vLLM, Transformers, llama.cpp og Ollama.
Finjustering
Qwen3 kan finjusteres ved hjelp av rammeverk som Axolotl, UnSloth, Swift og Llama-Factory, og støtter teknikker som Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) og Group Robust Preference Optimization (GRPO).
Konklusjon
Qwen3 representerer et gjennombrudd innen store språkmodeller, og tilbyr forbedret funksjonalitet, allsidighet og tilgjengelighet. Med flerspråklig støtte, hybrid resonnering og spesialiserte versjoner for syns-, matematikk- og lydoppgaver posisjonerer Qwen3 seg som en nøkkelaktør innen AI-feltet. Den konkurransedyktige ytelsen i benchmarks som Codeforces, AIME og BFCL, sammen med tilgjengeligheten av åpen kildekode, gjør det til et ideelt valg for utviklere, forskere og bedrifter. Etter hvert som AI-teknologien utvikler seg, markerer Qwen3 et viktig skritt mot å skape intelligente systemer som er i stand til å forstå, resonnere og samhandle med verden på stadig mer sofistikerte måter.
Komme i gang
Utviklere har tilgang Qwen 3 API gjennom CometAPI. For å begynne, utforske modellens muligheter i lekeplassen og konsulter API-veiledning for detaljerte instruksjoner. Vær oppmerksom på at noen utviklere kan trenge å bekrefte organisasjonen før de kan bruke modellen.
