Qwen3: Hva det er og hvordan det brukes

CometAPI
AnnaApr 29, 2025
Qwen3: Hva det er og hvordan det brukes

I april 2025 lanserte Alibaba Cloud Qwen3, den nyeste versjonen i Qwen-serien av store språkmodeller (LLM-er). Som et betydelig fremskritt innen kunstig intelligens, demonstrerer Qwen3 enestående evner innen språkforståelse, resonnement, multimodal prosessering og beregningseffektivitet. Modellen støtter 119 språk, er trent på et datasett med 36 billioner tokens, og tilbyr forskjellige modellstørrelser fra 0.6 milliarder til 235 milliarder parametere. Denne artikkelen gir en grundig utforskning av Qwen3s definisjon, funksjoner, bruksmetoder, tilgangsmetoder, sammenligninger med andre modeller og dens potensielle innvirkning på AI-domenet, med sikte på å tjene som en omfattende referanse for utviklere, forskere og bedrifter.

Hva er Qwen3?

Qwen3 er en serie store språkmodeller designet for å forstå og generere menneskelignende tekst, egnet for en rekke scenarier fra hverdagssamtaler til komplekse resonneringsoppgaver. Det er den tredje generasjonen i Qwen-serien utviklet av Alibaba Cloud, etter lanseringen av Qwen i 2023 og Qwen2 i 2024, som introduserte forbedringer i ytelse og funksjonalitet.

En kort historie om Qwen-serien

Qwen-serien startet i april 2023 med lanseringen av Qwen-modellen, opprinnelig kalt «Tongyi Qianwen», basert på Meta AIs Llama-arkitektur. Etter å ha mottatt godkjenning fra den kinesiske regjeringen i september 2023, ble Qwen offisielt utgitt for offentligheten. I desember 2023 ble Qwen 72B- og 1.8B-modellene gjort åpen kildekode, etterfulgt av lanseringen av Qwen2 i juni 2024, som tok i bruk en Mixture of Experts (MoE)-arkitektur. Qwen3, introdusert i april 2025, inkluderer hybride resonneringsmuligheter og multimodale funksjoner, noe som gjør den til den mest avanserte versjonen i serien.

Funksjoner i Qwen3

Qwen3 tilbyr en rekke innovative funksjoner som skiller den ut i det globale AI-modelllandskapet:

flerspråklig Støtte

Qwen3 støtter 119 språk, som dekker store globale språksystemer. Dette gjør det til et ideelt valg for tverrkulturelle og flerspråklige applikasjoner, som internasjonal kundestøtte og generering av flerspråklig innhold.

Storskala treningsdata

Qwen3-opplæringsdatasettet består av nesten 36 billioner tokens, som tilsvarer omtrent 270 milliarder ord. Det inkluderer et bredt spekter av innhold, som lærebøker, spørsmål-og-svar-par, kodebiter og AI-generert innhold, hovedsakelig på kinesisk og engelsk. Denne skalaen sikrer utmerket ytelse innen språkforståelse og -generering.

Ulike modellstørrelser

Qwen3 tilbyr en rekke modellstørrelser fra 0.6 milliarder til 235 milliarder parametere:

  • Små modeller (0.6B, 1.7B): Passer for lette applikasjoner, som kan kjøres på enheter som smarttelefoner.
  • Mellomstore modeller (4B, 8B, 14B, 32B): Balanse mellom ytelse og ressursbehov, gjeldende for de fleste utviklingsscenarier.
  • Store modeller (235B): Sørg for ytelse på toppnivå for oppgaver på bedriftsnivå.
ModellnavnParameterstørrelseKontekstvindu (tokens)Gjeldende scenarier
Qwen3-0.6B0.6 milliarder32,768Mobile enheter, lette applikasjoner
Qwen3-1.7B1.7 milliarder32,768Innebygde systemer, rask resonnering
Qwen3-4B4 milliarder131,072Små og mellomstore prosjekter, forskning
Qwen3-8B8 milliarder131,072Generelle applikasjoner, utvikling
Qwen3-32B32 milliarder131,072Høytytende oppgaver, bedriftsapplikasjoner
Qwen3-235B-A22B235 milliarder131,072Førsteklasses ytelse, kompleks resonnement (ikke offentlig tilgjengelig)

Hybride resonneringsevner

Qwen3 introduserer en «hybrid resonnement»-funksjon som lar modellen resonnere trinn for trinn før den gir svar på komplekse spørsmål. Denne funksjonen er spesielt fremtredende i logisk resonnement, matematiske problemer og programmeringsoppgaver. Brukere kan aktivere eller deaktivere denne modusen gjennom innstillinger (f.eks. enable_thinking=True).

Modeller for blanding av eksperter (MoE)

Qwen3 inkluderer Mixture of Experts-modeller, som Qwen3-30B-A3B (30 milliarder parametere, 3 milliarder aktive) og Qwen3-235B-A22B (235 milliarder parametere, 22 milliarder aktive). Disse modellene akselererer inferens ved å aktivere bare et delsett av parametere samtidig som de opprettholder høy ytelse, noe som gjør dem godt egnet for storskala distribusjon.

Utvidede tokengrenser

Noen Qwen3-modeller støtter kontekstvinduer på opptil 131,072 4 tokens (modell 2B og over), en betydelig økning fra Qwen32,768s XNUMX XNUMX tokens. Denne forbedringen lar modellen håndtere lengre dialoger og mer komplekse tekstgenereringsoppgaver.

Qwen3

Qwen 3-referanseverdier

Modellen demonstrerer ferdigheter i kodegenerering, feilsøking og matematisk problemløsning, noe som gjør den til et verdifullt verktøy for programvareutvikling og dataanalyse.

Qwen3: Hva det er og hvordan det brukes

Slik bruker du Qwen3

Applikasjoner

Allsidigheten til Qwen3 gjør den egnet for ulike scenarier:

  • Chatbots og virtuelle assistenter: Gi naturlige, kontekstbevisste svar for kundestøtte og personlige assistentapplikasjoner.
  • Innholdsgenerering: Generer artikler, historier, kode og annet kreativt eller teknisk innhold.
  • Dataanalyse: Bistå med å tolke og oppsummere store datasett for forskning og forretningsintelligens.
  • Pedagogiske verktøy: Hjelp elevene med lekser, forklaringer og personlige læringsopplevelser.
  • Vitenskapelig forskning: Støtte litteraturgjennomgang, hypoteseutvikling og vitenskapelig problemløsning.

Prosjektintegrering

Utviklere kan integrere Qwen3 i prosjektene sine ved hjelp av følgende rammeverk og verktøy:

  • Transformers: Krever transformers>=4.51.0Eksempel på kodebit:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Brukere kan aktivere resonneringsmodus med enable_thinking=True eller kontroller den ved hjelp av /think og /nothink.

  • llama.cpp: Krever llama.cpp>=b5092Eksempel på kommandolinje:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Ollama: Krever Ollama v0.6.6 eller høyere. Kjør kommandoen:
  ollama run qwen3:8b

Støtter parametere som num_ctx 40960 og num_predict 32768.

  • Implementeringsalternativer:
  • SGLang: Krever sglang>=0.4.6.post1Start kommando: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: Krever vllm>=0.8.5Serveringskommando: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: Støtter Ascend NPU; besøk Modelers for detaljer.

Verktøybruk

Qwen-Agent støtter Qwen3s samhandling med eksterne verktøy og API-er, egnet for oppgaver som krever dynamisk datatilgang. Denne funksjonen støttes også av SGLang, vLLM, Transformers, llama.cpp og Ollama.

Finjustering

Qwen3 kan finjusteres ved hjelp av rammeverk som Axolotl, UnSloth, Swift og Llama-Factory, og støtter teknikker som Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) og Group Robust Preference Optimization (GRPO).

Konklusjon

Qwen3 representerer et gjennombrudd innen store språkmodeller, og tilbyr forbedret funksjonalitet, allsidighet og tilgjengelighet. Med flerspråklig støtte, hybrid resonnering og spesialiserte versjoner for syns-, matematikk- og lydoppgaver posisjonerer Qwen3 seg som en nøkkelaktør innen AI-feltet. Den konkurransedyktige ytelsen i benchmarks som Codeforces, AIME og BFCL, sammen med tilgjengeligheten av åpen kildekode, gjør det til et ideelt valg for utviklere, forskere og bedrifter. Etter hvert som AI-teknologien utvikler seg, markerer Qwen3 et viktig skritt mot å skape intelligente systemer som er i stand til å forstå, resonnere og samhandle med verden på stadig mer sofistikerte måter.

Komme i gang

Utviklere har tilgang Qwen 3 API gjennom CometAPI. For å begynne, utforske modellens muligheter i lekeplassen og konsulter API-veiledning for detaljerte instruksjoner. Vær oppmerksom på at noen utviklere kan trenge å bekrefte organisasjonen før de kan bruke modellen.

Les mer

500+ modeller i ett API

Opptil 20 % rabatt