Qwen3: Hvad det er, og hvordan man bruger det

CometAPI
AnnaApr 29, 2025
Qwen3: Hvad det er, og hvordan man bruger det

I april 2025 lancerede Alibaba Cloud Qwen3, den seneste version i Qwen-serien af ​​store sprogmodeller (LLM'er). Som et betydeligt fremskridt inden for kunstig intelligens demonstrerer Qwen3 enestående evner inden for sprogforståelse, ræsonnement, multimodal behandling og beregningseffektivitet. Modellen understøtter 119 sprog, er trænet på et datasæt på 36 billioner tokens og tilbyder forskellige modelstørrelser fra 0.6 milliarder til 235 milliarder parametre. Denne artikel giver en dybdegående udforskning af Qwen3's definition, funktioner, brugsmetoder, adgangsmetoder, sammenligninger med andre modeller og dens potentielle indvirkning på AI-domænet med det formål at tjene som en omfattende reference for udviklere, forskere og virksomheder.

Hvad er Qwen3?

Qwen3 er en serie af store sprogmodeller designet til at forstå og generere menneskelignende tekst, der er egnet til en række scenarier fra hverdagssamtaler til komplekse ræsonnementsopgaver. Det er den tredje generation i Qwen-serien, der er udviklet af Alibaba Cloud, efter udgivelsen af ​​Qwen i 2023 og Qwen2 i 2024, som introducerede forbedringer i ydeevne og funktionalitet.

En kort historie om Qwen-serien

Qwen-serien startede i april 2023 med udgivelsen af ​​Qwen-modellen, oprindeligt kaldet "Tongyi Qianwen", baseret på Meta AI's Llama-arkitektur. Efter at have modtaget godkendelse fra den kinesiske regering i september 2023 blev Qwen officielt frigivet til offentligheden. I december 2023 blev Qwen 72B- og 1.8B-modellerne gjort open source, efterfulgt af lanceringen af ​​Qwen2 i juni 2024, som anvendte en Mixture of Experts (MoE)-arkitektur. Qwen3, der blev introduceret i april 2025, inkorporerer hybride ræsonnementfunktioner og multimodale funktionaliteter, hvilket gør den til den mest avancerede version i serien.

Funktioner i Qwen3

Qwen3 tilbyder en række innovative funktioner, der adskiller den i det globale AI-modellandskab:

flersproget Support

Qwen3 understøtter 119 sprog, der dækker større globale sprogsystemer. Dette gør det til et ideelt valg til tværkulturelle og flersprogede applikationer, såsom international kundesupport og generering af flersproget indhold.

Storskala træningsdata

Qwen3-træningsdatasættet består af næsten 36 billioner tokens, svarende til cirka 270 milliarder ord. Det omfatter en bred vifte af indhold, såsom lærebøger, spørgsmål-og-svar-par, kodestykker og AI-genereret indhold, primært på kinesisk og engelsk. Denne skala sikrer fremragende ydeevne inden for sprogforståelse og -generering.

Forskellige modelstørrelser

Qwen3 tilbyder en række modelstørrelser fra 0.6 milliarder til 235 milliarder parametre:

  • Små modeller (0.6B, 1.7B): Velegnet til lette applikationer, der kan køre på enheder som smartphones.
  • Mellemstore modeller (4B, 8B, 14B, 32B): Balancer ydeevne med ressourcebehov, relevant for de fleste udviklingsscenarier.
  • Store modeller (235B): Lever ydeevne i topklasse til opgaver på virksomhedsniveau.
ModelnavnParameterstørrelseKontekstvindue (tokens)Gældende scenarier
Qwen3-0.6B0.6 milliarder32,768Mobile enheder, lette applikationer
Qwen3-1.7B1.7 milliarder32,768Indlejrede systemer, hurtig ræsonnement
Qwen3-4B4 milliarder131,072Små og mellemstore projekter, forskning
Qwen3-8B8 milliarder131,072Generelle anvendelser, udvikling
Qwen3-32B32 milliarder131,072Højtydende opgaver, virksomhedsapplikationer
Qwen3-235B-A22B235 milliarder131,072Toppræstation, kompleks argumentation (ikke offentligt tilgængelig)

Hybride ræsonnementsevner

Qwen3 introducerer en "hybrid ræsonnement"-funktion, der gør det muligt for modellen at ræsonnere trin for trin, før den giver svar på komplekse spørgsmål. Denne funktion er især fremtrædende i logisk ræsonnement, matematiske problemer og programmeringsopgaver. Brugere kan aktivere eller deaktivere denne tilstand via indstillinger (f.eks. enable_thinking=True).

Blandingsmodeller af eksperter (MoE)

Qwen3 inkluderer Mixture of Experts-modeller, såsom Qwen3-30B-A3B (30 milliarder parametre, 3 milliarder aktive) og Qwen3-235B-A22B (235 milliarder parametre, 22 milliarder aktive). Disse modeller accelererer inferens ved kun at aktivere en delmængde af parametre, samtidig med at de opretholder høj ydeevne, hvilket gør dem velegnede til storstilet implementering.

Udvidede tokengrænser

Nogle Qwen3-modeller understøtter kontekstvinduer på op til 131,072 tokens (model 4B og derover), en betydelig stigning fra Qwen2's 32,768 tokens. Denne forbedring gør det muligt for modellen at håndtere længere dialoger og mere komplekse tekstgenereringsopgaver.

Qwen3

Qwen 3 Benchmarks

Modellen demonstrerer færdigheder i kodegenerering, fejlfinding og matematisk problemløsning, hvilket gør den til et værdifuldt værktøj til softwareudvikling og dataanalyse.

Qwen3: Hvad det er, og hvordan man bruger det

Sådan bruger du Qwen3

Applikationer

Qwen3's alsidighed gør den velegnet til forskellige scenarier:

  • Chatbots og virtuelle assistenter: Giv naturlige, kontekstbevidste svar til kundesupport og personlige assistentapplikationer.
  • Indholdsgenerering: Generer artikler, historier, kode og andet kreativt eller teknisk indhold.
  • Dataanalyse: Hjælp med at fortolke og opsummere store datasæt til forskning og business intelligence.
  • Pædagogiske værktøjer: Hjælp eleverne med lektier, forklaringer og personlige læringsoplevelser.
  • Videnskabelig undersøgelse: Støtte til litteraturgennemgang, hypotesegenerering og videnskabelig problemløsning.

Projektintegration

Udviklere kan integrere Qwen3 i deres projekter ved hjælp af følgende frameworks og værktøjer:

  • Transformers: Kræver transformers>=4.51.0Eksempel på kodestykke:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Brugere kan aktivere ræsonnementstilstanden med enable_thinking=True eller styre den ved hjælp af /think og /nothink.

  • llama.cpp: Kræver llama.cpp>=b5092Eksempel på kommandolinje:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Ollama: Kræver Ollama v0.6.6 eller højere. Kør kommandoen:
  ollama run qwen3:8b

Understøtter parametre som f.eks. num_ctx 40960 og num_predict 32768.

  • Implementeringsmuligheder:
  • SGLang: Kræver sglang>=0.4.6.post1Start kommando: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: Kræver vllm>=0.8.5Serveringskommando: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: Understøtter Ascend NPU; besøg Modelers for detaljer.

Brug af værktøj

Qwen-Agent understøtter Qwen3's interaktion med eksterne værktøjer og API'er, hvilket er egnet til opgaver, der kræver dynamisk dataadgang. Denne funktion understøttes også af SGLang, vLLM, Transformers, llama.cpp og Ollama.

Finjustering

Qwen3 kan finjusteres ved hjælp af frameworks som Axolotl, UnSloth, Swift og Llama-Factory, der understøtter teknikker som Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) og Group Robust Preference Optimization (GRPO).

Konklusion

Qwen3 repræsenterer et gennembrud inden for store sprogmodeller og tilbyder forbedret funktionalitet, alsidighed og tilgængelighed. Med sin flersprogede understøttelse, hybride ræsonnement og specialiserede versioner til syns-, matematik- og lydopgaver positionerer Qwen3 sig som en nøglespiller inden for AI-feltet. Dens konkurrencedygtige præstation i benchmarks som Codeforces, AIME og BFCL, sammen med dens open source-tilgængelighed, gør det til et ideelt valg for udviklere, forskere og virksomheder. I takt med at AI-teknologien udvikler sig, markerer Qwen3 et vigtigt skridt i retning af at skabe intelligente systemer, der er i stand til at forstå, ræsonnere og interagere med verden på stadig mere sofistikerede måder.

Kom godt i gang

Udviklere kan få adgang Qwen 3 API igennem CometAPI. For at begynde skal du udforske modellens muligheder i Legepladsen og konsultere API guide for detaljerede instruktioner. Bemærk, at nogle udviklere muligvis skal bekræfte deres organisation, før de bruger modellen.

Læs mere

500+ modeller i én API

Op til 20% rabat