Qwen3: Wat het is en hoe het te gebruiken

CometAPI
AnnaApr 29, 2025
Qwen3: Wat het is en hoe het te gebruiken

In april 2025 lanceerde Alibaba Cloud Qwen3, de nieuwste versie in de Qwen-serie van grote taalmodellen (LLM's). Als een belangrijke vooruitgang op het gebied van kunstmatige intelligentie (AI) toont Qwen3 uitstekende mogelijkheden op het gebied van taalbegrip, redeneren, multimodale verwerking en rekenefficiëntie. Het model ondersteunt 119 talen, is getraind op een dataset van 36 biljoen tokens en biedt verschillende modelgroottes, variërend van 0.6 miljard tot 235 miljard parameters. Dit artikel biedt een diepgaande verkenning van de definitie, functies, gebruiksmethoden, toegangsbenaderingen, vergelijkingen met andere modellen en de potentiële impact ervan op het AI-domein van Qwen3, met als doel te dienen als een uitgebreide referentie voor ontwikkelaars, onderzoekers en bedrijven.

Wat is Qwen3?

Qwen3 is een reeks grote taalmodellen die ontworpen zijn om mensachtige tekst te begrijpen en te genereren, geschikt voor diverse scenario's, van alledaagse gesprekken tot complexe redeneertaken. Het is de derde generatie in de Qwen-serie, ontwikkeld door Alibaba Cloud, na de release van Qwen in 2023 en Qwen2 in 2024, die verbeteringen in prestaties en functionaliteit introduceerden.

Een korte geschiedenis van de Qwen-serie

De Qwen-serie begon in april 2023 met de release van het Qwen-model, aanvankelijk "Tongyi Qianwen" genoemd, gebaseerd op de Llama-architectuur van Meta AI. Na goedkeuring door de Chinese overheid in september 2023 werd Qwen officieel vrijgegeven voor het publiek. In december 2023 werden de Qwen 72B en 1.8B modellen open source gemaakt, gevolgd door de lancering van Qwen2 in juni 2024, die een Mixture of Experts (MoE)-architectuur gebruikte. Qwen3, geïntroduceerd in april 2025, integreert hybride redeneermogelijkheden en multimodale functionaliteiten, waardoor het de meest geavanceerde versie in de serie is.

Kenmerken van Qwen3

Qwen3 biedt een reeks innovatieve functies waarmee het zich onderscheidt in het wereldwijde AI-modellandschap:

Meertalige ondersteuning

Qwen3 ondersteunt 119 talen en bestrijkt daarmee de belangrijkste wereldwijde taalsystemen. Dit maakt het een ideale keuze voor interculturele en meertalige toepassingen, zoals internationale klantondersteuning en het genereren van meertalige content.

Grootschalige trainingsgegevens

De Qwen3-trainingsdataset bestaat uit bijna 36 biljoen tokens, wat neerkomt op ongeveer 270 miljard woorden. De dataset bevat een breed scala aan content, zoals leerboeken, vraag-en-antwoordparen, codefragmenten en door AI gegenereerde content, voornamelijk in het Chinees en Engels. Deze schaal garandeert uitstekende prestaties op het gebied van taalbegrip en -generatie.

Diverse modelmaten

Qwen3 biedt een verscheidenheid aan modelgroottes variërend van 0.6 miljard tot 235 miljard parameters:

  • Kleine modellen (0.6B, 1.7B): Geschikt voor lichtgewichttoepassingen, geschikt voor apparaten als smartphones.
  • Middelgrote modellen (4B, 8B, 14B, 32B): Breng prestaties in evenwicht met de benodigde middelen. Dit is toepasbaar op de meeste ontwikkelscenario's.
  • Grote modellen (235B): Lever topprestaties voor taken op ondernemingsniveau.
ModelnaamParametergrootte:Contextvenster (tokens)Toepasselijke scenario's
Qwen3-0.6B0.6 miljard32,768Mobiele apparaten, lichtgewicht applicaties
Qwen3-1.7B1.7 miljard32,768Ingebedde systemen, snel redeneren
Qwen3-4B4 miljard131,072Kleine tot middelgrote projecten, onderzoek
Qwen3-8B8 miljard131,072Algemene toepassingen, ontwikkeling
Qwen3-32B32 miljard131,072Hoogwaardige taken, bedrijfsapplicaties
Qwen3-235B-A22B235 miljard131,072Topprestaties, complexe redeneringen (niet openbaar beschikbaar)

Hybride redeneermogelijkheden

Qwen3 introduceert een functie voor 'hybride redeneren' waarmee het model stap voor stap kan redeneren voordat het antwoorden geeft op complexe vragen. Deze mogelijkheid is met name prominent aanwezig bij logisch redeneren, wiskundige problemen en programmeertaken. Gebruikers kunnen deze modus in- of uitschakelen via instellingen (bijv. enable_thinking=True).

Mix van Experts (MoE) Modellen

Qwen3 omvat Mixture of Experts-modellen, zoals Qwen3-30B-A3B (30 miljard parameters, 3 miljard actieve parameters) en Qwen3-235B-A22B (235 miljard parameters, 22 miljard actieve parameters). Deze modellen versnellen de inferentie door slechts een subset van parameters te activeren, terwijl ze hoge prestaties behouden, waardoor ze zeer geschikt zijn voor grootschalige implementatie.

Uitgebreide tokenlimieten

Sommige Qwen3-modellen ondersteunen contextvensters tot 131,072 tokens (modellen 4B en hoger), een aanzienlijke toename ten opzichte van de 2 tokens van Qwen32,768. Deze verbetering stelt het model in staat om langere dialogen en complexere tekstgeneratietaken te verwerken.

Qwen3

Qwen 3 Benchmarks

Het model toont vaardigheden op het gebied van codegeneratie, debuggen en wiskundige probleemoplossing, wat het een waardevol hulpmiddel maakt voor softwareontwikkeling en gegevensanalyse.

Qwen3: Wat het is en hoe het te gebruiken

Hoe Qwen3 te gebruiken

Toepassingen

De veelzijdigheid van Qwen3 maakt het geschikt voor verschillende scenario's:

  • Chatbots en virtuele assistenten: Geef natuurlijke, contextbewuste antwoorden voor klantondersteuning en persoonlijke assistenttoepassingen.
  • Inhoud genereren: Genereer artikelen, verhalen, code en andere creatieve of technische content.
  • Data analyse: Helpt bij het interpreteren en samenvatten van grote datasets voor onderzoek en business intelligence.
  • Educatieve hulpmiddelen: Help leerlingen met huiswerk, uitleg en persoonlijke leerervaringen.
  • Wetenschappelijk onderzoek: Ondersteun literatuuronderzoek, hypothesegeneratie en wetenschappelijke probleemoplossing.

Projectintegratie

Ontwikkelaars kunnen Qwen3 in hun projecten integreren met behulp van de volgende frameworks en tools:

  • Transformatoren: Vereist transformers>=4.51.0Voorbeeldcodefragment:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Gebruikers kunnen de redeneermodus inschakelen met enable_thinking=True of het besturen met behulp van /think en /nothink.

  • lama.cpp: Vereist llama.cpp>=b5092Voorbeeld van een opdrachtregel:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Ollama: Vereist Ollama v0.6.6 of hoger. Voer de opdracht uit:
  ollama run qwen3:8b

Ondersteunt parameters zoals num_ctx 40960 en num_predict 32768.

  • Implementatieopties:
  • SGLang: Vereist sglang>=0.4.6.post1. Startcommando: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: Vereist vllm>=0.8.5. Bedieningscommando: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: Ondersteunt Ascend NPU; bezoek Modelers voor meer informatie.

Gebruik van gereedschap

Qwen-Agent ondersteunt de interactie van Qwen3 met externe tools en API's, geschikt voor taken die dynamische gegevenstoegang vereisen. Deze functionaliteit wordt ook ondersteund door SGLang, vLLM, Transformers, llama.cpp en Ollama.

Scherpstellen

Qwen3 kan worden verfijnd met behulp van frameworks zoals Axolotl, UnSloth, Swift en Llama-Factory, die technieken ondersteunen zoals Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) en Group Robust Preference Optimization (GRPO).

Conclusie

Qwen3 vertegenwoordigt een doorbraak op het gebied van grote taalmodellen en biedt verbeterde functionaliteit, veelzijdigheid en toegankelijkheid. Met meertalige ondersteuning, hybride redenering en gespecialiseerde versies voor visuele, wiskundige en audiotaken positioneert Qwen3 zich als een belangrijke speler in de AI-sector. De concurrerende prestaties in benchmarks zoals Codeforces, AIME en BFCL, samen met de open-source beschikbaarheid, maken het een ideale keuze voor ontwikkelaars, onderzoekers en ondernemingen. Naarmate de AI-technologie vordert, betekent Qwen3 een belangrijke stap in de richting van intelligente systemen die de wereld op steeds geavanceerdere manieren kunnen begrijpen, redeneren en ermee kunnen interacteren.

Beginnen

Ontwikkelaars hebben toegang tot Qwen 3 API via KomeetAPIOm te beginnen kunt u de mogelijkheden van het model in de Playground verkennen en de API-gids voor gedetailleerde instructies. Houd er rekening mee dat sommige ontwikkelaars mogelijk hun organisatie moeten verifiëren voordat ze het model kunnen gebruiken.

Lees Meer

500+ modellen in één API

Tot 20% korting