Im April 2025 veröffentlichte Alibaba Cloud Qwen3, die neueste Version der Qwen-Reihe großer Sprachmodelle (LLMs). Als bedeutender Fortschritt im Bereich der künstlichen Intelligenz zeigt Qwen3 herausragende Fähigkeiten in den Bereichen Sprachverständnis, logisches Denken, multimodale Verarbeitung und Rechenleistung. Das Modell unterstützt 119 Sprachen, wird mit einem Datensatz von 36 Billionen Token trainiert und bietet verschiedene Modellgrößen von 0.6 Milliarden bis 235 Milliarden Parametern. Dieser Artikel bietet eine detaillierte Untersuchung der Definition, Funktionen, Nutzungsmethoden, Zugriffsansätze, Vergleiche mit anderen Modellen und seiner potenziellen Auswirkungen auf den KI-Bereich von Qwen3 und soll Entwicklern, Forschern und Unternehmen als umfassende Referenz dienen.
Was ist Qwen3?
Qwen3 ist eine Reihe umfangreicher Sprachmodelle, die entwickelt wurden, um menschenähnlichen Text zu verstehen und zu generieren. Sie eignen sich für eine Reihe von Szenarien, von alltäglichen Gesprächen bis hin zu komplexen Denkaufgaben. Es ist die dritte Generation der von Alibaba Cloud entwickelten Qwen-Reihe, nach der Veröffentlichung von Qwen im Jahr 2023 und Qwen2 im Jahr 2024, die Verbesserungen bei Leistung und Funktionalität mit sich brachten.
Eine kurze Geschichte der Qwen-Serie
Die Qwen-Serie begann im April 2023 mit der Veröffentlichung des Qwen-Modells, zunächst „Tongyi Qianwen“ genannt und basierend auf der Llama-Architektur von Meta AI. Nach der Genehmigung durch die chinesische Regierung im September 2023 wurde Qwen offiziell veröffentlicht. Im Dezember 2023 wurden die Modelle Qwen 72B und 1.8B als Open Source freigegeben, gefolgt von der Einführung von Qwen2 im Juni 2024, das eine Mixture of Experts (MoE)-Architektur verwendete. Qwen3, eingeführt im April 2025, verfügt über hybride Schlussfolgerungsfähigkeiten und multimodale Funktionalitäten und ist damit die fortschrittlichste Version der Serie.
Funktionen von Qwen3
Qwen3 bietet eine Reihe innovativer Funktionen, die es in der globalen KI-Modelllandschaft auszeichnen:
Mehrsprachige Unterstützung
Qwen3 unterstützt 119 Sprachen und deckt damit die wichtigsten globalen Sprachsysteme ab. Dies macht es zur idealen Wahl für interkulturelle und mehrsprachige Anwendungen, wie z. B. internationalen Kundensupport und die Erstellung mehrsprachiger Inhalte.
Trainingsdaten im großen Maßstab
Der Qwen3-Trainingsdatensatz umfasst fast 36 Billionen Token, was etwa 270 Milliarden Wörtern entspricht. Er umfasst ein breites Spektrum an Inhalten, wie Lehrbücher, Frage-Antwort-Paare, Code-Schnipsel und KI-generierte Inhalte, hauptsächlich in Chinesisch und Englisch. Diese Skalierung gewährleistet eine hervorragende Leistung beim Sprachverständnis und der Sprachgenerierung.
Verschiedene Modellgrößen
Qwen3 bietet eine Vielzahl von Modellgrößen von 0.6 Milliarden bis 235 Milliarden Parametern:
- Kleine Modelle (0.6 B, 1.7 B): Geeignet für leichte Anwendungen, die auf Geräten wie Smartphones ausgeführt werden können.
- Mittlere Modelle (4B, 8B, 14B, 32B): Gleichen Sie Leistung und Ressourcenbedarf aus, anwendbar auf die meisten Entwicklungsszenarien.
- Große Modelle (235B): Bieten Sie erstklassige Leistung für Aufgaben auf Unternehmensebene.
| Modell | Parametergröße | Kontextfenster (Token) | Anwendbare Szenarien |
|---|---|---|---|
| Qwen3-0.6B | 0.6 Milliarden | 32,768 | Mobile Geräte, leichte Anwendungen |
| Qwen3-1.7B | 1.7 Milliarden | 32,768 | Eingebettete Systeme, schnelles Denken |
| Qwen3-4B | 4 Milliarden | 131,072 | Kleine bis mittelgroße Projekte, Forschung |
| Qwen3-8B | 8 Milliarden | 131,072 | Allgemeine Anwendungen, Entwicklung |
| Qwen3-32B | 32 Milliarden | 131,072 | Hochleistungsaufgaben, Unternehmensanwendungen |
| Qwen3-235B-A22B | 235 Milliarden | 131,072 | Erstklassige Leistung, komplexe Argumentation (nicht öffentlich verfügbar) |
Hybride Argumentationsfähigkeiten
Qwen3 führt die Funktion „Hybrid Reasoning“ ein, die es dem Modell ermöglicht, schrittweise zu argumentieren, bevor es Antworten auf komplexe Fragen liefert. Diese Fähigkeit ist besonders wichtig für logisches Denken, mathematische Probleme und Programmieraufgaben. Benutzer können diesen Modus in den Einstellungen aktivieren oder deaktivieren (z. B. enable_thinking=True).
Expertenmischungsmodelle (MoE)
Qwen3 umfasst Expertenmodelle wie Qwen3-30B-A3B (30 Milliarden Parameter, 3 Milliarden aktiv) und Qwen3-235B-A22B (235 Milliarden Parameter, 22 Milliarden aktiv). Diese Modelle beschleunigen die Inferenz, indem sie nur eine Teilmenge der Parameter aktivieren und gleichzeitig eine hohe Leistung beibehalten. Dadurch eignen sie sich gut für den Einsatz im großen Maßstab.
Erweiterte Token-Limits
Einige Qwen3-Modelle unterstützen Kontextfenster mit bis zu 131,072 Token (Modelle 4B und höher). Dies stellt eine deutliche Steigerung gegenüber den 2 Token von Qwen32,768 dar. Diese Erweiterung ermöglicht es dem Modell, längere Dialoge und komplexere Textgenerierungsaufgaben zu verarbeiten.

Qwen 3 Benchmarks
Das Modell weist Kompetenz in der Codegenerierung, im Debugging und in der mathematischen Problemlösung auf und ist somit ein wertvolles Werkzeug für die Softwareentwicklung und Datenanalyse.

So verwenden Sie Qwen3
Anwendungen
Aufgrund seiner Vielseitigkeit eignet sich Qwen3 für verschiedene Szenarien:
- Chatbots und virtuelle Assistenten: Stellen Sie natürliche, kontextbezogene Antworten für Kundensupport und persönliche Assistenzanwendungen bereit.
- Content-Generierung: Erstellen Sie Artikel, Geschichten, Code und andere kreative oder technische Inhalte.
- Datenanalyse: Unterstützen Sie uns bei der Interpretation und Zusammenfassung großer Datensätze für Forschung und Business Intelligence.
- Lehrmittel: Helfen Sie Schülern bei Hausaufgaben, Erklärungen und personalisierten Lernerfahrungen.
- Wissenschaftliche Forschung: Unterstützen Sie die Literaturrecherche, die Hypothesenentwicklung und die wissenschaftliche Problemlösung.
Projektintegration
Entwickler können Qwen3 mithilfe der folgenden Frameworks und Tools in ihre Projekte integrieren:
- Transformatoren: Erfordert
transformers>=4.51.0Beispiel-Codeausschnitt:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
outputs = model.generate(**inputs, enable_thinking=True)
print(tokenizer.decode(outputs))
Benutzer können den Argumentationsmodus aktivieren mit enable_thinking=True oder steuern Sie es mit /think kombiniert mit einem nachhaltigen Materialprofil. /nothink.
- llama.cpp: Erfordert
llama.cpp>=b5092. Beispiel für eine Befehlszeile:
./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
- Olma: Erfordert
Ollama v0.6.6oder höher. Führen Sie den Befehl aus:
ollama run qwen3:8b
Unterstützt Parameter wie num_ctx 40960 kombiniert mit einem nachhaltigen Materialprofil. num_predict 32768.
- Bereitstellungsoptionen:
- SGLang: Erfordert
sglang>=0.4.6.post1. Startbefehl:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 - vLLM: Erfordert
vllm>=0.8.5. Befehl zum Aufschlag:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1 - MindIE: Unterstützt Ascend NPU; besuchen Sie Modelers für weitere Details.
Werkzeuggebrauch
Qwen-Agent unterstützt die Interaktion von Qwen3 mit externen Tools und APIs und eignet sich für Aufgaben, die dynamischen Datenzugriff erfordern. Diese Funktion wird auch von SGLang, vLLM, Transformers, llama.cpp und Ollama unterstützt.
Feintuning
Qwen3 kann mithilfe von Frameworks wie Axolotl, UnSloth, Swift und Llama-Factory feinabgestimmt werden und unterstützt Techniken wie Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) und Group Robust Preference Optimization (GRPO).
Fazit
Qwen3 stellt einen Durchbruch im Bereich großer Sprachmodelle dar und bietet verbesserte Funktionalität, Vielseitigkeit und Zugänglichkeit. Mit seiner mehrsprachigen Unterstützung, hybridem Reasoning und spezialisierten Versionen für Vision-, Mathematik- und Audioaufgaben positioniert sich Qwen3 als Schlüsselspieler im KI-Bereich. Seine konkurrenzfähige Leistung in Benchmarks wie Codeforces, AIME und BFCL sowie seine Open-Source-Verfügbarkeit machen es zur idealen Wahl für Entwickler, Forscher und Unternehmen. Mit dem Fortschritt der KI-Technologie stellt Qwen3 einen wichtigen Schritt zur Entwicklung intelligenter Systeme dar, die die Welt immer komplexer verstehen, schlussfolgern und mit ihr interagieren können.
Erste Schritte
Entwickler können zugreifen Qwen 3 API durch CometAPI. Erkunden Sie zunächst die Funktionen des Modells im Playground und konsultieren Sie die API-Leitfaden Detaillierte Anweisungen finden Sie unter „Verifizierung der Organisation“. Beachten Sie, dass Entwickler vor der Verwendung des Modells möglicherweise ihre Organisation überprüfen müssen.
