Qwen3: Was es ist und wie man es benutzt

CometAPI
AnnaApr 29, 2025
Qwen3: Was es ist und wie man es benutzt

Im April 2025 veröffentlichte Alibaba Cloud Qwen3, die neueste Version der Qwen-Reihe großer Sprachmodelle (LLMs). Als bedeutender Fortschritt im Bereich der künstlichen Intelligenz zeigt Qwen3 herausragende Fähigkeiten in den Bereichen Sprachverständnis, logisches Denken, multimodale Verarbeitung und Rechenleistung. Das Modell unterstützt 119 Sprachen, wird mit einem Datensatz von 36 Billionen Token trainiert und bietet verschiedene Modellgrößen von 0.6 Milliarden bis 235 Milliarden Parametern. Dieser Artikel bietet eine detaillierte Untersuchung der Definition, Funktionen, Nutzungsmethoden, Zugriffsansätze, Vergleiche mit anderen Modellen und seiner potenziellen Auswirkungen auf den KI-Bereich von Qwen3 und soll Entwicklern, Forschern und Unternehmen als umfassende Referenz dienen.

Was ist Qwen3?

Qwen3 ist eine Reihe umfangreicher Sprachmodelle, die entwickelt wurden, um menschenähnlichen Text zu verstehen und zu generieren. Sie eignen sich für eine Reihe von Szenarien, von alltäglichen Gesprächen bis hin zu komplexen Denkaufgaben. Es ist die dritte Generation der von Alibaba Cloud entwickelten Qwen-Reihe, nach der Veröffentlichung von Qwen im Jahr 2023 und Qwen2 im Jahr 2024, die Verbesserungen bei Leistung und Funktionalität mit sich brachten.

Eine kurze Geschichte der Qwen-Serie

Die Qwen-Serie begann im April 2023 mit der Veröffentlichung des Qwen-Modells, zunächst „Tongyi Qianwen“ genannt und basierend auf der Llama-Architektur von Meta AI. Nach der Genehmigung durch die chinesische Regierung im September 2023 wurde Qwen offiziell veröffentlicht. Im Dezember 2023 wurden die Modelle Qwen 72B und 1.8B als Open Source freigegeben, gefolgt von der Einführung von Qwen2 im Juni 2024, das eine Mixture of Experts (MoE)-Architektur verwendete. Qwen3, eingeführt im April 2025, verfügt über hybride Schlussfolgerungsfähigkeiten und multimodale Funktionalitäten und ist damit die fortschrittlichste Version der Serie.

Funktionen von Qwen3

Qwen3 bietet eine Reihe innovativer Funktionen, die es in der globalen KI-Modelllandschaft auszeichnen:

Mehrsprachige Unterstützung

Qwen3 unterstützt 119 Sprachen und deckt damit die wichtigsten globalen Sprachsysteme ab. Dies macht es zur idealen Wahl für interkulturelle und mehrsprachige Anwendungen, wie z. B. internationalen Kundensupport und die Erstellung mehrsprachiger Inhalte.

Trainingsdaten im großen Maßstab

Der Qwen3-Trainingsdatensatz umfasst fast 36 Billionen Token, was etwa 270 Milliarden Wörtern entspricht. Er umfasst ein breites Spektrum an Inhalten, wie Lehrbücher, Frage-Antwort-Paare, Code-Schnipsel und KI-generierte Inhalte, hauptsächlich in Chinesisch und Englisch. Diese Skalierung gewährleistet eine hervorragende Leistung beim Sprachverständnis und der Sprachgenerierung.

Verschiedene Modellgrößen

Qwen3 bietet eine Vielzahl von Modellgrößen von 0.6 Milliarden bis 235 Milliarden Parametern:

  • Kleine Modelle (0.6 B, 1.7 B): Geeignet für leichte Anwendungen, die auf Geräten wie Smartphones ausgeführt werden können.
  • Mittlere Modelle (4B, 8B, 14B, 32B): Gleichen Sie Leistung und Ressourcenbedarf aus, anwendbar auf die meisten Entwicklungsszenarien.
  • Große Modelle (235B): Bieten Sie erstklassige Leistung für Aufgaben auf Unternehmensebene.
ModellParametergrößeKontextfenster (Token)Anwendbare Szenarien
Qwen3-0.6B0.6 Milliarden32,768Mobile Geräte, leichte Anwendungen
Qwen3-1.7B1.7 Milliarden32,768Eingebettete Systeme, schnelles Denken
Qwen3-4B4 Milliarden131,072Kleine bis mittelgroße Projekte, Forschung
Qwen3-8B8 Milliarden131,072Allgemeine Anwendungen, Entwicklung
Qwen3-32B32 Milliarden131,072Hochleistungsaufgaben, Unternehmensanwendungen
Qwen3-235B-A22B235 Milliarden131,072Erstklassige Leistung, komplexe Argumentation (nicht öffentlich verfügbar)

Hybride Argumentationsfähigkeiten

Qwen3 führt die Funktion „Hybrid Reasoning“ ein, die es dem Modell ermöglicht, schrittweise zu argumentieren, bevor es Antworten auf komplexe Fragen liefert. Diese Fähigkeit ist besonders wichtig für logisches Denken, mathematische Probleme und Programmieraufgaben. Benutzer können diesen Modus in den Einstellungen aktivieren oder deaktivieren (z. B. enable_thinking=True).

Expertenmischungsmodelle (MoE)

Qwen3 umfasst Expertenmodelle wie Qwen3-30B-A3B (30 Milliarden Parameter, 3 Milliarden aktiv) und Qwen3-235B-A22B (235 Milliarden Parameter, 22 Milliarden aktiv). Diese Modelle beschleunigen die Inferenz, indem sie nur eine Teilmenge der Parameter aktivieren und gleichzeitig eine hohe Leistung beibehalten. Dadurch eignen sie sich gut für den Einsatz im großen Maßstab.

Erweiterte Token-Limits

Einige Qwen3-Modelle unterstützen Kontextfenster mit bis zu 131,072 Token (Modelle 4B und höher). Dies stellt eine deutliche Steigerung gegenüber den 2 Token von Qwen32,768 dar. Diese Erweiterung ermöglicht es dem Modell, längere Dialoge und komplexere Textgenerierungsaufgaben zu verarbeiten.

Qwen3

Qwen 3 Benchmarks

Das Modell weist Kompetenz in der Codegenerierung, im Debugging und in der mathematischen Problemlösung auf und ist somit ein wertvolles Werkzeug für die Softwareentwicklung und Datenanalyse.

Qwen3: Was es ist und wie man es benutzt

So verwenden Sie Qwen3

Anwendungen

Aufgrund seiner Vielseitigkeit eignet sich Qwen3 für verschiedene Szenarien:

  • Chatbots und virtuelle Assistenten: Stellen Sie natürliche, kontextbezogene Antworten für Kundensupport und persönliche Assistenzanwendungen bereit.
  • Content-Generierung: Erstellen Sie Artikel, Geschichten, Code und andere kreative oder technische Inhalte.
  • Datenanalyse: Unterstützen Sie uns bei der Interpretation und Zusammenfassung großer Datensätze für Forschung und Business Intelligence.
  • Lehrmittel: Helfen Sie Schülern bei Hausaufgaben, Erklärungen und personalisierten Lernerfahrungen.
  • Wissenschaftliche Forschung: Unterstützen Sie die Literaturrecherche, die Hypothesenentwicklung und die wissenschaftliche Problemlösung.

Projektintegration

Entwickler können Qwen3 mithilfe der folgenden Frameworks und Tools in ihre Projekte integrieren:

  • Transformatoren: Erfordert transformers>=4.51.0Beispiel-Codeausschnitt:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Benutzer können den Argumentationsmodus aktivieren mit enable_thinking=True oder steuern Sie es mit /think kombiniert mit einem nachhaltigen Materialprofil. /nothink.

  • llama.cpp: Erfordert llama.cpp>=b5092. Beispiel für eine Befehlszeile:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Olma: Erfordert Ollama v0.6.6 oder höher. Führen Sie den Befehl aus:
  ollama run qwen3:8b

Unterstützt Parameter wie num_ctx 40960 kombiniert mit einem nachhaltigen Materialprofil. num_predict 32768.

  • Bereitstellungsoptionen:
  • SGLang: Erfordert sglang>=0.4.6.post1. Startbefehl: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: Erfordert vllm>=0.8.5. Befehl zum Aufschlag: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: Unterstützt Ascend NPU; besuchen Sie Modelers für weitere Details.

Werkzeuggebrauch

Qwen-Agent unterstützt die Interaktion von Qwen3 mit externen Tools und APIs und eignet sich für Aufgaben, die dynamischen Datenzugriff erfordern. Diese Funktion wird auch von SGLang, vLLM, Transformers, llama.cpp und Ollama unterstützt.

Feintuning

Qwen3 kann mithilfe von Frameworks wie Axolotl, UnSloth, Swift und Llama-Factory feinabgestimmt werden und unterstützt Techniken wie Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) und Group Robust Preference Optimization (GRPO).

Fazit

Qwen3 stellt einen Durchbruch im Bereich großer Sprachmodelle dar und bietet verbesserte Funktionalität, Vielseitigkeit und Zugänglichkeit. Mit seiner mehrsprachigen Unterstützung, hybridem Reasoning und spezialisierten Versionen für Vision-, Mathematik- und Audioaufgaben positioniert sich Qwen3 als Schlüsselspieler im KI-Bereich. Seine konkurrenzfähige Leistung in Benchmarks wie Codeforces, AIME und BFCL sowie seine Open-Source-Verfügbarkeit machen es zur idealen Wahl für Entwickler, Forscher und Unternehmen. Mit dem Fortschritt der KI-Technologie stellt Qwen3 einen wichtigen Schritt zur Entwicklung intelligenter Systeme dar, die die Welt immer komplexer verstehen, schlussfolgern und mit ihr interagieren können.

Erste Schritte

Entwickler können zugreifen Qwen 3 API durch CometAPI. Erkunden Sie zunächst die Funktionen des Modells im Playground und konsultieren Sie die API-Leitfaden Detaillierte Anweisungen finden Sie unter „Verifizierung der Organisation“. Beachten Sie, dass Entwickler vor der Verwendung des Modells möglicherweise ihre Organisation überprüfen müssen.

Mehr lesen

500+ Modelle in einer API

Bis zu 20% Rabatt