Die Qwen 3 API ist eine von Alibaba Cloud entwickelte OpenAI-kompatible Schnittstelle, die es Entwicklern ermöglicht, erweiterte große Qwen 3-Sprachmodelle – verfügbar sowohl in dichter als auch in gemischter Expertenarchitektur (MoE) – in ihre Anwendungen für Aufgaben wie Textgenerierung, logisches Denken und mehrsprachige Unterstützung zu integrieren.
Qwen 3 Übersicht
Hauptfunktionen
- Hybride Argumentationsfähigkeiten: Qwen 3 integriert sowohl herkömmliche KI-Funktionen als auch erweitertes dynamisches Denken und verbessert so die Anpassungsfähigkeit und Effizienz für Entwickler.
- Skalierbarkeit: Die Modellfamilie umfasst sowohl dichte (0.6 B bis 32 B Parameter) als auch spärliche Modelle (30 B mit 3 B aktivierten Parametern, 235 B mit 22 B aktivierten Parametern) und deckt ein breites Anwendungsspektrum ab.
- Erweitertes Kontextfenster: Die meisten Qwen 3-Modelle unterstützen ein 128K-Token-Kontextfenster, was die Verarbeitung langer Dokumente und komplexer Aufgaben erleichtert.
- Multimodale Unterstützung: Qwen 3-Modelle können Text-, Bild-, Audio- und Videoeingaben verarbeiten und eignen sich daher für verschiedene Anwendungen, darunter Sprachinteraktionen in Echtzeit und visuelle Datenanalyse.
- Open-Source-Zugänglichkeit: Alle Qwen 3-Modelle sind unter der Apache 2.0-Lizenz lizenziert und über Plattformen wie Hugging Face und ModelScope verfügbar.
Technische Architektur
Modellvarianten
Qwen 3 umfasst eine Reihe von Modellen, um unterschiedlichen Rechenanforderungen gerecht zu werden:
- Dichte Modelle: Verfügbar in den Größen 0.6B, 1.7B, 4B, 8B, 14B und 32B.
- Sparse-Modelle: Enthält ein 30B-Modell mit 3B aktivierten Parametern und ein 235B-Modell mit 22B aktivierten Parametern.
Die Architektur ermöglicht eine effiziente Bereitstellung über verschiedene Hardwarekonfigurationen hinweg, von Mobilgeräten bis hin zu Hochleistungsservern.
Kontextuelles Verständnis
Mit einem 128-Token-Kontextfenster können Qwen 3-Modelle die Kohärenz über längere Interaktionen hinweg aufrechterhalten, wodurch sie sich für Aufgaben eignen, die ein tiefes Kontextverständnis erfordern, wie etwa die Generierung umfangreicher Inhalte und die Lösung komplexer Probleme.
Entwicklung der Qwen-Serie
Von Qwen bis Qwen 3
Die Qwen-Serie hat eine bedeutende Entwicklung durchgemacht:
- Qwen: Als Basis eingeführte vortrainierte Sprachmodelle, die bei verschiedenen Aufgaben eine überlegene Leistung zeigen.
- Qwen-Chat: Chat-Modelle, die mit menschlichen Ausrichtungstechniken optimiert wurden und erweiterte Tool-Nutzungs- und Planungsfunktionen demonstrieren.
- Qwen2: Erweiterung der Modellsuite um befehlsoptimierte Sprachmodelle mit Parameterbereichen von 0.5 bis 72 Milliarden. Das Flaggschiffmodell Qwen2-72B zeigte in verschiedenen Benchmarks eine bemerkenswerte Leistung.
- Qwen2.5: Einführung von Modellen wie Qwen2.5-Omni, die Text, Bilder, Videos und Audio verarbeiten und sowohl Text- als auch Audioausgaben generieren können.
- Qwen 3: Die neueste Version mit hybriden Argumentationsfunktionen und verbesserter Effizienz stellt einen bedeutenden Fortschritt in der Serie dar.
Benchmark-Leistung
Qwen2.5 übertrifft Vorgängermodelle wie QwQ und Qwen3 deutlich und bietet überlegene Funktionen in Mathematik, Codierung, logischem Denken, kreativem Schreiben und interaktiven Dialogen. Die Variante Qwen3-30B-A3B umfasst 30.5 Milliarden Parameter (3.3 Milliarden aktiviert), 48 Ebenen, 128 Experten (8 aktiviert pro Task) und unterstützt bis zu 131 Token-Kontexte mit YaRN. Damit setzt sie einen neuen Standard unter Open-Source-Modellen.
- AIME25: Qwen3 erreichte 81.5 Punkte und stellte damit einen neuen Open-Source-Rekord auf.
- LiveCodeBench: Qwen3 erzielte über 70 Punkte, sogar besser als Grok3.
- ArenaHard: Qwen3 übertraf OpenAl-o1 und DeepSeek-FR1 mit 95.6 Punkten.
Codebeispiel
Entwickler können mit Qwen 3-Modellen interagieren, indem sie den folgenden Python-Codeausschnitt verwenden:
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")
# Encode input prompt
input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response
output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)
print(response)
Dieses Beispiel zeigt, wie ein Qwen 3-Modell geladen und mithilfe der Hugging Face Transformers-Bibliothek eine Antwort auf eine bestimmte Eingabeaufforderung generiert wird.
Fazit
Qwen 3 stellt einen bedeutenden Meilenstein in Alibabas KI-Entwicklung dar und bietet verbesserte Denkfähigkeiten, Skalierbarkeit und multimodale Unterstützung. Die Open-Source-Verfügbarkeit unter der Apache 2.0-Lizenz fördert eine breite Akzeptanz und weitere Innovationen innerhalb der KI-Community. Da sich die KI-Landschaft ständig weiterentwickelt, positioniert Qwen 3 Alibaba als starken Akteur im In- und Ausland.
Wie man anruft Qwen 3 API von CometAPI
Qwen 3 API-Preise in CometAPI:
| Modellversion | Qwen3 235B A22B | Qwen: Qwen3 30B A3B | Qwen3 8B |
| Preis in CometAPI | Eingabe-Token: 1.6 $ / M Token | Eingabetoken: 0.4 $/M Token | Eingabe-Token: 0.32 $ / M Token |
| Ausgabe-Token: 4.8 $ / M Token | Ausgabe-Token: 1.2 $ / M Token | Ausgabe-Token: 0.96 $ / M Token | |
| Modellnamen | qwen3-235b-a22b | qwen3-30b-a3b | qwen3-8b |
| veranschaulichen | Dies ist das Flaggschiffmodell der Qwen3-Serie mit 235 Milliarden Parametern und einer Mixture of Experts (MoE)-Architektur. | qwen3-30b-a3b: Mit 30 Milliarden Parametern gleicht es Leistung und Ressourcenanforderungen aus und eignet sich für Anwendungen auf Unternehmensebene. | Ein leichtes Modell mit 800 Millionen Parametern, das speziell für Umgebungen mit eingeschränkten Ressourcen (wie mobile Geräte oder Server mit geringer Konfiguration) entwickelt wurde. |
Erforderliche Schritte
- Einloggen in cometapi.comWenn Sie noch nicht unser Benutzer sind, registrieren Sie sich bitte zuerst
- Holen Sie sich den API-Schlüssel für die Zugangsdaten der Schnittstelle. Klicken Sie im persönlichen Bereich beim API-Token auf „Token hinzufügen“, holen Sie sich den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.
- Holen Sie sich die URL dieser Site: https://api.cometapi.com/
Verwendungsmethoden
- Wählen Sie das "
qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b”-Endpunkt, um die API-Anfrage zu senden und den Anfragetext festzulegen. Die Anfragemethode und der Anfragetext stammen aus der API-Dokumentation unserer Website. Unsere Website bietet außerdem einen Apifox-Test für Ihre Bequemlichkeit. - Ersetzen mit Ihrem aktuellen CometAPI-Schlüssel aus Ihrem Konto.
- Geben Sie Ihre Frage oder Anfrage in das Inhaltsfeld ein – das Modell antwortet darauf.
- . Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.
Informationen zum Modellstart in der Comet-API finden Sie unter https://api.cometapi.com/new-model.
Informationen zu Modellpreisen in der Comet-API finden Sie unter https://api.cometapi.com/pricing.
Siehe auch Qwen 2.5 Max API



