Alibaba veröffentlicht Qwen3‑Coder und Qwen Code: Ein Durchbruch in der agentenbasierten KI-Codierung

CometAPI
AnnaJul 25, 2025
Alibaba veröffentlicht Qwen3‑Coder und Qwen Code: Ein Durchbruch in der agentenbasierten KI-Codierung

Am 23. Juli 2025 stellte die Alibaba Group offiziell Qwen3-Coder vor, ein Open-Source-Modell für künstliche Intelligenz, das speziell auf Softwareentwicklung und autonome Programmieraufgaben zugeschnitten ist. Die Ankündigung positioniert Qwen3-Coder als das bislang fortschrittlichste Programmiermodell des Unternehmens und zeichnet sich durch beispiellose Skalierbarkeit und Leistungsfähigkeit aus, die speziell auf die komplexen Anforderungen moderner Softwareentwicklungsteams zugeschnitten ist.

Die Flaggschiff-Variante, Qwen3‑Coder‑480B‑A35B‑Instruct, umfasst ein MoE-Modell mit 480 Milliarden Parametern und 35 Milliarden aktiven Parametern. Es unterstützt nativ Kontextfenster mit bis zu 256 Token und kann durch Extrapolation auf 1 Million Token erweitert werden. Diese umfangreiche Kontextlänge ermöglicht es dem Modell, die Kohärenz über große Codebasen, Dokumentationen und Projekte mit mehreren Dateien hinweg aufrechtzuerhalten, ohne den Überblick über Abhängigkeiten zu verlieren.

Modellspezifikationen und Funktionen von Qwen3‑Coder

Zu den wichtigsten technischen Highlights gehören:

Umfangreiche Benchmarks: Laut Alibaba übertrifft Qwen3‑Coder alle bestehenden Open‑Source‑Codierungsmodelle bei Benchmarks wie SWE‑Bench‑Verified und Agentic‑Coding-Evaluierungen und weist eine höhere Genauigkeit, Effizienz und Codequalität auf.

Agentisches Codierungsframework: Durch die Nutzung von Long-Horizon Reinforcement Learning (Agent RL) kann Qwen3-Coder Codierungsaufgaben autonom planen, externe Entwicklertools aufrufen und sich auf der Grundlage von Feedbackschleifen selbst korrigieren, wodurch reale Softwareentwicklungsprozesse widergespiegelt werden.

Duale Denkmodi: Ein einheitlicher Denk- und Nicht-Denkmodus ermöglicht es dem Modell, Rechenbudgets dynamisch anzupassen und zwischen schneller Reaktion für einfache Skripte und tiefergehender Argumentation für komplizierte algorithmische Herausforderungen umzuschalten.

Leistungsbenchmarks

In internen Benchmarks übertraf Qwen3‑Coder führende inländische Wettbewerber wie DeepSeek und Moonshot AIs K2 bei wichtigen Codierungsmetriken wie Codegenerierungsgenauigkeit und Multi-File-Debugging. Darüber hinaus behauptet Alibaba, bei Standard-Codierungsherausforderungen mit den führenden US-Modellen – nämlich GPT‑4 von OpenAI und Claude von Anthropic – gleichauf zu sein, was seine Wettbewerbsfähigkeit auf globaler Ebene unterstreicht.

ModellLaufzeitfehler (%)Grammatikfehler (%)Null-Score-Rate (%)Gesamtfehler (%)Max ScoreMedianwertMedian-Lücke (%)
OpenAI o4 mini (hoch)1.113.336.6711.1177.7566.7514.16
Claude Sonett 4 (Denken)1.115.563.3310.0075.6766.9811.49
Qwen3-Coder-480B-A35B5.564.4410.0020.0072.8552.0428.57
Gemini 2.5 Pro2.227.788.8918.8972.2458.0519.65
DeepSeek R1 05283.335.5613.3322.2269.3649.2529.00
Claude Sonnet 43.334.447.7815.5568.2661.0210.60
GPT-4.1 mini2.227.783.3313.3364.3950.8720.99
Qwen3-235B-A22B-Anweisung-25074.4416.6713.3334.4463.2442.4432.89

Trainiert auf einem riesigen 7.5 Billionen Token-Datensatz, mit über 70% Mithilfe der Daten aus hochwertigen Code-Repositories wurde Qwen3-Coder mithilfe von Reinforcement Learning auf Basis realer Entwicklungsszenarien weiter verfeinert. Diese Feinabstimmung nach dem Training verbesserte die Ausführungserfolgsrate und die Robustheit des Modells bei der Generierung korrekten und effizienten Codes deutlich.

Qwen3-Coder ist jetzt verfügbar auf Gesicht umarmen kombiniert mit einem nachhaltigen Materialprofil. GitHubund Entwickler können darauf zugreifen über die Alibaba Cloud Model Studio API. Es wurde auch integriert in Tongyi Lingma (Qwen-Code), der KI-Codierungsassistent von Alibaba, der sowohl Unternehmen als auch einzelnen Entwicklern eine nahtlose Bereitstellung ermöglicht.

Qwen-Code

Um eine breite Akzeptanz zu ermöglichen, veröffentlicht Alibaba gleichzeitig Qwen-Code, eine auf Gemini Cli aufbauende Befehlszeilenschnittstelle, die Qwen3-Coder nahtlos mit gängigen Entwicklungsumgebungen, Versionskontrollsystemen und CI/CD-Pipelines verbindet. Dieses Tool bietet:

  • Benutzerdefinierte Eingabeaufforderungen und Funktionsaufrufe: Vorkonfigurierte Interaktionsmuster, die Entwickler durch die Aufgaben Testgenerierung, Codeüberprüfung und Bereitstellung führen.
  • Plugin Architektur: Erweiterbare Module zur Integration von Debuggern, Lintern und Leistungsprofilern von Drittanbietern.
  • Zugriff auf das Alibaba Cloud Model Studio: API-Bereitstellung per Mausklick, Überwachungs-Dashboards und Feinabstimmungsoptionen innerhalb des Alibaba Cloud-Ökosystems.

Entwickler können Qwen Code über den npm-Manager installieren oder den Quellcode von GitHub verwenden. Qwen Code unterstützt OpenAI SDK, das LLM aufruft.

Erste Schritte

CometAPI ist eine einheitliche API-Plattform, die über 500 KI-Modelle führender Anbieter – wie die GPT-Reihe von OpenAI, Gemini von Google, Claude von Anthropic, Midjourney, Suno und weitere – in einer einzigen, entwicklerfreundlichen Oberfläche vereint. Durch konsistente Authentifizierung, Anforderungsformatierung und Antwortverarbeitung vereinfacht CometAPI die Integration von KI-Funktionen in Ihre Anwendungen erheblich. Ob Sie Chatbots, Bildgeneratoren, Musikkomponisten oder datengesteuerte Analyse-Pipelines entwickeln – CometAPI ermöglicht Ihnen schnellere Iterationen, Kostenkontrolle und Herstellerunabhängigkeit – und gleichzeitig die neuesten Erkenntnisse des KI-Ökosystems zu nutzen.

Entwickler können interagieren mit Qwen3-Coder über eine kompatible API im OpenAI-Stil, verfügbar über CometAPI. CometAPI, die Open Source anbieten (qwen3-coder-480b-a35b-instruct) und kommerzielle Versionen (qwen3-coder-plus; qwen3-coder-plus-2025-07-22) zum gleichen Preis. Die kommerzielle Version ist 1 MB lang. Beispielcode für Python (unter Verwendung des OpenAI-kompatiblen Clients) mit Best Practices, die die folgenden Sampling-Einstellungen empfehlen: Temperatur = 0.7, Top_p = 0.8, Top_k = 20 und Wiederholungsstrafe = 1.05. Die Ausgabelänge kann bis zu 65,536 Token betragen, wodurch sich der Code für umfangreiche Codegenerierungsaufgaben eignet.

Erkunden Sie zunächst die Fähigkeiten der Modelle in der Spielplatz und konsultieren Sie die API-Leitfaden Für detaillierte Anweisungen. Stellen Sie vor dem Zugriff sicher, dass Sie sich bei CometAPI angemeldet und den API-Schlüssel erhalten haben.

SHARE THIS BLOG

500+ Modelle in einer API

Bis zu 20% Rabatt