Zhipu AI veröffentlicht GLM-4.5: Ein Open-Source-Modell für Reasoning, Code und Agenten

CometAPI
AnnaJul 28, 2025
Zhipu AI veröffentlicht GLM-4.5: Ein Open-Source-Modell für Reasoning, Code und Agenten

Am 28. Juli 2025 stellte das in Peking ansässige Startup Zhipu AI offiziell seine GLM-4.5-Reihe von Open-Source-Modellen für große Sprachen vor. Es handelt sich um die bislang leistungsstärkste Version, die auf fortschrittliche Anwendungen für intelligente Agenten abzielt. Die Ankündigung – die im Rahmen einer Live-Online-Veranstaltung im Anschluss an die World Artificial Intelligence Conference (WAIC) erfolgte – zeigte zwei Varianten: das vollwertige GLM-4.5 mit insgesamt 355 Milliarden Parametern (32 Milliarden aktiv) und das kompaktere GLM-4.5-Air mit insgesamt 106 Milliarden Parametern (12 Milliarden aktiv). Beide Modelle verwenden eine hybride „denkende“ und „nicht denkende“ Argumentationsarchitektur, die tiefe Inferenz mit schneller Reaktion in Einklang bringen soll, und bieten ein Kontextfenster mit 128,000 Token für umfangreiche konversations- und aufgabenorientierte Anwendungsfälle.

Die Einführung von GLM-4.5 erfolgt inmitten eines sich verschärfenden nationalen KI-Wettlaufs. Laut der staatlichen chinesischen Nachrichtenagentur Xinhua haben chinesische Entwickler bis Juli 1,509 2025 großsprachige Modelle veröffentlicht und liegen damit an der Spitze der weltweiten Gesamtzahl von 3,755 Modellen – ein klarer Beweis für das Ausmaß und die Geschwindigkeit der Expansion des chinesischen KI-Ökosystems.

Open-Source-Lizenzierung von GLM-4.5

In einer klaren Abkehr von geschlossenen proprietären Paradigmen veröffentlicht Z.ai GLM-4.5 unter einer Vollständig überprüfbare Open-Source-Lizenz im MIT-Stil, wodurch Unternehmen volle Transparenz über Modellgewichte und Trainingscode erhalten. Organisationen können GLM-4.5 einsetzen Vor Ort, optimieren Sie es anhand proprietärer Datensätze oder integrieren Sie es über selbst gehostete Inferenzdienste, um so die Abhängigkeit von einem Anbieter und undurchsichtige API-Preisstrukturen zu vermeiden.

Die Verfügbarkeit beider GLM-4.5 für allgemeine Agentenaufgaben und GLM‑4.5‑Air, eine leichte Variante, die für Umgebungen mit geringeren Ressourcen optimiert ist, gewährleistet ein breites Spektrum an Anwendungsfällen – von der Bereitstellung in großen Rechenzentren bis hin zu Inferenzszenarien für Edge-Geräte.

Strategisch positioniert sich Zhipu mit seinem Open-Source-Ansatz gegenüber etablierten westlichen Closed-Source-Anbietern wie OpenAI. Durch die Demokratisierung des Zugangs zu einem GPT-4-vergleichbaren Modell unter der MIT-Lizenz will Zhipu eine starke Community von nachgelagerten Entwicklern aufbauen und technische Maßstäbe für die Fähigkeiten agentenbasierter KI setzen. Branchenbeobachter weisen darauf hin, dass dieser Schritt einem breiteren Trend unter Chinas „KI-Tigern“ folgt, darunter Moonshot AI und Step AI, die ebenfalls große Modelle als Open Source zur Verfügung gestellt haben, um Innovationszyklen zu beschleunigen.

Benchmark glm4.5

Leistungsbenchmarks und Vergleichsanalyse

Vorläufige Benchmarks von Zhipu AI zeigen, dass GLM‑4.5 in 63.2 branchenüblichen Evaluierungssuiten eine Gesamtpunktzahl von 12 erreicht und damit den dritten Platz unter Open-Source- und proprietären Modellen einnimmt. Das optimierte GLM‑4.5‑Air erreicht 59.8 Punkte und verbindet so Effizienz mit hoher Genauigkeit. Interne Codierungsbewertungen zeigen außerdem, dass GLM‑4.5 die wichtigsten Konkurrenten übertrifft und eine Gewinnrate von 53.9 Prozent gegen Kimi K2 und eine Erfolgsrate von 80.8 Prozent gegen Qwen3‑Coder bei 52 verschiedenen Programmieraufgaben erreicht.

GLM-4.5

Demonstrationen während der Live-Veranstaltung unterstrichen die agentenbasierten Fähigkeiten von GLM-4.5: Das Modell führte autonom Webrecherchen durch – es rief Informationen aus mehreren Quellen ab und fasste sie zusammen – und interagierte mit simulierten Social-Media- und Entwicklungsumgebungen, um Beiträge zu generieren, Codeausschnitte auszuführen und Elemente der Benutzeroberfläche in Echtzeit zu manipulieren. Interessierte Benutzer können das Modell in Originalgröße sofort kostenlos über das Qingyan-Portal und die CometAPI-Plattform von Zhipu testen, während Entwickler auf API-Endpunkte des BigModel-Dienstes von CometAPI zugreifen oder die vollständigen Modellgewichte von Hugging Face und ModelScope unter einer MIT-Lizenz herunterladen können.

Kosteneffizienz ist ein Eckpfeiler der Strategie von Z.ai. GLM-15 basiert auf einem 4.5 Billionen Token umfassenden Korpus und nutzt optimierte Inferenzpfade, um einen Durchsatz von 100–200 Token pro Sekunde zu erreichen – bis zu achtmal schneller als vergleichbare inländische Wettbewerber – und das zu einem beworbenen Preis von nur 0.11 US-Dollar pro Million Token. Damit unterbietet es Modelle wie DeepSeek-R1 und die neuesten Versionen von Alibaba. Unter der freizügigen MIT-Lizenz sind alle Modellgewichte, der Code und die Dokumentation kostenlos über Hugging Face verfügbar, um eine lebendige Entwickler- und Forschungs-Community weltweit zu fördern.

„GLM‑4.5 verkörpert unser Engagement für die Demokratisierung des Zugangs zu erstklassiger KI-Technologie“, sagte Zhang Peng, CEO von Z.ai, in einem CNBC-Interview. „Indem wir ein Modell mit herausragenden Argumentations-, Codierungs- und Agentenfunktionen als Open Source bereitstellen, ermöglichen wir Unternehmen jeder Größe Innovationen ohne die Einschränkungen proprietärer APIs oder unerschwinglicher Kosten.“

Erste Schritte

CometAPI ist eine einheitliche API-Plattform, die über 500 KI-Modelle führender Anbieter – wie die GPT-Reihe von OpenAI, Gemini von Google, Claude von Anthropic, Midjourney, Suno und weitere – in einer einzigen, entwicklerfreundlichen Oberfläche vereint. Durch konsistente Authentifizierung, Anforderungsformatierung und Antwortverarbeitung vereinfacht CometAPI die Integration von KI-Funktionen in Ihre Anwendungen erheblich. Ob Sie Chatbots, Bildgeneratoren, Musikkomponisten oder datengesteuerte Analyse-Pipelines entwickeln – CometAPI ermöglicht Ihnen schnellere Iterationen, Kostenkontrolle und Herstellerunabhängigkeit – und gleichzeitig die neuesten Erkenntnisse des KI-Ökosystems zu nutzen.

Entwickler können zugreifen GLM-4.5 Air API kombiniert mit einem nachhaltigen Materialprofil. GLM‑4.5 API - durch Konsolidierung, CometAPIDie aktuellste Version des Claude-Modells entspricht dem Veröffentlichungsdatum des Artikels. Erkunden Sie zunächst die Funktionen des Modells im Spielplatz und konsultieren Sie die API-Leitfaden Für detaillierte Anweisungen. Stellen Sie vor dem Zugriff sicher, dass Sie sich bei CometAPI angemeldet und den API-Schlüssel erhalten haben. CometAPI bieten einen Preis weit unter dem offiziellen Preis an, um Ihnen bei der Integration zu helfen.

Mehr lesen

500+ Modelle in einer API

Bis zu 20% Rabatt