GLM‑4.5 API

CometAPI
AnnaJul 28, 2025
GLM‑4.5 API

Die GLM-4.5-API von Zhipu ist ein einheitlicher RESTful-Dienst auf den Plattformen Z.ai (global) und Zhipu AI Open (Festlandchina), der das 355 Milliarden Parameter umfassende, hybride Expertenmodell GLM-4.5 – das komplexe Schlussfolgerungen, Codierungen und Agentenaufgaben ausführen kann – mit konfigurierbaren Optionen (z. B. Temperatur, maximale Token, Streaming) bereitstellt.


Grundlegende Merkmale

GLM‑4.5 ist konzipiert als einheitliches Agentenmodellund Argumentation, Verschlüsselung und autonome Entscheidungsfindung Funktionen innerhalb einer einzigen Architektur. Es unterstützt nativ zwei Betriebsmodi:Denken für komplexes Denken und Werkzeuggebrauch und Nichtdenken für schnelle, bedarfsgerechte Reaktionen – ideal für vielseitige Agent zum Arbeitsablauf


Technische Daten

  • Parameterskala: Das Flaggschiff GLM‑4.5 umfasst 355 Milliarden Gesamtparameter mit 32 Milliarden aktive Parameter.
  • Hybrides Denken: GLM‑4.5 verwendet eine hybride FP8-Quantisierung Strategie zur Optimierung Inferenzeffizienz ohne wesentliche Einbußen bei der Genauigkeit.
  • Parameter Effizienz: Verwendet 32 B aktive Parameter von 355 B, um die Hardwarelast während der Inferenz zu minimieren.
  • Ebenenoptimierung: Komponenten werden beschnitten und in tiefere Schichten umverteilt, was die logisches Denken ohne die Modellgröße aufzublähen.

Trainingsworkflow

Mehrstufiges Training:

  1. Grundlagenvorbereitung auf ~15 Billionen Token.
  2. Argumentation Feinabstimmung auf >7 Billionen kuratierten Token, um die Entscheidungsfindung und Codesynthese zu verbessern.

Benchmark-Leistung

Auf einer Suite von 12 branchenübliche Benchmarks in Agenten, Argumentation und Verschlüsselung Aufgaben erreichte GLM‑4.5 eine Gesamtpunktzahl von 63.2, Rangfolge dritte weltweit hinter proprietären Titanen wie GPT‑4 kombiniert mit einem nachhaltigen Materialprofil. Grok 4. Zu den Highlights gehören:

BenchmarkGLM‑4.5-ErgebnisVergleich der besten proprietären Produkte
BrowseComp (Web)26.4%Claude 4 Opus: 18.8 %
MATH 50098.2%GPT‑4 Turbo
AIME2491.0%Claude 4 Sonett
GPQA79.1%Gemini 2.5 Pro

In einer Reihe von 12 Wettbewerbstests – von Verschlüsselung, Argumentation und Agenten Benchmarks – GLM‑4.5-Ränge Dritter in der Gesamtwertung, gleichauf oder sogar besser als führende proprietäre Modelle wie Claude 4 Sonnet und Gemini 2.5 Pro bei Aufgaben wie SWE‑Bank kombiniert mit einem nachhaltigen Materialprofil. AIME24 .

GLM‑4.5


Modellversionen

Die GLM‑4.5 Familie umfasst mehrere spezialisierte Varianten, die über die API zugänglich sind:

  • GLM‑4.5 (355 B Gesamtparameter; 32 B aktiv)
  • GLM‑4.5‑Air (insgesamt 106 B; leichtgewichtig, schnellere Inferenz)
  • GLM‑4.5‑X, GLM‑4.5‑AirX (ultraschnelle Inferenz)
  • GLM‑4.5‑Flash (kostenlos, optimiert für Codierung und logisches Denken)

Wie man anruft GLM‑4.5 API von CometAPI

GLM‑4.5 Serien-API-Preise in CometAPI, 20 % Rabatt auf den offiziellen Preis:

Modellstellen die Kernaussage vorPreis
glm-4.5Unser leistungsstärkstes Schlussfolgerungsmodell mit 355 Milliarden ParameternEingabe-Token 0.48 $ Ausgabe-Token 1.92 $
glm-4.5-airKostengünstig Leichtgewicht Starke LeistungEingabe-Token 0.16 $ Ausgabe-Token 1.07 $
glm-4.5-xHohe Leistung, starke Argumentation, ultraschnelle ReaktionEingabe-Token 1.60 $ Ausgabe-Token 6.40 $
glm-4.5-airxLeichtgewichtig Starke Leistung Ultraschnelle ReaktionEingabe-Token 0.02 $ Ausgabe-Token 0.06 $
glm-4.5-flashStarke Leistung, hervorragend für Reasoning Coding und AgentenEingabe-Token 3.20 $ Ausgabe-Token 12.80 $

Erforderliche Schritte

  • Einloggen in cometapi.comWenn Sie noch nicht unser Benutzer sind, registrieren Sie sich bitte zuerst
  • Holen Sie sich den API-Schlüssel für die Zugangsdaten der Schnittstelle. Klicken Sie im persönlichen Bereich beim API-Token auf „Token hinzufügen“, holen Sie sich den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.
  • Holen Sie sich die URL dieser Site: https://api.cometapi.com/

Methode verwenden

  1. Wählen Sie das "glm-4.5”-Endpunkt, um die API-Anfrage zu senden und den Anfragetext festzulegen. Die Anfragemethode und der Anfragetext stammen aus der API-Dokumentation unserer Website. Unsere Website bietet außerdem einen Apifox-Test für Ihre Bequemlichkeit.
  2. Ersetzen mit Ihrem aktuellen CometAPI-Schlüssel aus Ihrem Konto.
  3. Geben Sie Ihre Frage oder Anfrage in das Inhaltsfeld ein – das Modell antwortet darauf.
  4. . Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.

CometAPI bietet eine vollständig kompatible REST-API für eine nahtlose Migration. Wichtige Details zu API-Dokument:

API-Integration und Beispiele

Unten ist eine Python Snippet, das zeigt, wie GLM‑4.5 über die API von CometAPI aufgerufen wird. Ersetzen Sie <API_KEY> kombiniert mit einem nachhaltigen Materialprofil. <PROMPT> entsprechend:

import requests

API_URL = "https://api.cometapi.com/v1/chat/completions"
headers = {
    "Authorization": "Bearer <API_KEY>",
    "Content-Type": "application/json"
}
payload = {
    "model": "glm-4.5",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user",   "content": "<PROMPT>"}
    ],
    "max_tokens": 512,
    "temperature": 0.7
}

response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())

Parameter:

  • Modell: Gibt die GLM‑4.5-Variante an
  • max_tokens: Steuert die Ausgabelänge
  • Temperatur: Gleicht Kreativität vs. Determinismus aus

Siehe auch GLM-4.5 Air API


Mehr lesen

500+ Modelle in einer API

Bis zu 20% Rabatt