ModelleSupportUnternehmenBlog
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Ressourcen
KI-ModelleBlogUnternehmenÄnderungsprotokollÜber uns
2025 CometAPI. Alle Rechte vorbehalten.DatenschutzrichtlinieNutzungsbedingungen
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Eingabe:$0.96/M
Ausgabe:$3.84/M
Kontext:200K
Maximale Ausgabe:128K
GLM-4.7 ist das neueste Flaggschiffmodell von Z.AI und bringt Upgrades in zwei Schlüsselbereichen: erweiterte Programmierfähigkeiten und stabilere mehrschrittige Denk- und Ausführungsprozesse. Es weist erhebliche Verbesserungen bei der Ausführung komplexer Agentenaufgaben auf und bietet zugleich natürlichere Gesprächserlebnisse sowie eine überlegene Front-End-Ästhetik.
Neu
Kommerzielle Nutzung
Playground
Überblick
Funktionen
Preisgestaltung
API

Was GLM-4.7 ist

GLM-4.7 ist Z.ai / Zhipu AIs neuestes Flaggschiff unter den Open-Foundation-Large-Language-Modellen (Modellname glm-4.7). Es ist als entwicklerorientiertes „Thinking“-Modell positioniert und bietet insbesondere Verbesserungen bei Coding-/agentischen Task-Ausführungen, mehrstufigem Schlussfolgern, Tool-Aufrufen und Long-Context-Workflows. Die Veröffentlichung hebt die Verarbeitung großer Kontexte (bis zu 200K Kontext), eine hohe maximale Ausgabelänge (bis zu 128K Token) sowie spezialisierte „Thinking“-Modi für agentische Pipelines hervor.

Hauptfunktionen

  • Verbesserungen bei agentischem Verhalten / Tool-Nutzung: Integrierte Thinking-Modi („Interleaved Thinking“, „Preserved Thinking“, Steuerung auf Turn-Ebene), damit das Modell „vor dem Handeln nachdenken“ kann, Schlussfolgerungen über mehrere Turns hinweg beibehält und bei Tool-Aufrufen oder der Ausführung mehrstufiger Aufgaben stabiler ist. Dies ist auf robuste Agent-Workflows ausgelegt (Terminals, Tool-Ketten, Web-Browsing).
  • Kompetenz bei Coding & Terminal: Deutliche Verbesserungen bei Coding-Benchmarks und Terminal-Automatisierungsaufgaben — Hersteller-Benchmarks zeigen klare Zuwächse gegenüber GLM-4.6 bei den Metriken von SWE-bench und Terminal Bench. Das führt zu besserer mehrturniger Codegenerierung, Befehlssequenzierung und Fehlerbehebung in Agent-Umgebungen.
  • „Vibe Coding“ / Qualität der Frontend-Ausgabe: Verbesserte Standardqualität von UI/Layout für generiertes HTML, Folien und Präsentationen (sauberere Layouts, bessere Größenverhältnisse, bessere visuelle Standardeinstellungen).
  • Long-Context-Workflows: Kontextfenster mit 200K Token und Tools für Context Caching; praktisch für Codebasen mit vielen Dateien, lange Dokumente und mehrstufige Agent-Sitzungen.

Benchmark-Leistung

Die vom Herausgeber/den Maintainers von GLM-4.7 sowie in Community-Benchmark-Tabellen veröffentlichten Werte zeigen deutliche Verbesserungen gegenüber GLM-4.6 und konkurrenzfähige Ergebnisse im Vergleich zu anderen aktuellen Modellen bei Aufgaben zu Coding, agentischem Verhalten und Tool-Nutzung. Ausgewählte Kennzahlen (Quelle: offizielle auf Hugging Face / Z.AI veröffentlichte Tabellen):

  • LiveCodeBench-v6 (Coding-Agent-Benchmark): 84.9 (angegebene Open-Source-SOTA).
  • SWE-bench Verified (Coding): 73.8% (gestiegen von 68.0% bei GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% gegenüber GLM-4.6).
  • Terminal Bench 2.0 (agentische Terminal-Aktionen): 41.0% (bemerkenswerte Verbesserung um +16.5% gegenüber 4.6).
  • HLE (komplexes Schlussfolgern mit Tools): 42.8% bei Nutzung mit Tools (große Verbesserung gegenüber früheren Versionen berichtet).
  • τ²-Bench (interaktiver Tool-Aufruf): 87.4 (berichtete Open-Source-SOTA).

Typische Anwendungsfälle & Beispielszenarien

  • Agentische Coding-Assistenten: Autonome oder teilautonome Codegenerierung, mehrturnige Codekorrekturen, Terminal-Automatisierung und CI/CD-Scripting.
  • Tool-gesteuerte Agenten: Web-Browsing, API-Orchestrierung, mehrstufige Workflows (unterstützt durch Preserved Thinking & Function Calling).
  • Frontend- und UI-Generierung: Automatische Website-Gerüste, Foliensätze, Poster mit verbesserter Ästhetik und besserem Layout.
  • Forschung & Long-Context-Aufgaben: Dokumentenzusammenfassung, Literatursynthese und Retrieval-Augmented Generation über lange Dokumente hinweg (das 200k-Token-Fenster ist hierbei hilfreich).
  • Interaktive Bildungsagenten / Coding-Tutoren: Mehrturniges Tutoring mit beibehaltener Schlussfolgerung, das frühere Schlussfolgerungsblöcke über eine Sitzung hinweg erinnert.

So greifen Sie auf die GLM 4.7 API zu und verwenden sie

Schritt 1: Für einen API-Schlüssel registrieren

Melden Sie sich bei cometapi.com an. Wenn Sie noch kein Benutzer sind, registrieren Sie sich bitte zuerst. Melden Sie sich in Ihrer CometAPI-Konsole an. Holen Sie sich den API-Schlüssel als Zugriffsdaten für die Schnittstelle. Klicken Sie im persönlichen Bereich beim API-Token auf „Add Token“, holen Sie sich den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.

Schritt 2: Anfragen an die MiniMax M2.1 API senden

Wählen Sie den Endpunkt „glm-4.7“ aus, um die API-Anfrage zu senden, und legen Sie den Request-Body fest. Die Anfragemethode und der Request-Body sind in unserer API-Dokumentation auf der Website beschrieben. Unsere Website bietet zu Ihrer Bequemlichkeit auch Apifox-Tests an. Ersetzen Sie <YOUR_API_KEY> durch Ihren tatsächlichen CometAPI-Schlüssel aus Ihrem Konto. Wo Sie ihn aufrufen: APIs im Chat-Stil.

Fügen Sie Ihre Frage oder Anfrage in das Feld content ein — darauf wird das Modell antworten. Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.

Schritt 3: Ergebnisse abrufen und verifizieren

Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten. Nach der Verarbeitung antwortet die API mit dem Aufgabenstatus und

Funktionen für GLM-4.7

Entdecken Sie die wichtigsten Funktionen von GLM-4.7, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für GLM-4.7

Entdecken Sie wettbewerbsfähige Preise für GLM-4.7, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie GLM-4.7 Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$0.96/M
Ausgabe:$3.84/M
Eingabe:$1.2/M
Ausgabe:$4.8/M
-20%

Beispielcode und API für GLM-4.7

Greifen Sie auf umfassende Beispielcodes und API-Ressourcen für GLM-4.7 zu, um Ihren Integrationsprozess zu optimieren. Unsere detaillierte Dokumentation bietet schrittweise Anleitungen und hilft Ihnen dabei, das volle Potenzial von GLM-4.7 in Ihren Projekten zu nutzen.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Weitere Modelle

A

Claude Opus 4.6

Eingabe:$4/M
Ausgabe:$20/M
Claude Opus 4.6 ist das Großsprachmodell der „Opus“-Klasse von Anthropic, veröffentlicht im Februar 2026. Es ist als Arbeitstier für Wissensarbeit und Forschungs-Workflows positioniert — mit Verbesserungen beim langkontextuellen Denken, bei der mehrstufigen Planung, bei der Tool-Nutzung (einschließlich agentenbasierter Software-Workflows) sowie bei computerbezogenen Aufgaben wie der automatisierten Erstellung von Folien und Tabellen.
A

Claude Sonnet 4.6

Eingabe:$2.4/M
Ausgabe:$12/M
Claude Sonnet 4.6 ist unser bisher leistungsfähigstes Sonnet-Modell. Es ist ein umfassendes Upgrade der Fähigkeiten des Modells in den Bereichen Programmierung, Computernutzung, Schlussfolgern mit langem Kontext, Agentenplanung, Wissensarbeit und Design. Sonnet 4.6 bietet außerdem ein 1M-Token-Kontextfenster in Beta.
O

GPT-5.4 nano

Eingabe:$0.16/M
Ausgabe:$1/M
GPT-5.4 nano ist für Aufgaben konzipiert, bei denen Geschwindigkeit und Kosten am wichtigsten sind, wie Klassifizierung, Datenextraktion, Ranking und Sub-Agenten.
O

GPT-5.4 mini

Eingabe:$0.6/M
Ausgabe:$3.6/M
GPT-5.4 mini bringt die Stärken von GPT-5.4 in ein schnelleres, effizienteres Modell, das für hochvolumige Workloads konzipiert ist.
A

Claude Mythos Preview

A

Claude Mythos Preview

Demnächst verfügbar
Eingabe:$60/M
Ausgabe:$240/M
Claude Mythos Preview ist unser bisher leistungsfähigstes Frontier-Modell und zeigt einen bemerkenswerten Sprung bei den Ergebnissen in vielen Evaluations-Benchmarks im Vergleich zu unserem vorherigen Frontier-Modell, Claude Opus 4.6.
X

mimo-v2-pro

Eingabe:$0.8/M
Ausgabe:$2.4/M
MiMo-V2-Pro ist Xiaomis Flaggschiff unter den Foundation-Modellen und verfügt über insgesamt mehr als 1T Parameter sowie eine Kontextlänge von 1M. Es ist umfassend für agentische Szenarien optimiert. Es ist in hohem Maße an allgemeine Agent-Frameworks wie OpenClaw anpassbar. In den Standard-Benchmarks PinchBench und ClawBench zählt es weltweit zur Spitzengruppe, wobei die wahrgenommene Leistung an die von Opus 4.6 heranreicht. MiMo-V2-Pro wurde als Gehirn von Agentensystemen konzipiert, um komplexe Workflows zu orchestrieren, produktionsnahe Engineering-Aufgaben voranzutreiben und zuverlässig Ergebnisse zu liefern.

Verwandte Blogs

GLM-5 vs GLM-4.7: Was hat sich geändert, was ist wichtig, und sollten Sie ein Upgrade durchführen?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: Was hat sich geändert, was ist wichtig, und sollten Sie ein Upgrade durchführen?

GLM-5, veröffentlicht am 11. Februar 2026 von Zhipu AI (Z.ai), stellt gegenüber GLM-4.7 einen großen architektonischen Sprung dar: größere MoE-Skalierung (≈744B vs ~355B Gesamtparameter), höhere aktive Parameterkapazität, geringere gemessene Halluzinationen und klare Zugewinne bei agentischen und Coding-Benchmarks — auf Kosten der Inferenzkomplexität und (manchmal) der Latenz.
Wie verwendet man GLM-4.7-Flash lokal?
Jan 21, 2026
glm-4-7
glm-4-7

Wie verwendet man GLM-4.7-Flash lokal?

GLM-4.7-Flash ist ein leichtgewichtiges, leistungsstarkes 30B A3B MoE-Modell der GLM-4.7-Familie, das eine lokale und kostengünstige Bereitstellung für Programmierung, Agenten-Workflows und allgemeines Reasoning ermöglicht. Sie können es lokal auf drei praktische Arten ausführen: (1) über Ollama (einfach, verwaltete lokale Laufzeitumgebung), (2) über Hugging Face / Transformers / vLLM / SGLang (Serverbereitstellung mit GPU-Fokus) oder (3) über GGUF + llama.cpp / llama-cpp-python (CPU-/Edge-freundlich).
GLM-4.7 veröffentlicht: Was bedeutet das für die KI  Intelligenz?
Dec 23, 2025
glm-4-7

GLM-4.7 veröffentlicht: Was bedeutet das für die KI Intelligenz?

Am 22. Dezember 2025 veröffentlichte Zhipu AI (Z.ai) offiziell GLM-4.7, die neueste Iteration seiner General Language Model (GLM)-Familie — und zog in der Welt der Open-Source-KI-Modelle weltweit Aufmerksamkeit auf sich. Dieses Modell verbessert nicht nur die Fähigkeiten bei Programmier- und Reasoning-Aufgaben, sondern fordert in wichtigen Benchmarks auch die Dominanz proprietärer Modelle wie GPT-5.2 und Claude Sonnet 4.5 heraus.