ModèlesSupportEntrepriseBlog
500+ API de modèles IA, toutes en une seule API. Simplement avec CometAPI
API des modèles
Développeur
Démarrage rapideDocumentationTableau de bord API
Ressources
Modèles d'IABlogEntrepriseJournal des modificationsÀ propos
2025 CometAPI. Tous droits réservés.Politique de confidentialitéConditions d'utilisation
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Entrée:$0.96/M
Sortie:$3.84/M
Contexte:200K
Sortie maximale:128K
GLM-4.7 est le dernier modèle phare de Z.AI, avec des améliorations dans deux domaines clés : des capacités de programmation renforcées et un raisonnement/exécution multi-étapes plus stables. Il démontre des améliorations significatives dans l’exécution de tâches d’agent complexes tout en offrant des expériences conversationnelles plus naturelles et une esthétique front-end supérieure.
Nouveau
Usage commercial
Playground
Aperçu
Fonctionnalités
Tarification
API

Ce qu’est GLM-4.7

GLM-4.7 est le dernier modèle linguistique à large échelle à base ouverte (open‑foundation) phare de Z.ai / Zhipu AI (nom du modèle glm-4.7). Il est positionné comme un modèle « réfléchi » orienté développeurs, avec des améliorations particulières en codage/exécution de tâches agentiques, raisonnement en plusieurs étapes, invocation d’outils et workflows à long contexte. Cette version met l’accent sur la gestion de grands contextes (jusqu’à 200K de contexte), un maximum de sortie élevé (jusqu’à 128K jetons) et des modes « réfléchis » spécialisés pour les pipelines agentiques.

Principales caractéristiques

  • Améliorations agentiques / usage d’outils : Modes de réflexion intégrés (« Interleaved Thinking », « Preserved Thinking », contrôle au niveau des tours) permettant au modèle de « réfléchir avant d’agir », de conserver le raisonnement d’un tour à l’autre et d’être plus stable lors des appels d’outils ou de l’exécution de tâches multi‑étapes. Cela vise des workflows d’agent robustes (terminaux, chaînes d’outils, navigation web).
  • Compétence en codage et terminal : Améliorations significatives sur les benchmarks de codage et les tâches d’automatisation de terminal — les benchmarks du fournisseur montrent des gains nets par rapport à GLM-4.6 sur les métriques SWE-bench et Terminal Bench. Cela se traduit par une meilleure génération de code multi‑tours, un enchaînement des commandes et une reprise plus fiable dans des environnements agentiques.
  • « Vibe coding » / qualité de sortie front‑end : Qualité par défaut de l’UI/de la mise en page améliorée pour le HTML, les diapositives et présentations générés (dispositions plus propres, dimensionnement, meilleurs paramètres visuels par défaut).
  • Workflows à long contexte : Fenêtre de contexte de 200K jetons et outils pour la mise en cache du contexte ; pratique pour des bases de code multi‑fichiers, des documents longs et des sessions d’agent multi‑tours.

Performances sur benchmarks

Les éditeurs/mainteneurs de GLM‑4.7 et les tableaux de benchmarks de la communauté signalent des gains substantiels par rapport à GLM‑4.6 et des résultats compétitifs face à d’autres modèles contemporains sur les tâches de codage, agentiques et d’utilisation d’outils. Quelques chiffres sélectionnés (source : tableaux officiels publiés par Hugging Face / Z.AI) :

  • LiveCodeBench-v6 (benchmark d’agent de codage) : 84.9 (SOTA open‑source cité).
  • SWE-bench Verified (codage) : 73.8% (contre 68.0% pour GLM‑4.6).
  • SWE-bench Multilingual : 66.7% (+12.9% par rapport à GLM‑4.6).
  • Terminal Bench 2.0 (actions de terminal agentiques) : 41.0% (amélioration notable de +16.5% par rapport à 4.6).
  • HLE (raisonnement complexe avec des outils) : 42.8% lorsqu’utilisé avec des outils (forte amélioration signalée par rapport aux versions précédentes).
  • τ²-Bench (invocation d’outils interactive) : 87.4 (SOTA open‑source rapporté).

Cas d’utilisation typiques et scénarios d’exemple

  • Assistants de codage agentiques : Génération de code autonome ou semi‑autonome, corrections de code multi‑tours, automatisation de terminal et scripting CI/CD.
  • Agents pilotés par des outils : Navigation web, orchestration d’API, workflows multi‑étapes (pris en charge par la réflexion préservée et l’appel de fonctions).
  • Génération front‑end et UI : Génération automatique de l’ossature de sites web, jeux de diapositives, affiches avec une esthétique et une mise en page améliorées.
  • Recherche et tâches à long contexte : Résumé de documents, synthèse de littérature et génération augmentée par la recherche sur des documents longs (la fenêtre de 200k jetons est utile ici).
  • Agents éducatifs interactifs / tuteurs de codage : Tutoriel multi‑tours avec un raisonnement préservé qui se souvient des blocs de raisonnement antérieurs au fil de la session.

Comment accéder à et utiliser l’API GLM 4.7

Étape 1 : S’inscrire pour obtenir une clé API

Connectez‑vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire. Connectez‑vous à votre console CometAPI. Obtenez la clé API d’accès à l’interface. Cliquez sur « Add Token » au niveau du jeton API dans l’espace personnel, récupérez la clé de jeton : sk-xxxxx et soumettez.

Étape 2 : Envoyer des requêtes à l’API MiniMax M2.1

Sélectionnez l’endpoint « glm-4.7 » pour envoyer la requête API et définir le corps de la requête. La méthode et le corps de la requête sont fournis dans la documentation API de notre site web. Notre site propose également un test Apifox pour votre commodité. Remplacez <YOUR_API_KEY> par la clé CometAPI réelle de votre compte. Où l’appeler : APIs de type Chat.

Insérez votre question ou requête dans le champ content — c’est à cela que le modèle répondra. Traitez la réponse de l’API pour obtenir la réponse générée.

Étape 3 : Récupérer et vérifier les résultats

Traitez la réponse de l’API pour obtenir la réponse générée. Après traitement, l’API répond avec l’état de la tâche et

Fonctionnalités pour GLM-4.7

Découvrez les fonctionnalités clés de GLM-4.7, conçues pour améliorer les performances et la facilité d'utilisation. Explorez comment ces capacités peuvent bénéficier à vos projets et améliorer l'expérience utilisateur.

Tarification pour GLM-4.7

Découvrez des tarifs compétitifs pour GLM-4.7, conçus pour s'adapter à différents budgets et besoins d'utilisation. Nos formules flexibles garantissent que vous ne payez que ce que vous utilisez, ce qui facilite l'adaptation à mesure que vos besoins évoluent. Découvrez comment GLM-4.7 peut améliorer vos projets tout en maîtrisant les coûts.
Prix de Comet (USD / M Tokens)Prix officiel (USD / M Tokens)Remise
Entrée:$0.96/M
Sortie:$3.84/M
Entrée:$1.2/M
Sortie:$4.8/M
-20%

Exemple de code et API pour GLM-4.7

Accédez à des exemples de code complets et aux ressources API pour GLM-4.7 afin de simplifier votre processus d'intégration. Notre documentation détaillée fournit des instructions étape par étape pour vous aider à exploiter tout le potentiel de GLM-4.7 dans vos projets.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Plus de modèles

A

Claude Opus 4.6

Entrée:$4/M
Sortie:$20/M
Claude Opus 4.6 est le grand modèle de langage de classe « Opus » d’Anthropic, publié en février 2026. Il est positionné comme un outil polyvalent pour le travail cognitif et les flux de travail de recherche — améliorant le raisonnement en contexte long, la planification à plusieurs étapes, l’utilisation d’outils (y compris des flux de travail logiciels basés sur des agents) et l’exécution de tâches informatiques telles que la génération automatisée de diapositives et de feuilles de calcul.
A

Claude Sonnet 4.6

Entrée:$2.4/M
Sortie:$12/M
Claude Sonnet 4.6 est notre modèle Sonnet le plus performant à ce jour. Il s’agit d’une mise à niveau complète des capacités du modèle dans la programmation, l’usage de l’ordinateur, le raisonnement sur des contextes étendus, la planification d’agents, le travail intellectuel et la conception. Sonnet 4.6 propose également une fenêtre de contexte de 1M de jetons en bêta.
O

GPT-5.4 nano

Entrée:$0.16/M
Sortie:$1/M
GPT-5.4 nano est conçu pour des tâches où la vitesse et le coût comptent le plus, comme la classification, l’extraction de données, le classement et les sous-agents.
O

GPT-5.4 mini

Entrée:$0.6/M
Sortie:$3.6/M
GPT-5.4 mini apporte les atouts de GPT-5.4 dans un modèle plus rapide et plus efficace, conçu pour des charges de travail à grande échelle.
A

Claude Mythos Preview

A

Claude Mythos Preview

Bientôt disponible
Entrée:$60/M
Sortie:$240/M
Claude Mythos Preview est à ce jour notre modèle de pointe le plus performant et affiche un bond spectaculaire des scores sur de nombreux benchmarks d’évaluation, par rapport à notre précédent modèle de pointe, Claude Opus 4.6.
X

mimo-v2-pro

Entrée:$0.8/M
Sortie:$2.4/M
MiMo-V2-Pro est le modèle fondationnel phare de Xiaomi, doté de plus de 1T de paramètres au total et d’une longueur de contexte de 1M, profondément optimisé pour des scénarios agentiques. Il est hautement adaptable aux frameworks d’agents généraux comme OpenClaw. Il se classe parmi l’élite mondiale sur les benchmarks standard PinchBench et ClawBench, avec des performances perçues proches de celles d’Opus 4.6. MiMo-V2-Pro est conçu pour servir de cerveau des systèmes d’agents, orchestrer des workflows complexes, piloter des tâches d’ingénierie de production et livrer des résultats de manière fiable.

Blogs connexes

GLM-5 vs GLM-4.7 : ce qui a changé, ce qui compte et faut-il mettre à niveau ?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7 : ce qui a changé, ce qui compte et faut-il mettre à niveau ?

GLM-5, publié le 11 février 2026 par Zhipu AI (Z.ai), représente une avancée architecturale majeure par rapport à GLM-4.7 : échelle MoE plus vaste (≈744B contre ~355B de paramètres au total), capacité de paramètres actifs plus élevée, hallucinations mesurées plus faibles, et gains nets sur les benchmarks d’agents et de codage — au prix d’une complexité d’inférence accrue et (parfois) d’une latence supérieure.
Comment utiliser GLM-4.7-Flash en local ?
Jan 21, 2026
glm-4-7
glm-4-7

Comment utiliser GLM-4.7-Flash en local ?

GLM-4.7-Flash est un membre MoE 30B A3B, léger et performant, de la famille GLM-4.7, conçu pour permettre un déploiement local et à faible coût pour la programmation, les workflows d’agents et le raisonnement général. Vous pouvez l’exécuter en local de trois manières pratiques : (1) via Ollama (environnement d’exécution local simple et géré), (2) via Hugging Face / Transformers / vLLM / SGLang (déploiement serveur axé GPU), ou (3) via GGUF + llama.cpp / llama-cpp-python (adapté au CPU et à l’edge).
GLM-4.7 publié : qu’est-ce que cela signifie pour l’intelligence artificielle ?
Dec 23, 2025
glm-4-7

GLM-4.7 publié : qu’est-ce que cela signifie pour l’intelligence artificielle ?

Le 22 décembre 2025, Zhipu AI (Z.ai) a officiellement lancé GLM-4.7, la toute dernière itération de sa famille de modèles de langage général (GLM) — attirant l’attention mondiale dans le monde des modèles d’IA open source. Ce modèle améliore non seulement les capacités en programmation et en raisonnement, mais remet également en cause la domination de modèles propriétaires tels que GPT-5.2 et Claude Sonnet 4.5 dans les principaux benchmarks.