Explorez le Playground de GLM-4.7 — un environnement interactif pour tester les modèles et exécuter des requêtes en temps réel. Essayez des invites, ajustez les paramètres et itérez instantanément pour accélérer le développement et valider les cas d'utilisation.
GLM-4.7 est le dernier modèle de langage de fondation ouverte phare de Z.ai / Zhipu AI (nom du modèle glm-4.7). Il est positionné comme un modèle de « réflexion » orienté développeurs, avec des améliorations notables en exécution de tâches de codage/agentiques, raisonnement multi-étapes, invocation d’outils et flux de travail à long contexte. Cette version met l’accent sur la gestion de grands contextes (jusqu’à 200K de contexte), une sortie maximale élevée (jusqu’à 128K tokens) et des modes de « réflexion » spécialisés pour des pipelines agentiques.
Les éditeurs/mainteneurs de GLM-4.7 et les tableaux de benchmarks de la communauté rapportent des gains substantiels vs GLM-4.6 et des résultats compétitifs face à d’autres modèles contemporains sur des tâches de codage, agentiques et d’utilisation d’outils. Chiffres sélectionnés (source : tableaux officiels publiés sur Hugging Face / Z.AI) :
Connectez-vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire. Connectez-vous à votre console CometAPI. Récupérez la clé API d’accès de l’interface. Cliquez sur « Add Token » dans la section API token du centre personnel, obtenez la clé de jeton : sk-xxxxx et soumettez.
Sélectionnez l’endpoint « glm-4.7 » pour envoyer la requête API et définir le corps de la requête. La méthode et le corps de la requête sont fournis dans la documentation API de notre site. Notre site propose également des tests Apifox pour votre commodité. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle depuis votre compte. Où l’appeler : API de style Chat.
Insérez votre question ou votre requête dans le champ content — c’est à cela que le modèle répondra. Traitez la réponse de l’API pour obtenir la réponse générée.
Traitez la réponse de l’API pour obtenir la réponse générée. Après traitement, l’API renvoie l’état de la tâche et
| Prix de Comet (USD / M Tokens) | Prix officiel (USD / M Tokens) |
|---|---|
Entrée:$0.44/M Sortie:$1.78/M | Entrée:$0.56/M Sortie:$2.22/M |
from openai import OpenAI
import os
# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"
client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
model="glm-4.7",
messages=[
{"role": "user", "content": "Hello! Tell me a short joke."}
]
)
print(completion.choices[0].message.content)