模型支持企业博客
500+ AI 模型 API,一次搞定,就在 CometAPI
模型 API
开发者
快速入门文档API 仪表板
资源
AI 模型博客企业更新日志关于
2025 CometAPI。保留所有权利。隐私政策服务条款
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

输入:$0.96/M
输出:$3.84/M
上下文:200K
最大输出:128K
GLM-4.7 is Z.AI’s latest flagship model, featuring upgrades in two key areas: enhanced programming capabilities and more stable multi-step reasoning/execution. It demonstrates significant improvements in executing complex agent tasks while delivering more natural conversational experiences and superior front-end aesthetics.
新
商用
Playground
概览
功能亮点
定价
API

什么是 GLM-4.7

GLM-4.7 是 Z.ai / Zhipu AI 最新发布的旗舰开放基础大语言模型(模型名为 glm-4.7)。其定位为面向开发者的“思考”模型,针对编码/Agent 化任务执行、多步推理、工具调用与长上下文工作流进行了重点增强。本次发布强调大上下文处理能力(最高 200K 上下文)、高最大输出(最高 128K tokens),以及面向 Agent 流水线的专用“思考”模式。

主要特性

  • Agent/工具使用改进: 内置思考模式(“Interleaved Thinking”、“Preserved Thinking”、回合级控制),让模型在行动前“先思考”、在多轮中保留推理,并在调用工具或执行多步任务时更稳定。面向稳健的 Agent 工作流(终端、工具链、网页浏览)。
  • 编码与终端能力: 在编码基准与终端自动化任务上有显著提升——官方基准显示相较 GLM-4.6 在 SWE-bench 和 Terminal Bench 指标上有清晰增益。这转化为在 Agent 环境中的多轮代码生成、命令编排与恢复能力更强。
  • “Vibe coding”/前端输出质量: 生成的 HTML、幻灯片与演示文稿在默认 UI/布局质量方面提升(布局更清晰、尺寸更合理、默认视觉更佳)。
  • 长上下文工作流: 200K 上下文窗口与上下文缓存工具;适用于多文件代码库、长文档与多轮 Agent 会话。

基准表现

GLM-4.7 的发布方/维护者与社区基准表显示,相较 GLM-4.6 有大幅提升,并在编码、Agent 与工具使用任务上具备与同期模型竞争的表现。部分数据(来源:Hugging Face / Z.AI 官方发布表):

  • LiveCodeBench-v6(编码 Agent 基准): 84.9(声称开源 SOTA)。
  • SWE-bench Verified(编码): 73.8%(较 GLM-4.6 的 68.0% 提升)。
  • SWE-bench Multilingual: 66.7%(较 GLM-4.6 提升 +12.9%)。
  • Terminal Bench 2.0(Agent 终端动作): 41.0%(较 4.6 显著 +16.5%)。
  • HLE(工具辅助的复杂推理): 使用工具时 42.8%(报告称较前版本有大幅提升)。
  • τ²-Bench(交互式工具调用): 87.4(报告为开源 SOTA)。

典型用例与示例场景

  • Agent 式编码助手: 自主或半自主代码生成、多轮代码修复、终端自动化与 CI/CD 脚本。
  • 工具驱动的 Agent: 网页浏览、API 编排、多步工作流(由保留思考与函数调用支持)。
  • 前端与 UI 生成: 自动网站脚手架、幻灯片、海报,具有更佳美学与布局。
  • 研究与长上下文任务: 文档摘要、文献综合、长文档场景下的检索增强生成(200k 上下文窗口尤为有用)。
  • 交互式教育 Agent/编码导师: 多轮辅导,在会话中保留先前的推理块。

如何访问与使用 GLM 4.7 API

第一步:注册获取 API Key

登录 cometapi.com。如您尚未成为我们的用户,请先注册。登录您的 CometAPI console。获取接口访问凭证 API key。在个人中心的 API token 处点击 “Add Token”,获取令牌密钥:sk-xxxxx 并提交。

第二步:向 MiniMax M2.1 API 发送请求

选择 “glm-4.7” 端点发送 API 请求并设置请求体。请求方法与请求体可在我们网站的 API 文档获取。我们的网站也提供 Apifox 测试以便使用。将 <YOUR_API_KEY> 替换为您账号中的实际 CometAPI 密钥。调用位置: Chat-style APIs。

将您的问题或请求插入 content 字段——模型将对其进行响应。处理 API 响应以获取生成的答案。

第三步:检索与验证结果

处理 API 响应以获取生成的答案。处理完成后,API 会返回任务状态和

GLM-4.7 的功能

了解 GLM-4.7 的核心能力,帮助提升性能与可用性,并改善整体体验。

GLM-4.7 的定价

查看 GLM-4.7 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
输入:$0.96/M
输出:$3.84/M
输入:$1.2/M
输出:$4.8/M
-20%

GLM-4.7 的示例代码与 API

获取完整示例代码与 API 资源,简化 GLM-4.7 的集成流程,我们提供逐步指导,助你发挥模型潜能。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

更多模型

A

Claude Opus 4.6

输入:$4/M
输出:$20/M
Claude Opus 4.6 是 Anthropic 的“Opus”级大型语言模型,于 2026 年 2 月发布。其定位为知识工作与研究工作流的主力模型——提升长上下文推理、多步骤规划、工具使用(包括代理型软件工作流),以及计算机使用类任务,如自动生成幻灯片和电子表格。
A

Claude Sonnet 4.6

输入:$2.4/M
输出:$12/M
Claude Sonnet 4.6 是迄今为止我们最强大的 Sonnet 模型。它对模型在编码、计算机使用、长上下文推理、智能体规划、知识工作和设计等方面的能力进行了全面升级。Sonnet 4.6 还在 beta 阶段提供 1M token 上下文窗口。
O

GPT-5.4 nano

输入:$0.16/M
输出:$1/M
GPT-5.4 nano 专为速度和成本最为关键的任务而设计,例如分类、数据提取、排序以及子智能体。
O

GPT-5.4 mini

输入:$0.6/M
输出:$3.6/M
GPT-5.4 mini 将 GPT-5.4 的优势融入到一款更快速、更高效、专为大规模工作负载设计的模型中。
A

Claude Mythos Preview

A

Claude Mythos Preview

即将推出
输入:$60/M
输出:$240/M
Claude Mythos Preview 是我们迄今为止最强大的前沿模型,并显示出 在许多评测基准上的得分相较于我们此前的前沿模型 Claude Opus 4.6 有显著跃升。
X

mimo-v2-pro

输入:$0.8/M
输出:$2.4/M
MiMo-V2-Pro 是 Xiaomi 的旗舰基础模型,拥有超过 1T 的总参数量和 1M 的上下文长度,并针对智能体场景进行了深度优化。它对 OpenClaw 等通用智能体框架具有很强的适配性。在标准 PinchBench 和 ClawBench 基准测试中,它跻身全球第一梯队,感知性能接近 Opus 4.6。MiMo-V2-Pro 旨在作为智能体系统的大脑,协调复杂工作流,推动生产工程任务,并可靠地交付结果。

相关博客

GLM-5 与 GLM-4.7:有哪些变化、哪些值得关注、是否应该升级?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 与 GLM-4.7:有哪些变化、哪些值得关注、是否应该升级?

由 Zhipu AI(Z.ai)于 2026年2月11日发布的 GLM-5,相较于 GLM-4.7,在架构上实现了重大跃迁:更大的 MoE 规模(≈744B vs ~355B 总参数)、更高的活跃参数容量、更低的测得幻觉率,并在智能体与编码基准上取得明显提升——代价是推理复杂性以及(有时)延迟的增加。
如何在本地使用 GLM-4.7-Flash?
Jan 21, 2026
glm-4-7
glm-4-7

如何在本地使用 GLM-4.7-Flash?

GLM-4.7-Flash 是 GLM-4.7 家族中一款轻量、高性能的 30B A3B MoE 成员,旨在为编程、智能体工作流和通用推理实现本地、低成本部署。你可以通过三种实用方式在本地运行它:(1) 通过 Ollama(简单、托管的本地运行时),(2) 通过 Hugging Face / Transformers / vLLM / SGLang(GPU 优先的服务器部署),或 (3) 通过 GGUF + llama.cpp / llama-cpp-python(对 CPU/边缘场景友好)。
GLM-4.7 发布:这对人工智能意味着什么?
Dec 23, 2025
glm-4-7

GLM-4.7 发布:这对人工智能意味着什么?

2025年12月22日,Zhipu AI (Z.ai) 正式发布 GLM-4.7,这是其 General Language Model(GLM)家族的最新迭代——在开源AI模型领域引发全球关注。该模型不仅在编程与推理任务方面的能力有所提升,还在关键基准测试中对 GPT-5.2 和 Claude Sonnet 4.5 等专有模型的主导地位发起挑战。