什么是 GLM-4.7
GLM-4.7 是 Z.ai / Zhipu AI 最新发布的旗舰开放基础大语言模型(模型名为 glm-4.7)。其定位为面向开发者的“思考”模型,针对编码/Agent 化任务执行、多步推理、工具调用与长上下文工作流进行了重点增强。本次发布强调大上下文处理能力(最高 200K 上下文)、高最大输出(最高 128K tokens),以及面向 Agent 流水线的专用“思考”模式。
主要特性
- Agent/工具使用改进: 内置思考模式(“Interleaved Thinking”、“Preserved Thinking”、回合级控制),让模型在行动前“先思考”、在多轮中保留推理,并在调用工具或执行多步任务时更稳定。面向稳健的 Agent 工作流(终端、工具链、网页浏览)。
- 编码与终端能力: 在编码基准与终端自动化任务上有显著提升——官方基准显示相较 GLM-4.6 在 SWE-bench 和 Terminal Bench 指标上有清晰增益。这转化为在 Agent 环境中的多轮代码生成、命令编排与恢复能力更强。
- “Vibe coding”/前端输出质量: 生成的 HTML、幻灯片与演示文稿在默认 UI/布局质量方面提升(布局更清晰、尺寸更合理、默认视觉更佳)。
- 长上下文工作流: 200K 上下文窗口与上下文缓存工具;适用于多文件代码库、长文档与多轮 Agent 会话。
基准表现
GLM-4.7 的发布方/维护者与社区基准表显示,相较 GLM-4.6 有大幅提升,并在编码、Agent 与工具使用任务上具备与同期模型竞争的表现。部分数据(来源:Hugging Face / Z.AI 官方发布表):
- LiveCodeBench-v6(编码 Agent 基准): 84.9(声称开源 SOTA)。
- SWE-bench Verified(编码): 73.8%(较 GLM-4.6 的 68.0% 提升)。
- SWE-bench Multilingual: 66.7%(较 GLM-4.6 提升 +12.9%)。
- Terminal Bench 2.0(Agent 终端动作): 41.0%(较 4.6 显著 +16.5%)。
- HLE(工具辅助的复杂推理): 使用工具时 42.8%(报告称较前版本有大幅提升)。
- τ²-Bench(交互式工具调用): 87.4(报告为开源 SOTA)。
典型用例与示例场景
- Agent 式编码助手: 自主或半自主代码生成、多轮代码修复、终端自动化与 CI/CD 脚本。
- 工具驱动的 Agent: 网页浏览、API 编排、多步工作流(由保留思考与函数调用支持)。
- 前端与 UI 生成: 自动网站脚手架、幻灯片、海报,具有更佳美学与布局。
- 研究与长上下文任务: 文档摘要、文献综合、长文档场景下的检索增强生成(200k 上下文窗口尤为有用)。
- 交互式教育 Agent/编码导师: 多轮辅导,在会话中保留先前的推理块。
如何访问与使用 GLM 4.7 API
第一步:注册获取 API Key
登录 cometapi.com。如您尚未成为我们的用户,请先注册。登录您的 CometAPI console。获取接口访问凭证 API key。在个人中心的 API token 处点击 “Add Token”,获取令牌密钥:sk-xxxxx 并提交。
第二步:向 MiniMax M2.1 API 发送请求
选择 “glm-4.7” 端点发送 API 请求并设置请求体。请求方法与请求体可在我们网站的 API 文档获取。我们的网站也提供 Apifox 测试以便使用。将 <YOUR_API_KEY> 替换为您账号中的实际 CometAPI 密钥。调用位置: Chat-style APIs。
将您的问题或请求插入 content 字段——模型将对其进行响应。处理 API 响应以获取生成的答案。
第三步:检索与验证结果
处理 API 响应以获取生成的答案。处理完成后,API 会返回任务状态和


