什麼是 GLM-4.7
GLM-4.7 是 Z.ai / Zhipu AI 最新的開放基礎旗艦大型語言模型(模型名稱 glm-4.7)。其定位為面向開發者的「思考」模型,在程式/代理式任務執行、多步推理、工具呼叫與長上下文工作流程方面有顯著提升。本次發佈強調大型上下文處理能力(最多 200K 上下文)、高最大輸出(最多 128K tokens),以及用於代理式流程的專用「思考」模式。
主要特性
- 代理式/工具使用改進: 內建思考模式(“Interleaved Thinking”、“Preserved Thinking”、回合級控制),可先思考再行動、在多輪互動間保留推理,並在呼叫工具或執行多步任務時更穩定,面向終端機、工具鏈、網頁瀏覽等穩健的代理式工作流程。
- 程式與終端機能力: 在程式基準與終端機自動化任務上有明顯進步——廠商基準顯示相較 GLM-4.6 在 SWE-bench 與 Terminal Bench 指標上有明確提升,轉化為更佳的多輪程式生成、指令序列與恢復能力,適用於代理環境。
- 「Vibe coding」/前端輸出品質: 生成的 HTML、投影片與簡報在預設 UI/版面上更佳(更乾淨的版面、尺寸設定與更好的視覺預設)。
- 長上下文工作流程: 200K token 上下文視窗與上下文快取工具,實用於多檔案程式碼庫、長文檔與多回合代理會話。
基準測試表現
GLM-4.7 的發佈方/維護者與社群基準表顯示,相較 GLM-4.6 有大幅提升,並在程式、代理與工具使用任務上具競爭力。部分數據(來源:官方 Hugging Face/Z.AI 公佈表格):
- LiveCodeBench-v6(程式代理基準): 84.9(據稱為開源 SOTA)。
- SWE-bench Verified(程式): 73.8%(高於 GLM-4.6 的 68.0%)。
- SWE-bench Multilingual: 66.7%(較 GLM-4.6 提升 +12.9%)。
- Terminal Bench 2.0(代理式終端操作): 41.0%(相較 4.6 顯著 +16.5%)。
- HLE(結合工具的複雜推理): 42.8%(搭配工具使用時;相較前代有大幅提升)。
- τ²-Bench(互動式工具呼叫): 87.4(據報為開源 SOTA)。
典型使用場景與示例
- 代理式程式助理: 自主或半自主的程式生成、多輪修復、終端機自動化與 CI/CD 腳本。
- 工具驅動的代理: 網頁瀏覽、API 編排、多步流程(支援保留思考與函式呼叫)。
- 前端與 UI 生成: 自動網站腳手架、投影片、海報,具更佳美感與版面。
- 研究與長上下文任務: 文檔摘要、文獻綜合,以及跨長文檔的檢索增強生成(200k 視窗在此特別有用)。
- 互動式教學代理/程式導師: 多輪教學,能在會話中保留並記住先前的推理片段。
如何存取與使用 GLM 4.7 API
步驟 1:註冊取得 API 金鑰
登入 cometapi.com。若您尚未成為使用者,請先註冊。登入您的 CometAPI console。取得介面的存取憑證 API 金鑰。在個人中心的 API token 處按一下「Add Token」,取得 token 金鑰:sk-xxxxx 並提交。
步驟 2:向 MiniMax M2.1 API 發送請求
選擇「glm-4.7」端點發送 API 請求並設定請求體。請求方法與請求體可從我們網站的 API 文件取得。我們的網站也提供 Apifox 測試以便您使用。將 <YOUR_API_KEY> 替換為您帳戶中的實際 CometAPI 金鑰。呼叫位置: Chat-style APIs。
將您的問題或請求插入 content 欄位——模型將回應該內容。處理 API 回應以取得生成的答案。
步驟 3:擷取並驗證結果
處理 API 回應以取得生成的答案。處理後,API 會回傳任務狀態與