GLM-5 的技術規格
| 項目 | GLM-5(據報) |
|---|---|
| 模型家族 | GLM(Z.ai / Zhipu AI)— 旗艦代生成 |
| 架構 | 混合專家(MoE)+ 稀疏注意力(DeepSeek/DSA 最佳化)。 |
| 參數總量 | ≈744–745B(MoE 參數池)。 |
| 活躍 / 路由參數(每個 token) | ~40–44B 活躍參數(取決於路由/專家)。 |
| 預訓練 token | ~28.5T tokens(據報)。 |
| 上下文視窗(輸入) | 最多 200,000 tokens(長上下文模式)。 |
| 最大輸出 token | 128,000 tokens(據報每次呼叫的最大生成量)。 |
| 輸入模態 | 僅文字(主要);透過工具工程化支援豐富文字 → 輸出(如 doc/xlsx 生成)。 |
什麼是 GLM-5
GLM-5 是 Zhipu AI 的新一代基礎模型,透過 MoE 路由設計與稀疏注意力最佳化擴展 GLM 系列,提供長上下文推理與代理式工作流程(多步規劃、程式碼與系統協同調度)。它被明確定位為面向代理式與工程任務的 open-weights 競爭者,並可透過 API 與自託管方式供企業使用。
🚀 GLM-5 的主要特性
1. 代理式智慧與推理
GLM-5 針對工作流程進行最佳化,可將冗長、複雜的任務拆解為有序步驟,並降低幻覺現象——這相較於先前的 GLM 版本是重大提升。它在某些 open weights model benchmarks 上,於知識可靠性與任務生產力方面處於領先地位。
2. 長上下文支援
憑藉 200K token 的上下文視窗,GLM-5 能夠維持非常長的對話、大型文件與延展推理鏈的連貫性而不失一致——這對真實世界的專業應用而言,是日益關鍵的能力。
3. DeepSeek 稀疏注意力
透過整合稀疏注意力機制,GLM-5 能有效擴展其記憶體占用效率,使其在不隨序列長度線性增加成本的情況下處理更長序列。
4. 工具整合與輸出格式
原生支援結構化輸出與外部工具整合(JSON、API 呼叫、動態工具使用),使 GLM-5 能實際應用於試算表、報告與自動化程式碼助理等企業場景。
5. 成本效率
相較於專有對應產品,GLM-5 被定位為具有 成本競爭力 的模型,其輸入/輸出定價顯著低於主要方案,因此對大規模部署具有吸引力。
GLM-5 的基準測試表現
多項獨立評估與早期產業基準測試顯示,GLM-5 在 open-weight 模型中表現強勁:
- 在 Artificial Analysis Intelligence Index 上,它達成了 創紀錄的低幻覺率——這是一項衡量可靠性與真實性的指標——並且大幅超越先前模型。
- 以代理為核心的基準測試顯示,相較於 GLM-4.7 與其他開放模型,它在複雜任務執行方面有 顯著提升。
- 成本效能指標顯示,GLM-5 在速度方面位於 第 4 四分位,但在智慧與價格方面則屬於 頂尖(最佳) 的 open-weight 模型。
量化分數(排名平台示例):
- Intelligence Index: open weights models 中排名 #1。
- Pricing Efficiency: 以低輸入/輸出成本獲得高評價。
如何存取並使用 GLM-5 API
步驟 1:註冊 API Key
登入 cometapi.com。如果您尚未成為我們的使用者,請先註冊。登入您的 CometAPI console。取得介面的存取憑證 API key。在個人中心的 API token 處點擊「Add Token」,取得 token key:sk-xxxxx 並提交。
步驟 2:向 glm-5 API 發送請求
選擇「glm-5」端點來發送 API 請求,並設定請求主體。請求方法與請求主體可從我們網站的 API 文件取得。我們的網站也提供 Apifox 測試以方便您使用。將 <YOUR_API_KEY> 替換為您帳戶中的實際 CometAPI key。呼叫位置: Chat 格式。
將您的問題或請求插入 content 欄位——模型將會對此作出回應。處理 API 回應以取得生成的答案。
步驟 3:擷取並驗證結果
處理 API 回應以取得生成的答案。處理完成後,API 會回傳任務狀態與輸出資料。