/
ModellenOndersteuningOndernemingBlog
500+ AI Model API, Alles In Één API. Gewoon In CometAPI
Modellen API
Ontwikkelaar
Snelle StartDocumentatieAPI Dashboard
Bronnen
AI-modellenBlogOndernemingWijzigingslogboekOver ons
2025 CometAPI. Alle rechten voorbehouden.PrivacybeleidServicevoorwaarden
Home/Models/Zhipu AI/GLM 5
Z

GLM 5

Invoer:$0.8/M
Uitvoer:$3.2/M
GLM-5 是 Z.ai 的旗艦開源基礎模型,專為複雜系統設計與長期代理工作流程而打造。面向專家級開發者,它在大規模程式設計任務上提供生產級效能,媲美領先的閉源模型。憑藉先進的代理式規劃、深度後端推理與迭代式自我修正,GLM-5 超越程式碼生成,邁向全系統建構與自主執行。
Nieuw
Commercieel gebruik
Playground
Overzicht
Functies
Prijzen
API

GLM-5 的技術規格

項目GLM-5(據報)
模型家族GLM(Z.ai / Zhipu AI)— 旗艦代生成
架構混合專家(MoE)+ 稀疏注意力(DeepSeek/DSA 最佳化)。
參數總量≈744–745B(MoE 參數池)。
活躍 / 路由參數(每個 token)~40–44B 活躍參數(取決於路由/專家)。
預訓練 token~28.5T tokens(據報)。
上下文視窗(輸入)最多 200,000 tokens(長上下文模式)。
最大輸出 token128,000 tokens(據報每次呼叫的最大生成量)。
輸入模態僅文字(主要);透過工具工程化支援豐富文字 → 輸出(如 doc/xlsx 生成)。

什麼是 GLM-5

GLM-5 是 Zhipu AI 的新一代基礎模型,透過 MoE 路由設計與稀疏注意力最佳化擴展 GLM 系列,提供長上下文推理與代理式工作流程(多步規劃、程式碼與系統協同調度)。它被明確定位為面向代理式與工程任務的 open-weights 競爭者,並可透過 API 與自託管方式供企業使用。

🚀 GLM-5 的主要特性

1. 代理式智慧與推理

GLM-5 針對工作流程進行最佳化,可將冗長、複雜的任務拆解為有序步驟,並降低幻覺現象——這相較於先前的 GLM 版本是重大提升。它在某些 open weights model benchmarks 上,於知識可靠性與任務生產力方面處於領先地位。

2. 長上下文支援

憑藉 200K token 的上下文視窗,GLM-5 能夠維持非常長的對話、大型文件與延展推理鏈的連貫性而不失一致——這對真實世界的專業應用而言,是日益關鍵的能力。

3. DeepSeek 稀疏注意力

透過整合稀疏注意力機制,GLM-5 能有效擴展其記憶體占用效率,使其在不隨序列長度線性增加成本的情況下處理更長序列。

4. 工具整合與輸出格式

原生支援結構化輸出與外部工具整合(JSON、API 呼叫、動態工具使用),使 GLM-5 能實際應用於試算表、報告與自動化程式碼助理等企業場景。

5. 成本效率

相較於專有對應產品,GLM-5 被定位為具有 成本競爭力 的模型,其輸入/輸出定價顯著低於主要方案,因此對大規模部署具有吸引力。

GLM-5 的基準測試表現

多項獨立評估與早期產業基準測試顯示,GLM-5 在 open-weight 模型中表現強勁:

  • 在 Artificial Analysis Intelligence Index 上,它達成了 創紀錄的低幻覺率——這是一項衡量可靠性與真實性的指標——並且大幅超越先前模型。
  • 以代理為核心的基準測試顯示,相較於 GLM-4.7 與其他開放模型,它在複雜任務執行方面有 顯著提升。
  • 成本效能指標顯示,GLM-5 在速度方面位於 第 4 四分位,但在智慧與價格方面則屬於 頂尖(最佳) 的 open-weight 模型。

量化分數(排名平台示例):

  • Intelligence Index: open weights models 中排名 #1。
  • Pricing Efficiency: 以低輸入/輸出成本獲得高評價。

如何存取並使用 GLM-5 API

步驟 1:註冊 API Key

登入 cometapi.com。如果您尚未成為我們的使用者,請先註冊。登入您的 CometAPI console。取得介面的存取憑證 API key。在個人中心的 API token 處點擊「Add Token」,取得 token key:sk-xxxxx 並提交。

步驟 2:向 glm-5 API 發送請求

選擇「glm-5」端點來發送 API 請求,並設定請求主體。請求方法與請求主體可從我們網站的 API 文件取得。我們的網站也提供 Apifox 測試以方便您使用。將 <YOUR_API_KEY> 替換為您帳戶中的實際 CometAPI key。呼叫位置: Chat 格式。

將您的問題或請求插入 content 欄位——模型將會對此作出回應。處理 API 回應以取得生成的答案。

步驟 3:擷取並驗證結果

處理 API 回應以取得生成的答案。處理完成後,API 會回傳任務狀態與輸出資料。

Veelgestelde vragen

What distinguishes GLM-5’s architecture from earlier GLM models?

GLM-5 採用 Mixture of Experts(MoE)架構,總參數為 ~745B,每個 Token 有 8 名活躍專家(~44B 活躍),相較於先前的 GLM 系列,可更高效地支援大規模推理與 Agent 工作流程。

How long of a context window does GLM-5 support via its API?

GLM-5 支援 200K Token 的上下文視窗,並可輸出最多 128K Token,適合長程推理與文件任務。

Can GLM-5 handle complex agentic and engineering tasks?

是的 — GLM-5 明確針對長期視野的 Agent 任務與複雜系統工程工作流程進行最佳化,具備超越標準聊天模型的深度推理與規劃能力。

Does GLM-5 support tool calling and structured output?

是的 — GLM-5 支援 函式呼叫、結構化 JSON 輸出、上下文快取與即時串流,可與外部工具與系統整合。

How does GLM-5 compare to proprietary models like GPT and Claude?

在基準測試中,GLM-5 與頂級專有模型具備競爭力,表現接近 Claude Opus 4.5,並提供顯著更低的每 Token 成本與開放權重可用性,不過在某些更細粒度的基準上,閉源模型仍可能領先。

Is GLM-5 open source and what license does it use?

是的 — GLM-5 以 寬鬆的 MIT 授權條款 發布,允許取得開放權重並促進社群開發。

What are typical use cases where GLM-5 excels?

GLM-5 非常適合 長序列推理、Agent 自動化、程式碼協助、大規模創意寫作,以及後端系統設計任務,這些任務需要連貫的多步驟輸出。

What are known limitations of GLM-5?

儘管功能強大,GLM-5 主要為純文字(無原生多模態支援),且相較於較小的模型可能更慢或資源需求更高,特別是在較短的任務上。

Functies voor GLM 5

<think> 用户要求我将英文文本翻译成荷兰语(Nederlands)。我需要注意: 1. 保持格式和特殊字符(如{} 变量占位符) 2. 技术术语保持准确性 3. 保持语气和风格 4. UI文本要简洁明了 5. 只返回翻译文本,不要添加解释 6. 不要添加任何前缀或说明 原文是: "Explore the key features of GLM 5, designed to enhance performance and usability. Discover how these capabilities can benefit your projects and improve user experience." 这看起来是产品或技术介绍的文本,需要翻译成荷兰语。我需要保持GLM 5这个占位符不变。 让我翻译: - Explore = Ontdek/Verken - key features = belangrijkste functies/eigenschappen - designed to enhance = ontworpen om te verbeteren - performance = prestaties - usability = bruikbaarheid - Discover = Ontdek - capabilities = mogelijkheden - benefit = ten goede komen/voordeel opleveren - projects = projecten - improve = verbeteren - user experience = gebruikerservaring 翻译: Ontdek de belangrijkste functies van GLM 5, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring kunnen verbeteren. 不过"Ontdek"出现了两次,可能需要调整一下: Verken de belangrijkste functies van GLM 5, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring kunnen verbeteren. I'll explore how these capabilities can positively impact your projects and optimize the user experience. </think> Verken de belangrijkste functies van GLM 5, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring verbeteren.

Prijzen voor GLM 5

Ontdek concurrerende prijzen voor GLM 5, ontworpen om te passen bij verschillende budgetten en gebruiksbehoeften. Onze flexibele abonnementen zorgen ervoor dat u alleen betaalt voor wat u gebruikt, waardoor het gemakkelijk is om op te schalen naarmate uw vereisten groeien. Ontdek hoe GLM 5 uw projecten kan verbeteren terwijl de kosten beheersbaar blijven.
Comet Prijs (USD / M Tokens)Officiële Prijs (USD / M Tokens)Korting
Invoer:$0.8/M
Uitvoer:$3.2/M
Invoer:$1/M
Uitvoer:$4/M
-20%

Voorbeeldcode en API voor GLM 5

Krijg toegang tot uitgebreide voorbeeldcode en API-bronnen voor GLM 5 om uw integratieproces te stroomlijnen. Onze gedetailleerde documentatie biedt stapsgewijze begeleiding en helpt u het volledige potentieel van GLM 5 in uw projecten te benutten.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
    model="glm-5",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

Meer modellen