/
模型支持企业博客
500+ AI 模型 API,一次搞定,就在 CometAPI
模型 API
开发者
快速入门文档API 仪表板
资源
AI 模型博客企业更新日志关于
2025 CometAPI。保留所有权利。隐私政策服务条款
Home/Models/Zhipu AI/GLM 5
Z

GLM 5

输入:$0.8/M
输出:$3.2/M
GLM-5 er flaggskip-grunnmodellen med åpen kildekode fra Z.ai, konstruert for design av komplekse systemer og langsiktige agentarbeidsflyter. Bygget for ekspertutviklere, leverer den ytelse på produksjonsnivå i storskala programmeringsoppgaver og kan måle seg med ledende modeller med lukket kildekode. Med avansert agentbasert planlegging, dypt resonnement i backend og iterativ selvkorreksjon går GLM-5 utover kodegenerering til bygging av komplette systemer og autonom utførelse.
新
商用
Playground
概览
功能亮点
定价
API

Tekniske spesifikasjoner for GLM-5

ElementGLM-5 (rapportert)
ModellfamilieGLM (Z.ai / Zhipu AI) — flaggskipgenerasjon
ArkitekturMixture-of-Experts (MoE) + sparsom oppmerksomhet (DeepSeek/DSA-optimaliseringer).
Totalt antall parametere≈744–745B (MoE-pool).
Aktive / rutede parametere (per token)~40–44B aktive (avhenger av ruting/eksperter).
Pre-trenings-tokens~28.5T tokens (rapportert).
Kontekstvindu (input)Opptil 200 000 tokens (langkontekstmodus).
Maks antall output-tokens128 000 tokens (maksimal generering per kall, rapportert).
InputmodaliteterKun tekst (primært); utviklet for rik tekst → output (doc/xlsx-generering via verktøy).

Hva er GLM-5

GLM-5 er Zhipu AIs neste generasjons grunnmodell som skalerer GLM-linjen med et MoE-rutingsdesign og optimaliseringer for sparsom oppmerksomhet for å levere langkontekst-resonnering og agentiske arbeidsflyter (flertrinns planlegging, kode- og systemorkestrering). Den er eksplisitt posisjonert som en open-weights-utfordrer for agentiske og tekniske oppgaver, med tilgjengelighet for virksomheter via API-er og selvhosting.

🚀 Hovedfunksjoner i GLM-5

1. Agentisk intelligens og resonnering

GLM-5 er optimalisert for arbeidsflyter der modellen bryter ned lange, komplekse oppgaver i ordnede trinn med redusert hallusinasjon — en stor forbedring sammenlignet med tidligere GLM-versjoner. Den leder enkelte benchmarks for open-weights-modeller innen kunnskapspålitelighet og oppgaveproduktivitet.

2. Støtte for lang kontekst

Med et kontekstvindu på 200K tokens kan GLM-5 opprettholde svært lange samtaler, store dokumenter og utvidede resonnementskjeder uten å miste sammenheng — en stadig viktigere kapasitet for profesjonelle applikasjoner i den virkelige verden.

3. DeepSeek sparsom oppmerksomhet

Ved å integrere en mekanisme for sparsom oppmerksomhet skalerer GLM-5 minnefotavtrykket effektivt, noe som muliggjør lengre sekvenser uten lineære kostnadsøkninger.

4. Verktøyintegrasjon og output-formater

Innebygd støtte for strukturerte output og integrasjoner med eksterne verktøy (JSON, API-kall, dynamisk verktøybruk) gjør GLM-5 praktisk for virksomhetsapplikasjoner som regneark, rapporter og automatiserte kodeassistenter.

5. Kostnadseffektivitet

GLM-5 er posisjonert som kostnadskonkurransedyktig sammenlignet med proprietære alternativer, med input-/output-prising betydelig lavere enn store tilbud, noe som gjør den attraktiv for utrulling i stor skala.

Benchmark-ytelse for GLM-5

Flere uavhengige evalueringer og tidlige bransjebenchmarks viser at GLM-5 presterer sterkt blant open-weight-modeller:

  • Den oppnådde rekordlave hallusinasjonsrater på Artificial Analysis Intelligence Index — et mål på pålitelighet og sannferdighet — og overgikk tidligere modeller med god margin.
  • Agent-sentriske benchmarks indikerer betydelige forbedringer i utføring av komplekse oppgaver sammenlignet med GLM-4.7 og andre åpne modeller.
  • Kostnad-til-ytelse-målinger plasserer GLM-5 i 4. kvartil for hastighet, men i toppsjiktet (best) for intelligens og pris blant open-weight-modeller.

Kvantitative poengsummer (eksempel fra rangeringsplattform):

  • Intelligence Index: #1 blant open-weights-modeller.
  • Priseffektivitet: Høye vurderinger for lave input-/output-kostnader.

Hvordan få tilgang til og bruke GLM-5 API

Trinn 1: Registrer deg for API-nøkkel

Logg inn på cometapi.com. Hvis du ennå ikke er bruker hos oss, vennligst registrer deg først. Logg inn i CometAPI-konsollen. Hent tilgangslegitimasjonen API-nøkkel for grensesnittet. Klikk på “Add Token” under API-token i det personlige senteret, hent token-nøkkelen: sk-xxxxx og send inn.

Trinn 2: Send forespørsler til glm-5 API

Velg endepunktet “glm-5” for å sende API-forespørselen og angi request body. Forespørselsmetoden og request body hentes fra API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for enkelhets skyld. Erstatt <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din. Hvor det kalles: Chat-format.

Sett inn spørsmålet eller forespørselen din i content-feltet — dette er det modellen vil svare på. Behandle API-responsen for å få det genererte svaret.

Trinn 3: Hent og verifiser resultater

Behandle API-responsen for å få det genererte svaret. Etter behandling svarer API-et med oppgavestatus og output-data.

常见问题

What distinguishes GLM-5’s architecture from earlier GLM models?

GLM-5 bruker en Mixture of Experts (MoE)-arkitektur med ~745B totale parametere og 8 aktive eksperter per token (~44B aktive), noe som muliggjør effektivt resonnement i stor skala og agentbaserte arbeidsflyter sammenlignet med tidligere GLM-serier.

How long of a context window does GLM-5 support via its API?

GLM-5 støtter et kontekstvindu på 200K token med opptil 128K utdata-tokens, noe som gjør den egnet for utvidet resonnement og dokumentoppgaver.

Can GLM-5 handle complex agentic and engineering tasks?

Ja — GLM-5 er eksplisitt optimalisert for langsiktige agent-oppgaver og komplekse arbeidsflyter innen systemingeniørarbeid, med dype resonnement- og planleggingsevner utover standard chat-modeller.

Does GLM-5 support tool calling and structured output?

Ja — GLM-5 støtter funksjonskall, strukturerte JSON-utdata, kontekstbufring og sanntidsstrømming for integrasjon med eksterne verktøy og systemer.

How does GLM-5 compare to proprietary models like GPT and Claude?

GLM-5 er konkurransedyktig med topp proprietære modeller i benchmarktester, presterer nær Claude Opus 4.5 og tilbyr betydelig lavere kostnader per token og tilgjengelighet av åpne vekter, selv om lukkede kildekodemodeller fortsatt kan lede i noen finkornede benchmarktester.

Is GLM-5 open source and what license does it use?

Ja — GLM-5 er utgitt under en liberal MIT-lisens, som muliggjør tilgang til åpne vekter og fellesskapsdrevet utvikling.

What are typical use cases where GLM-5 excels?

GLM-5 egner seg godt for langsekvensresonnement, agentbasert automatisering, kodeassistanse, kreativ skriving i stor skala og oppgaver med design av backend-systemer som krever sammenhengende flertrinnsutdata.

What are known limitations of GLM-5?

Selv om den er kraftig, er GLM-5 primært tekstbasert (ingen innebygd multimodal støtte) og kan være tregere eller mer ressurskrevende enn mindre modeller, spesielt for kortere oppgaver.

GLM 5 的功能

了解 GLM 5 的核心能力,帮助提升性能与可用性,并改善整体体验。

GLM 5 的定价

查看 GLM 5 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
输入:$0.8/M
输出:$3.2/M
输入:$1/M
输出:$4/M
-20%

GLM 5 的示例代码与 API

获取完整示例代码与 API 资源,简化 GLM 5 的集成流程,我们提供逐步指导,助你发挥模型潜能。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
    model="glm-5",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

更多模型