Home/Models/Zhipu AI/GLM 5
Z

GLM 5

Ingresso:$0.672/M
Uscita:$2.688/M
GLM-5 è il modello di base open source di punta di Z.ai, progettato per la progettazione di sistemi complessi e i flussi di lavoro di agenti a lungo termine. Pensato per sviluppatori esperti, offre prestazioni di livello produttivo nei compiti di programmazione su larga scala, rivaleggiando con i principali modelli proprietari. Con pianificazione basata su agenti avanzata, ragionamento approfondito a livello di backend e autocorrezione iterativa, GLM-5 va oltre la generazione di codice, arrivando alla costruzione di sistemi completi e all'esecuzione autonoma.
Nuovo
Uso commerciale
Playground
Panoramica
Caratteristiche
Prezzi
API

Specifiche tecniche di GLM-5

VoceGLM-5 (riportato)
Famiglia del modelloGLM (Z.ai / Zhipu AI) — generazione di punta
ArchitetturaMixture-of-Experts (MoE) + attenzione sparsa (ottimizzazioni DeepSeek/DSA).
Parametri totali≈744–745B (pool MoE).
Parametri attivi / instradati (per token)~40–44B attivi (dipende da instradamento/esperti).
Token di pre-training~28.5T token (riportato).
Finestra di contesto (input)Fino a 200.000 token (modalità long-context).
Token di output massimi128.000 token (generazione massima per chiamata, riportato).
Modalità di inputSolo testo (primario); progettato per testo formattato → output (generazione di doc/xlsx tramite strumenti).

Che cos'è GLM-5

GLM-5 è il modello di base di nuova generazione di Zhipu AI che fa scalare la linea GLM con un design di instradamento MoE e ottimizzazioni di attenzione sparsa, per offrire ragionamento su contesti lunghi e flussi di lavoro agentici (pianificazione multi-step, orchestrazione di codice & sistemi). È esplicitamente posizionato come un concorrente a pesi aperti per compiti agentici e di ingegneria, con accessibilità enterprise via API e self-hosting.

🚀 Caratteristiche principali di GLM-5

1. Intelligenza agentica e ragionamento

GLM-5 è ottimizzato per flussi di lavoro in cui il modello scompone attività lunghe e complesse in passi ordinati con allucinazioni ridotte — un progresso significativo rispetto alle precedenti versioni di GLM. Primeggia in certi benchmark dei modelli a pesi aperti sulla affidabilità della conoscenza e la produttività dei compiti.

2. Supporto per contesti lunghi

Con una finestra di contesto di 200K token, GLM-5 può sostenere conversazioni molto lunghe, documenti voluminosi e catene di ragionamento estese senza perdere coerenza — una capacità sempre più critica per applicazioni professionali reali.

3. Attenzione sparsa DeepSeek

Integrando un meccanismo di attenzione sparsa, GLM-5 scala in modo efficiente l’impronta di memoria, consentendo sequenze più lunghe senza aumenti di costo lineari.

4. Integrazione di strumenti & formati di output

Il supporto nativo per output strutturati e integrazioni con strumenti esterni (JSON, chiamate API, uso dinamico di strumenti) rende GLM-5 pratico per applicazioni enterprise come fogli di calcolo, report e assistenti di codifica automatizzati.

5. Efficienza dei costi

GLM-5 è posizionato come competitivo nei costi rispetto ai modelli proprietari, con prezzi di input/output sostanzialmente inferiori rispetto alle principali offerte, rendendolo attraente per implementazioni su larga scala.

Prestazioni nei benchmark di GLM-5

Valutazioni indipendenti multiple e benchmark di settore iniziali mostrano GLM-5 con performance solide tra i modelli a pesi aperti:

  • Ha raggiunto tassi di allucinazione ai minimi storici sull’Artificial Analysis Intelligence Index — una misura di affidabilità e veridicità — superando i modelli precedenti di ampio margine.
  • Benchmark incentrati sugli agenti indicano notevoli progressi nell’esecuzione di compiti complessi rispetto a GLM-4.7 e altri modelli aperti.
  • Le metriche costo-prestazioni collocano GLM-5 nel quarto quartile per la velocità ma al livello più alto (migliore) per intelligenza e prezzo tra i modelli a pesi aperti.

Punteggi quantitativi (esempio da piattaforma di ranking):

  • Indice di Intelligenza: #1 tra i modelli a pesi aperti.
  • Efficienza di prezzo: Valutazioni elevate per bassi costi di input/output.

Come accedere e utilizzare l'API di GLM-5

Passaggio 1: Registrati per ottenere la chiave API

Accedi a cometapi.com. Se non sei ancora nostro utente, registrati prima. Entra nella tua console CometAPI. Ottieni la chiave API di accesso per l’interfaccia. Fai clic su “Add Token” nella sezione del token API nel centro personale, ottieni la chiave del token: sk-xxxxx e invia.

Passaggio 2: Invia richieste all'API glm-5

Seleziona l’endpoint “glm-5” per inviare la richiesta API e imposta il corpo della richiesta. Il metodo e il corpo della richiesta sono ottenuti dalla documentazione API sul nostro sito web. Il nostro sito offre anche test Apifox per tua comodità. Sostituisci <YOUR_API_KEY> con la tua chiave CometAPI effettiva dal tuo account. Dove chiamarlo: formato Chat.

Inserisci la tua domanda o richiesta nel campo content — è a questo che il modello risponderà. Elabora la risposta dell’API per ottenere l’output generato.

Passaggio 3: Recupera e verifica i risultati

Elabora la risposta dell’API per ottenere l’output generato. Dopo l’elaborazione, l’API risponde con lo stato dell’attività e i dati di output.

FAQ

What distinguishes GLM-5’s architecture from earlier GLM models?

GLM-5 uses a Mixture of Experts (MoE) architecture with ~745B total parameters and 8 active experts per token (~44B active), enabling efficient large-scale reasoning and agentic workflows compared to previous GLM series.

How long of a context window does GLM-5 support via its API?

GLM-5 supports a 200K token context window with up to 128K output tokens, making it suitable for extended reasoning and document tasks.

Can GLM-5 handle complex agentic and engineering tasks?

Yes — GLM-5 is explicitly optimized for long-horizon agent tasks and complex systems engineering workflows, with deep reasoning and planning capabilities beyond standard chat models.

Does GLM-5 support tool calling and structured output?

Yes — GLM-5 supports function calling, structured JSON outputs, context caching, and real-time streaming to integrate with external tools and systems.

How does GLM-5 compare to proprietary models like GPT and Claude?

GLM-5 is competitive with top proprietary models in benchmarks, performing close to Claude Opus 4.5 and offering significantly lower per-token costs and open-weight availability, though closed-source models may still lead in some fine-grained benchmarks.

Is GLM-5 open source and what license does it use?

Yes — GLM-5 is released under a permissive MIT license, enabling open-weight access and community development.

What are typical use cases where GLM-5 excels?

GLM-5 is well suited for long-sequence reasoning, agentic automation, coding assistance, creative writing at scale, and backend system design tasks that demand coherent multi-step outputs.

What are known limitations of GLM-5?

While powerful, GLM-5 is primarily text-only (no native multimodal support) and may be slower or more resource-intensive than smaller models, especially for shorter tasks.

Funzionalità per GLM 5

Esplora le caratteristiche principali di GLM 5, progettato per migliorare le prestazioni e l'usabilità. Scopri come queste funzionalità possono beneficiare i tuoi progetti e migliorare l'esperienza utente.

Prezzi per GLM 5

Esplora i prezzi competitivi per GLM 5, progettato per adattarsi a vari budget e necessità di utilizzo. I nostri piani flessibili garantiscono che paghi solo per quello che usi, rendendo facile scalare man mano che i tuoi requisiti crescono. Scopri come GLM 5 può migliorare i tuoi progetti mantenendo i costi gestibili.
Prezzo Comet (USD / M Tokens)Prezzo Ufficiale (USD / M Tokens)ModelDetail.discount
Ingresso:$0.672/M
Uscita:$2.688/M
Ingresso:$0.84/M
Uscita:$3.36/M
-20%

Codice di esempio e API per GLM 5

Accedi a codice di esempio completo e risorse API per GLM 5 per semplificare il tuo processo di integrazione. La nostra documentazione dettagliata fornisce una guida passo dopo passo, aiutandoti a sfruttare appieno il potenziale di GLM 5 nei tuoi progetti.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
    model="glm-5",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

Altri modelli