/
ModelsSupportEnterpriseBlog
500+ AI Model API, All In One API.Just In CometAPI
Models API
Developer
Quick StartDocumentationAPI Dashboard
Resources
AI ModelsBlogEnterpriseChangelogAbout
2025 CometAPI. All right reserved.Privacy PolicyTerms of Service
Home/Models/Zhipu AI/GLM 5
Z

GLM 5

Input:$0.8/M
Output:$3.2/M
Want this tightened or tailored for a landing page/README/press? I can adapt it. Here are sharper versions plus what info to add for credibility. Options - One‑liner: GLM‑5 is Z.ai’s open-source foundation model for end‑to‑end systems design and long‑horizon agent workflows—built for experts, production‑ready, and competitive with top closed models on large‑scale coding tasks. - 3 value bullets: - Agentic planning + iterative self‑correction for multi‑step, repo‑wide changes - Strong backend reasoning and tool use; ships for production workloads - Open weights, competitive benchmarks vs. closed leaders on code+agent tasks - 3‑sentence blurb: GLM‑5 is Z.ai’s flagship open‑source model for complex systems design and long‑horizon agent workflows. Built for expert developers, it pairs advanced planning with deep backend reasoning and iterative self‑correction, enabling full‑system construction—not just code snippets. In benchmarks and real deployments, it delivers production‑grade performance on large programming tasks, rivaling leading closed models. Make it concrete (replace placeholders and I’ll plug them in) - Model sizes/context: {N}B params, {K} tokens context, {toolformer/routers?} - Inference: {tok/s} on A100/H100, {batch size}, {throughput/latency P50/P95} - Benchmarks: SWE‑bench verified {X}%, HumanEval+ {Y}%, MBPP {Z}%, AgentBench {A}%, Repo‑level tasks {B}% (with eval setup) - Production: pass@k for PR generation, test coverage deltas, rollback rate, success on multi‑repo tasks - Ecosystem: supports {tools} (Git, shell, HTTP, DB, code indexers), {frameworks} (LangChain, LlamaIndex), license {Apache‑2.0/MIT}, safety/guardrails Copy tweaks to consider - Replace “autonomous execution” with “safe autonomous execution with guardrails (approval gates, sandboxes, timeouts)” - Avoid vague “rivaling” without numbers; pair every claim with a metric and hardware spec - Add one concrete example: “Upgraded a 120‑service monorepo from Django 3.2→4.2 in 3.1 hours wall‑clock with 92% tests passing on first run” Tell me the target (website hero, README, press note, tweet/thread), and any real metrics you can share—I’ll produce the final copy.
New
Commercial Use
Playground
Overview
Features
Pricing
API

Especificações técnicas do GLM-5

ItemGLM-5 (informado)
Model familyGLM (Z.ai / Zhipu AI) — geração carro-chefe
ArchitectureMistura de Especialistas (MoE) + atenção esparsa (otimizações DeepSeek/DSA).
Total parameters≈744–745B (pool MoE).
Active / routed params (per token)~40–44B ativos (depende do roteamento/especialistas).
Pre-training tokens~28.5T tokens (reportado).
Context window (input)Até 200,000 tokens (modo de contexto longo).
Max output tokens128,000 tokens (máxima geração por chamada reportada).
Input modalitiesSomente texto (primário); projetado para texto rico → saídas (geração de doc/xlsx via ferramentas).

O que é o GLM-5

O GLM-5 é o modelo de base de próxima geração da Zhipu AI que amplia a linha GLM com um design de roteamento MoE e otimizações de atenção esparsa para oferecer raciocínio de longo contexto e fluxos de trabalho orientados a agentes (planejamento em múltiplas etapas, orquestração de código e sistemas). Ele é explicitamente posicionado como um concorrente de pesos abertos para tarefas orientadas a agentes e de engenharia, com acessibilidade empresarial via APIs e auto-hospedagem.

🚀 Principais recursos do GLM-5

1. Inteligência orientada a agentes e raciocínio

O GLM-5 é otimizado para fluxos de trabalho nos quais o modelo decompõe tarefas longas e complexas em etapas ordenadas, com alucinação reduzida — um grande avanço em relação às versões anteriores do GLM. Ele lidera determinados benchmarks de modelos de pesos abertos em confiabilidade do conhecimento e produtividade de tarefas.

2. Suporte a contexto longo

Com uma janela de contexto de 200K tokens, o GLM-5 pode sustentar conversas muito longas, documentos extensos e cadeias de raciocínio prolongadas sem perder a coerência — uma capacidade cada vez mais crítica para aplicações profissionais do mundo real.

3. Atenção esparsa DeepSeek

Ao integrar um mecanismo de atenção esparsa, o GLM-5 dimensiona eficientemente sua pegada de memória, permitindo sequências mais longas sem aumentos lineares de custo.

4. Integração com ferramentas e formatos de saída

O suporte nativo a saídas estruturadas e integrações com ferramentas externas (JSON, chamadas de API, uso dinâmico de ferramentas) torna o GLM-5 prático para aplicações empresariais como planilhas, relatórios e assistentes de codificação automatizados.

5. Eficiência de custo

O GLM-5 é posicionado como competitivo em custo em relação aos equivalentes proprietários, com preços de entrada/saída substancialmente inferiores às principais ofertas, tornando-o atraente para implantações em larga escala.

Desempenho em benchmarks do GLM-5

Várias avaliações independentes e benchmarks iniciais do setor mostram o GLM-5 com desempenho sólido entre os modelos de pesos abertos:

  • Alcançou taxas de alucinação recorde-baixas no Artificial Analysis Intelligence Index — uma medida de confiabilidade e veracidade — superando modelos anteriores por ampla margem.
  • Benchmarks centrados em agentes indicam ganhos substanciais na execução de tarefas complexas em comparação com o GLM-4.7 e outros modelos abertos.
  • Métricas de custo versus desempenho posicionam o GLM-5 no 4º quartil em velocidade, mas no nível superior (melhor) em inteligência e preço entre os modelos de pesos abertos.

Pontuações quantitativas (Exemplo de uma plataforma de ranking):

  • Índice de Inteligência: #1 entre os modelos de pesos abertos.
  • Eficiência de Preço: Altas avaliações para baixos custos de entrada/saída.

Como acessar e usar a API do GLM-5

Etapa 1: Cadastre-se para obter a chave de API

Faça login em cometapi.com. Se você ainda não é nosso usuário, registre-se primeiro. Acesse seu console CometAPI. Obtenha a chave de API de credenciais de acesso da interface. Clique em “Add Token” no token de API no centro pessoal, obtenha a chave do token: sk-xxxxx e envie.

Etapa 2: Envie solicitações para a API glm-5

Selecione o endpoint “glm-5” para enviar a solicitação de API e definir o corpo da solicitação. O método de solicitação e o corpo da solicitação são obtidos na documentação de API do nosso site. Nosso site também fornece teste no Apifox para sua conveniência. Substitua <YOUR_API_KEY> pela sua chave CometAPI real da sua conta. Onde chamá-lo: formato Chat.

Insira sua pergunta ou solicitação no campo content — é a isso que o modelo responderá. Processe a resposta da API para obter a resposta gerada.

Etapa 3: Recuperar e verificar os resultados

Processe a resposta da API para obter a resposta gerada. Após o processamento, a API responde com o status da tarefa e os dados de saída.

FAQ

What distinguishes GLM-5’s architecture from earlier GLM models?

O GLM-5 usa uma arquitetura Mixture of Experts (MoE) com ~745B parâmetros totais e 8 especialistas ativos por token (~44B ativos), permitindo raciocínio eficiente em larga escala e fluxos de trabalho agênticos em comparação com as séries anteriores do GLM.

How long of a context window does GLM-5 support via its API?

O GLM-5 oferece suporte a uma janela de contexto de 200K tokens com até 128K tokens de saída, tornando-o adequado para raciocínio estendido e tarefas com documentos.

Can GLM-5 handle complex agentic and engineering tasks?

Sim — o GLM-5 é explicitamente otimizado para tarefas agênticas de longo horizonte e fluxos de trabalho complexos de engenharia de sistemas, com capacidades profundas de raciocínio e planejamento além dos modelos de chat padrão.

Does GLM-5 support tool calling and structured output?

Sim — o GLM-5 oferece suporte a function calling, saídas JSON estruturadas, cache de contexto e streaming em tempo real para integração com ferramentas e sistemas externos.

How does GLM-5 compare to proprietary models like GPT and Claude?

O GLM-5 é competitivo com os principais modelos proprietários em benchmarks, com desempenho próximo ao Claude Opus 4.5 e oferecendo custos por token significativamente menores e disponibilidade de pesos abertos, embora modelos de código fechado ainda possam liderar em alguns benchmarks mais detalhados.

Is GLM-5 open source and what license does it use?

Sim — o GLM-5 é lançado sob uma licença MIT permissiva, permitindo acesso de pesos abertos e desenvolvimento pela comunidade.

What are typical use cases where GLM-5 excels?

O GLM-5 é muito adequado para raciocínio com sequências longas, automação agêntica, assistência de programação, escrita criativa em escala e tarefas de design de sistemas backend que exigem saídas coerentes em várias etapas.

What are known limitations of GLM-5?

Embora poderoso, o GLM-5 é principalmente apenas de texto (sem suporte multimodal nativo) e pode ser mais lento ou exigir mais recursos do que modelos menores, especialmente para tarefas mais curtas.

Features for GLM 5

Explore the key features of GLM 5, designed to enhance performance and usability. Discover how these capabilities can benefit your projects and improve user experience.

Pricing for GLM 5

Explore competitive pricing for GLM 5, designed to fit various budgets and usage needs. Our flexible plans ensure you only pay for what you use, making it easy to scale as your requirements grow. Discover how GLM 5 can enhance your projects while keeping costs manageable.
Comet Price (USD / M Tokens)Official Price (USD / M Tokens)Discount
Input:$0.8/M
Output:$3.2/M
Input:$1/M
Output:$4/M
-20%

Sample code and API for GLM 5

Access comprehensive sample code and API resources for GLM 5 to streamline your integration process. Our detailed documentation provides step-by-step guidance, helping you leverage the full potential of GLM 5 in your projects.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
    model="glm-5",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

More Models