ModelosSuporteEmpresarialBlog
500+ APIs de Modelos de IA, Tudo em Uma API. Apenas na CometAPI
API de Modelos
Desenvolvedor
Início RápidoDocumentaçãoPainel de API
Recursos
Modelos de IABlogEmpresarialRegistro de AlteraçõesSobre
2025 CometAPI. Todos os direitos reservados.Política de PrivacidadeTermos de Serviço
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Entrada:$0.96/M
Saída:$3.84/M
Contexto:200K
Saída Máxima:128K
GLM-4.7 é o modelo principal mais recente da Z.AI, com aprimoramentos em duas áreas-chave: capacidades de programação aprimoradas e raciocínio e execução em múltiplas etapas mais estáveis. Ele demonstra melhorias significativas na execução de tarefas complexas de agentes, enquanto oferece experiências conversacionais mais naturais e uma estética de front-end superior.
Novo
Uso comercial
Playground
Visão Geral
Recursos
Preços
API

O que é o GLM-4.7

GLM-4.7 é o mais recente modelo de linguagem grande de base aberta carro-chefe da Z.ai / Zhipu AI (nome do modelo glm-4.7). Ele é posicionado como um modelo “pensante” voltado a desenvolvedores, com melhorias específicas em execução de tarefas de codificação/orientadas a agentes, raciocínio em múltiplas etapas, invocação de ferramentas e fluxos de trabalho de contexto longo. O lançamento enfatiza o tratamento de contextos grandes (até 200K), alta saída máxima (até 128K tokens) e modos “pensantes” especializados para pipelines orientados a agentes.

Principais recursos

  • Melhorias em agentes/uso de ferramentas: Modos de pensamento integrados (“Interleaved Thinking”, “Preserved Thinking”, controle em nível de turno) para permitir que o modelo “pense antes de agir”, preserve o raciocínio entre turnos e seja mais estável ao chamar ferramentas ou executar tarefas de múltiplas etapas. Isso é voltado a fluxos de trabalho de agentes robustos (terminais, cadeias de ferramentas, navegação na web).
  • Competência em codificação e terminal: Melhorias significativas em benchmarks de codificação e tarefas de automação de terminal — benchmarks do fornecedor mostram ganhos claros em relação ao GLM-4.6 nas métricas do SWE-bench e do Terminal Bench. Isso se traduz em melhor geração de código de múltiplos turnos, sequenciamento de comandos e recuperação em ambientes de agentes.
  • “Vibe coding” / qualidade de saída de frontend: Qualidade padrão de UI/layout aprimorada para HTML, slides e apresentações gerados (layouts mais limpos, dimensionamento, melhores padrões visuais).
  • Fluxos de trabalho de contexto longo: janela de contexto de 200K tokens e ferramentas para cache de contexto; prático para bases de código com múltiplos arquivos, documentos longos e sessões de agentes em múltiplas rodadas.

Desempenho em benchmarks

As tabelas de benchmarks de publicadores/mantenedores do GLM-4.7 e da comunidade relatam ganhos substanciais em relação ao GLM-4.6 e resultados competitivos frente a outros modelos contemporâneos em tarefas de codificação, agentes e uso de ferramentas. Números selecionados (fonte: tabelas oficiais publicadas no Hugging Face / Z.AI):

  • LiveCodeBench-v6 (benchmark de agente de codificação): 84.9 (SOTA de código aberto citado).
  • SWE-bench Verified (codificação): 73.8% (de 68.0% no GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% vs GLM-4.6).
  • Terminal Bench 2.0 (ações de terminal orientadas a agentes): 41.0% (melhoria notável de +16.5% em relação ao 4.6).
  • HLE (raciocínio complexo com ferramentas): 42.8% quando usado com ferramentas (grande melhoria relatada em relação às versões anteriores).
  • τ²-Bench (invocação interativa de ferramentas): 87.4 (SOTA de código aberto reportado).

Casos de uso típicos e cenários de exemplo

  • Assistentes de codificação orientados a agentes: geração de código autônoma ou semi-autônoma, correções de código em múltiplos turnos, automação de terminal e scripts de CI/CD.
  • Agentes orientados por ferramentas: navegação na web, orquestração de APIs, fluxos de trabalho de múltiplas etapas (suportados por preserved thinking & function calling).
  • Geração de front-end e UI: estruturação automática de sites, apresentações de slides, pôsteres com estética e layout aprimorados.
  • Pesquisa e tarefas de contexto longo: sumarização de documentos, síntese de literatura e geração aumentada por recuperação em documentos longos (a janela de 200K tokens é útil aqui).
  • Agentes educacionais interativos / tutores de codificação: tutoria em múltiplos turnos com raciocínio preservado que lembra blocos de raciocínio anteriores ao longo de uma sessão.

Como acessar e usar a API do GLM 4.7

Etapa 1: Cadastre-se para obter a chave de API

Faça login em cometapi.com. Se ainda não é nosso usuário, registre-se primeiro. Acesse seu console CometAPI. Obtenha a chave de API de credenciais de acesso da interface. Clique em “Add Token” no token de API no centro pessoal, obtenha a chave do token: sk-xxxxx e envie.

Etapa 2: Envie requisições para a API MiniMax M2.1

Selecione o endpoint “glm-4.7” para enviar a requisição de API e defina o corpo da requisição. O método e o corpo da requisição são obtidos na documentação de API do nosso site. Nosso site também fornece teste no Apifox para sua conveniência. Substitua <YOUR_API_KEY> pela sua chave CometAPI real da sua conta. Onde chamar: APIs no estilo Chat.

Insira sua pergunta ou solicitação no campo content — é isso que o modelo responderá. Processe a resposta da API para obter a resposta gerada.

Etapa 3: Recuperar e verificar os resultados

Processe a resposta da API para obter a resposta gerada. Após o processamento, a API responde com o status da tarefa e

Recursos para GLM-4.7

Explore os principais recursos do GLM-4.7, projetado para aprimorar o desempenho e a usabilidade. Descubra como essas capacidades podem beneficiar seus projetos e melhorar a experiência do usuário.

Preços para GLM-4.7

Explore preços competitivos para GLM-4.7, projetado para atender diversos orçamentos e necessidades de uso. Nossos planos flexíveis garantem que você pague apenas pelo que usar, facilitando o dimensionamento conforme suas necessidades crescem. Descubra como GLM-4.7 pode aprimorar seus projetos mantendo os custos gerenciáveis.
Preço do Comet (USD / M Tokens)Preço Oficial (USD / M Tokens)Desconto
Entrada:$0.96/M
Saída:$3.84/M
Entrada:$1.2/M
Saída:$4.8/M
-20%

Código de exemplo e API para GLM-4.7

Acesse código de exemplo abrangente e recursos de API para GLM-4.7 para otimizar seu processo de integração. Nossa documentação detalhada fornece orientação passo a passo, ajudando você a aproveitar todo o potencial do GLM-4.7 em seus projetos.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Mais modelos

A

Claude Opus 4.6

Entrada:$4/M
Saída:$20/M
Claude Opus 4.6 é o modelo de linguagem de grande porte da classe “Opus” da Anthropic, lançado em fevereiro de 2026. É posicionado como um cavalo de batalha para o trabalho do conhecimento e fluxos de trabalho de pesquisa — aprimorando o raciocínio em contextos longos, o planejamento em múltiplas etapas, o uso de ferramentas (incluindo fluxos de trabalho de software agente) e tarefas de uso do computador, como a geração automatizada de slides e planilhas.
A

Claude Sonnet 4.6

Entrada:$2.4/M
Saída:$12/M
Claude Sonnet 4.6 é o nosso modelo Sonnet mais capaz até agora. É uma atualização completa das capacidades do modelo em programação, uso do computador, raciocínio de longo contexto, planejamento de agentes, trabalho de conhecimento e design. Sonnet 4.6 também apresenta uma janela de contexto de 1M tokens em beta.
O

GPT-5.4 nano

Entrada:$0.16/M
Saída:$1/M
O GPT-5.4 nano foi projetado para tarefas em que a velocidade e o custo são os que mais importam, como classificação, extração de dados, ranqueamento e subagentes.
O

GPT-5.4 mini

Entrada:$0.6/M
Saída:$3.6/M
GPT-5.4 mini traz os pontos fortes do GPT-5.4 para um modelo mais rápido e mais eficiente, projetado para cargas de trabalho de alto volume.
A

Claude Mythos Preview

A

Claude Mythos Preview

Em breve
Entrada:$60/M
Saída:$240/M
Claude Mythos Preview é nosso modelo de fronteira mais capaz até o momento e apresenta um salto impressionante nos resultados em muitos benchmarks de avaliação em comparação com nosso modelo de fronteira anterior, Claude Opus 4.6.
X

mimo-v2-pro

Entrada:$0.8/M
Saída:$2.4/M
MiMo-V2-Pro é o modelo fundacional carro-chefe da Xiaomi, com mais de 1T de parâmetros no total e um comprimento de contexto de 1M, profundamente otimizado para cenários agentivos. Ele é altamente adaptável a frameworks de agentes gerais como o OpenClaw. Ele figura entre a elite global nos benchmarks padrão PinchBench e ClawBench, com desempenho percebido que se aproxima ao de Opus 4.6. MiMo-V2-Pro foi projetado para servir como o cérebro de sistemas de agentes, orquestrando fluxos de trabalho complexos, impulsionando tarefas de engenharia em produção e entregando resultados de forma confiável.

Blogs relacionados

GLM-5 vs GLM-4.7: o que mudou, o que importa e você deveria atualizar?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: o que mudou, o que importa e você deveria atualizar?

GLM-5, lançado em 11 de fevereiro de 2026 pela Zhipu AI (Z.ai), representa um grande salto arquitetural em relação ao GLM-4.7: escala de MoE maior (≈744B vs ~355B parâmetros totais), maior capacidade de parâmetros ativos, menor alucinação mensurada e ganhos claros em benchmarks de agentes e de codificação — ao custo de complexidade de inferência e (às vezes) latência.
Como usar o GLM-4.7-Flash localmente?
Jan 21, 2026
glm-4-7
glm-4-7

Como usar o GLM-4.7-Flash localmente?

GLM-4.7-Flash é um membro 30B A3B MoE leve e de alto desempenho da família GLM-4.7, projetado para viabilizar a implantação local e de baixo custo para programação, fluxos de trabalho baseados em agentes e raciocínio geral. Você pode executá-lo localmente de três maneiras práticas: (1) via Ollama (simples, ambiente de execução local gerenciado), (2) via Hugging Face / Transformers / vLLM / SGLang (implantação de servidor com foco em GPU) ou (3) via GGUF + llama.cpp / llama-cpp-python (adequado para CPU/dispositivos de borda).
GLM-4.7 lançado: o que isso significa para a inteligência artificial?
Dec 23, 2025
glm-4-7

GLM-4.7 lançado: o que isso significa para a inteligência artificial?

Em 22 de dezembro de 2025, Zhipu AI (Z.ai) lançou oficialmente o GLM-4.7, a versão mais recente de sua família de Modelos de Linguagem Geral (GLM) — atraindo a atenção global no mundo dos modelos de IA de código aberto. Este modelo não apenas aprimora as capacidades em tarefas de programação e raciocínio, como também desafia o domínio de modelos proprietários como GPT-5.2 e Claude Sonnet 4.5 nos principais benchmarks.