Home/Models/Zhipu AI/GLM-4.7

GLM-4.7

Zhipu AI
glm-4.7
Entrada:$0.44/M
Saída:$1.78/M
Contexto:200K
Saída Máxima:128K
GLM-4.7 é o modelo principal mais recente da Z.AI, com aprimoramentos em duas áreas-chave: capacidades de programação aprimoradas e raciocínio e execução em múltiplas etapas mais estáveis. Ele demonstra melhorias significativas na execução de tarefas complexas de agentes, enquanto oferece experiências conversacionais mais naturais e uma estética de front-end superior.
Playground
Visão Geral
Recursos
Preços
API

Playground para GLM-4.7

Explore o Playground do GLM-4.7 — um ambiente interativo para testar modelos e executar consultas em tempo real. Experimente prompts, ajuste parâmetros e itere instantaneamente para acelerar o desenvolvimento e validar casos de uso.

O que é o GLM-4.7

GLM-4.7 é o mais recente modelo de linguagem de base aberta de ponta da Z.ai / Zhipu AI (nome do modelo glm-4.7). Posiciona-se como um modelo de “raciocínio” voltado para desenvolvedores, com melhorias específicas em execução de tarefas de codificação/agentes, raciocínio em múltiplas etapas, invocação de ferramentas e fluxos de trabalho com contexto longo. O lançamento enfatiza o tratamento de contexto amplo (até 200K de contexto), alta saída máxima (até 128K tokens) e modos especializados de “raciocínio” para pipelines baseados em agentes.

Principais recursos

  • Melhorias em agentes / uso de ferramentas: Modos de raciocínio incorporados (“Interleaved Thinking”, “Preserved Thinking”, controle em nível de turno) que permitem ao modelo “pensar antes de agir”, reter o raciocínio entre turnos e ser mais estável ao chamar ferramentas ou executar tarefas em múltiplas etapas. Voltado para fluxos de trabalho robustos de agentes (terminais, cadeias de ferramentas, navegação na web).
  • Competência em código e terminal: Melhorias significativas em benchmarks de codificação e tarefas de automação de terminal — benchmarks do fornecedor mostram ganhos claros em relação ao GLM-4.6 nas métricas do SWE-bench e do Terminal Bench. Isso se traduz em melhor geração de código em múltiplos turnos, sequenciamento de comandos e recuperação em ambientes de agentes.
  • “Vibe coding” / qualidade de saída de front-end: Melhoria na qualidade padrão de UI/layout para HTML gerado, slides e apresentações (layouts mais limpos, dimensionamento, melhores padrões visuais).
  • Fluxos de trabalho com contexto longo: Janela de contexto de 200K tokens e ferramentas para cache de contexto; prático para bases de código com múltiplos arquivos, documentos longos e sessões de agentes com múltiplas rodadas.

Desempenho em benchmarks

Os publicadores/mantenedores do GLM-4.7 e as tabelas de benchmarks da comunidade reportam ganhos substanciais em relação ao GLM-4.6 e resultados competitivos frente a outros modelos contemporâneos em tarefas de codificação, agentes e uso de ferramentas. Números selecionados (fonte: tabelas oficiais publicadas no Hugging Face / Z.AI):

  • LiveCodeBench-v6 (benchmark de agente de código): 84.9 (SOTA de código aberto citado).
  • SWE-bench Verified (codificação): 73.8% (subiu de 68.0% no GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% vs GLM-4.6).
  • Terminal Bench 2.0 (ações de terminal baseadas em agentes): 41.0% (melhoria notável de +16.5% em relação ao 4.6).
  • HLE (raciocínio complexo com ferramentas): 42.8% quando usado com ferramentas (grande melhoria relatada vs versões anteriores).
  • τ²-Bench (invocação interativa de ferramentas): 87.4 (SOTA de código aberto relatado).

Casos de uso típicos e cenários de exemplo

  • Assistentes de codificação baseados em agentes: Geração de código autônoma ou semi-autônoma, correções de código em múltiplos turnos, automação de terminal e scripting de CI/CD.
  • Agentes orientados por ferramentas: Navegação na web, orquestração de APIs, fluxos de trabalho em múltiplas etapas (com suporte a raciocínio preservado e chamada de funções).
  • Geração de front-end e UI: Estruturação automática de sites, decks de slides, cartazes com estética e layout aprimorados.
  • Pesquisa e tarefas de contexto longo: Sumários de documentos, síntese de literatura e geração aumentada por recuperação em documentos longos (a janela de 200k tokens é útil aqui).
  • Agentes educacionais interativos / tutores de programação: Tutoria em múltiplos turnos com raciocínio preservado que lembra blocos de raciocínio anteriores ao longo de uma sessão.

Como acessar e usar a API do GLM 4.7

Etapa 1: Cadastre-se para obter a chave de API

Faça login em cometapi.com. Se você ainda não é nosso usuário, registre-se primeiro. Entre no seu console CometAPI. Obtenha a chave de API de credencial de acesso da interface. Clique em “Add Token” no token de API no centro pessoal, obtenha a chave do token: sk-xxxxx e envie.

Etapa 2: Envie solicitações para a API MiniMax M2.1

Selecione o endpoint “glm-4.7” para enviar a solicitação de API e defina o corpo da solicitação. O método e o corpo da solicitação são obtidos na documentação de API do nosso site. Nosso site também fornece teste no Apifox para sua conveniência. Substitua <YOUR_API_KEY> pela sua chave CometAPI real da sua conta. Onde chamar: APIs no estilo Chat.

Insira sua pergunta ou solicitação no campo content — é a isso que o modelo responderá. Processe a resposta da API para obter a resposta gerada.

Etapa 3: Recupere e verifique os resultados

Processe a resposta da API para obter a resposta gerada. Após o processamento, a API responde com o status da tarefa e

Recursos para GLM-4.7

Explore os principais recursos do GLM-4.7, projetado para aprimorar o desempenho e a usabilidade. Descubra como essas capacidades podem beneficiar seus projetos e melhorar a experiência do usuário.
text-to-text
text-to-music
speech-to-text
text-to-speech
text-to-image
image-to-image
image-editing
image-to-text
text-to-video
image-to-video
chat
video-to-text
pdf-to-text

Preços para GLM-4.7

Explore preços competitivos para GLM-4.7, projetado para atender diversos orçamentos e necessidades de uso. Nossos planos flexíveis garantem que você pague apenas pelo que usar, facilitando o dimensionamento conforme suas necessidades crescem. Descubra como GLM-4.7 pode aprimorar seus projetos mantendo os custos gerenciáveis.
Preço do Comet (USD / M Tokens)Preço Oficial (USD / M Tokens)
Entrada:$0.44/M
Saída:$1.78/M
Entrada:$0.56/M
Saída:$2.22/M

Código de exemplo e API para GLM-4.7

Acesse código de exemplo abrangente e recursos de API para GLM-4.7 para otimizar seu processo de integração. Nossa documentação detalhada fornece orientação passo a passo, ajudando você a aproveitar todo o potencial do GLM-4.7 em seus projetos.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Mais modelos