ModelosSoporteEmpresaBlog
500+ API de Modelos de IA, Todo en Una API. Solo en CometAPI
API de Modelos
Desarrollador
Inicio RápidoDocumentaciónPanel de API
Recursos
Modelos de IABlogEmpresaRegistro de cambiosAcerca de
2025 CometAPI. Todos los derechos reservados.Política de PrivacidadTérminos de Servicio
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Entrada:$0.96/M
Salida:$3.84/M
Contexto:200K
Salida Máxima:128K
GLM-4.7 es el modelo insignia más reciente de Z.AI, que incorpora mejoras en dos áreas clave: capacidades de programación mejoradas y un razonamiento y ejecución de múltiples pasos más estable. Demuestra mejoras significativas en la ejecución de tareas complejas de agentes, a la vez que ofrece experiencias conversacionales más naturales y una estética de front-end superior.
Nuevo
Uso comercial
Playground
Resumen
Características
Precios
API

Qué es GLM-4.7

GLM-4.7 es el último modelo insignia de lenguaje grande open-foundation de Z.ai / Zhipu AI (nombre del modelo: glm-4.7). Está posicionado como un modelo de “thinking” orientado a desarrolladores, con mejoras particulares en codificación/ejecución de tareas agénticas, razonamiento de múltiples pasos, invocación de herramientas y flujos de trabajo de contexto largo. El lanzamiento destaca el manejo de contextos extensos (hasta 200K de contexto), una alta salida máxima (hasta 128K tokens) y modos especializados de “thinking” para pipelines agénticos.

Características principales

  • Mejoras agénticas / uso de herramientas: Modos de thinking integrados (“Interleaved Thinking”, “Preserved Thinking”, control a nivel de turno) para permitir que el modelo “piense antes de actuar”, conserve el razonamiento entre turnos y sea más estable al llamar herramientas o ejecutar tareas de múltiples pasos. Esto está orientado a flujos de trabajo agénticos robustos (terminales, cadenas de herramientas, navegación web).
  • Competencia en codificación y terminal: Mejoras significativas en benchmarks de codificación y tareas de automatización de terminal — los benchmarks del proveedor muestran avances claros frente a GLM-4.6 en las métricas de SWE-bench y Terminal Bench. Esto se traduce en una mejor generación de código en múltiples turnos, secuenciación de comandos y recuperación en entornos agénticos.
  • “Vibe coding” / calidad de salida frontend: Mejora de la calidad predeterminada de UI/diseño para HTML, diapositivas y presentaciones generados (diseños más limpios, mejor dimensionamiento y mejores valores visuales predeterminados).
  • Flujos de trabajo de contexto largo: Ventana de contexto de 200K tokens y herramientas para caché de contexto; práctico para bases de código de múltiples archivos, documentos largos y sesiones agénticas de múltiples rondas.

Rendimiento en benchmarks

Las tablas de benchmarks del editor/mantenedores de GLM-4.7 y de la comunidad informan mejoras sustanciales frente a GLM-4.6 y resultados competitivos frente a otros modelos contemporáneos en tareas de codificación, uso agéntico y uso de herramientas. Cifras seleccionadas (fuente: tablas oficiales publicadas en Hugging Face / Z.AI):

  • LiveCodeBench-v6 (benchmark de agente de codificación): 84.9 (SOTA de código abierto citado).
  • SWE-bench Verified (codificación): 73.8% (frente a 68.0% en GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% frente a GLM-4.6).
  • Terminal Bench 2.0 (acciones agénticas en terminal): 41.0% (mejora notable de +16.5% sobre 4.6).
  • HLE (razonamiento complejo con herramientas): 42.8% cuando se usa con herramientas (se informa una gran mejora frente a versiones anteriores).
  • τ²-Bench (invocación interactiva de herramientas): 87.4 (SOTA de código abierto reportado).

Casos de uso típicos y escenarios de ejemplo

  • Asistentes de codificación agénticos: Generación de código autónoma o semiautónoma, correcciones de código en múltiples turnos, automatización de terminal y scripting de CI/CD.
  • Agentes impulsados por herramientas: Navegación web, orquestación de API, flujos de trabajo de múltiples pasos (compatibles con preserved thinking y function calling).
  • Generación de frontend y UI: Creación automática de sitios web, presentaciones de diapositivas y pósteres con estética y diseño mejorados.
  • Investigación y tareas de contexto largo: Resumen de documentos, síntesis bibliográfica y generación aumentada por recuperación en documentos largos (la ventana de 200k tokens resulta útil aquí).
  • Agentes educativos interactivos / tutores de programación: Tutoría en múltiples turnos con razonamiento preservado que recuerda bloques de razonamiento previos a lo largo de una sesión.

Cómo acceder y usar la API de GLM 4.7

Paso 1: Regístrese para obtener una API Key

Inicie sesión en cometapi.com. Si aún no es usuario, regístrese primero. Inicie sesión en su consola de CometAPI. Obtenga la credencial de acceso, la API key de la interfaz. Haga clic en “Add Token” en la sección de API token del centro personal, obtenga la clave del token: sk-xxxxx y envíela.

Paso 2: Enviar solicitudes a la API de MiniMax M2.1

Seleccione el endpoint “glm-4.7” para enviar la solicitud de API y configure el cuerpo de la solicitud. El método de solicitud y el cuerpo de la solicitud se obtienen de la documentación de la API en nuestro sitio web. Nuestro sitio web también proporciona pruebas con Apifox para su comodidad. Reemplace <YOUR_API_KEY> por su clave real de CometAPI de su cuenta. Dónde llamarlo: APIs de estilo Chat.

Inserte su pregunta o solicitud en el campo content; esto es a lo que responderá el modelo. Procese la respuesta de la API para obtener la respuesta generada.

Paso 3: Recuperar y verificar resultados

Procese la respuesta de la API para obtener la respuesta generada. Después del procesamiento, la API responde con el estado de la tarea y

Características para GLM-4.7

Explora las características clave de GLM-4.7, diseñado para mejorar el rendimiento y la usabilidad. Descubre cómo estas capacidades pueden beneficiar tus proyectos y mejorar la experiencia del usuario.

Precios para GLM-4.7

Explora precios competitivos para GLM-4.7, diseñado para adaptarse a diversos presupuestos y necesidades de uso. Nuestros planes flexibles garantizan que solo pagues por lo que uses, facilitando el escalado a medida que crecen tus requisitos. Descubre cómo GLM-4.7 puede mejorar tus proyectos mientras mantienes los costos manejables.
Precio de Comet (USD / M Tokens)Precio Oficial (USD / M Tokens)Descuento
Entrada:$0.96/M
Salida:$3.84/M
Entrada:$1.2/M
Salida:$4.8/M
-20%

Código de ejemplo y API para GLM-4.7

Accede a código de muestra completo y recursos de API para GLM-4.7 para agilizar tu proceso de integración. Nuestra documentación detallada proporciona orientación paso a paso, ayudándote a aprovechar todo el potencial de GLM-4.7 en tus proyectos.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Más modelos

A

Claude Opus 4.6

Entrada:$4/M
Salida:$20/M
Claude Opus 4.6 es el modelo de lenguaje grande de clase “Opus” de Anthropic, lanzado en febrero de 2026. Se posiciona como un caballo de batalla para el trabajo del conocimiento y los flujos de trabajo de investigación — mejorando el razonamiento en contextos extensos, la planificación en múltiples pasos, el uso de herramientas (incluidos flujos de trabajo de software basados en agentes) y tareas de uso de la computadora, como la generación automatizada de diapositivas y hojas de cálculo.
A

Claude Sonnet 4.6

Entrada:$2.4/M
Salida:$12/M
Claude Sonnet 4.6 es nuestro modelo Sonnet más capaz hasta la fecha. Es una actualización completa de las capacidades del modelo en programación, uso de computadoras, razonamiento con contexto largo, planificación de agentes, trabajo del conocimiento y diseño. Sonnet 4.6 también ofrece una ventana de contexto de 1M de tokens en beta.
O

GPT-5.4 nano

Entrada:$0.16/M
Salida:$1/M
GPT-5.4 nano está diseñado para tareas en las que la velocidad y el coste son primordiales, como la clasificación, la extracción de datos, la ordenación y los subagentes.
O

GPT-5.4 mini

Entrada:$0.6/M
Salida:$3.6/M
GPT-5.4 mini aporta las fortalezas de GPT-5.4 a un modelo más rápido y eficiente, diseñado para cargas de trabajo de alto volumen.
A

Claude Mythos Preview

A

Claude Mythos Preview

Próximamente
Entrada:$60/M
Salida:$240/M
Claude Mythos Preview es nuestro modelo de frontera más capaz hasta la fecha y muestra un salto notable en las puntuaciones en muchos benchmarks de evaluación en comparación con nuestro anterior modelo de frontera, Claude Opus 4.6.
X

mimo-v2-pro

Entrada:$0.8/M
Salida:$2.4/M
MiMo-V2-Pro es el modelo fundacional insignia de Xiaomi, con más de 1T de parámetros totales y una longitud de contexto de 1M, profundamente optimizado para escenarios orientados a agentes. Es altamente adaptable a frameworks generales de agentes como OpenClaw. Se sitúa entre la élite mundial en los benchmarks estándar PinchBench y ClawBench, con un rendimiento percibido que se acerca al de Opus 4.6. MiMo-V2-Pro está diseñado para servir como el cerebro de los sistemas de agentes, orquestar flujos de trabajo complejos, impulsar tareas de ingeniería de producción y ofrecer resultados de manera fiable.

Blog relacionado

GLM-5 vs GLM-4.7: qué ha cambiado, qué importa y ¿deberías actualizar?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: qué ha cambiado, qué importa y ¿deberías actualizar?

GLM-5, publicado el 11 de febrero de 2026 por Zhipu AI (Z.ai), representa un gran salto arquitectónico respecto a GLM-4.7: mayor escala de MoE (≈744B frente a ~355B parámetros totales), mayor capacidad de parámetros activos, menor alucinación medida y claras mejoras en las pruebas de referencia de agentes y de programación — a costa de una mayor complejidad de inferencia y (a veces) latencia.
¿Cómo usar GLM-4.7-Flash localmente?
Jan 21, 2026
glm-4-7
glm-4-7

¿Cómo usar GLM-4.7-Flash localmente?

GLM-4.7-Flash es un miembro 30B A3B MoE de la familia GLM-4.7, ligero y de alto rendimiento, diseñado para habilitar la implementación local y de bajo costo para programación, flujos de trabajo basados en agentes y razonamiento general. Puede ejecutarlo localmente de tres formas prácticas: (1) mediante Ollama (entorno de ejecución local gestionado y sencillo), (2) mediante Hugging Face / Transformers / vLLM / SGLang (despliegue en servidor con prioridad en GPU), o (3) mediante GGUF + llama.cpp / llama-cpp-python (apto para CPU y dispositivos de borde (edge)).
GLM-4.7 lanzado: ¿Qué significa esto para la inteligencia artificial?
Dec 23, 2025
glm-4-7

GLM-4.7 lanzado: ¿Qué significa esto para la inteligencia artificial?

El 22 de diciembre de 2025, Zhipu AI (Z.ai) lanzó oficialmente GLM-4.7, la iteración más reciente de su familia GLM (General Language Model), atrayendo la atención mundial en el ámbito de los modelos de IA de código abierto. Este modelo no solo mejora las capacidades en tareas de programación y razonamiento, sino que también desafía el dominio de modelos propietarios como GPT-5.2 y Claude Sonnet 4.5 en pruebas de referencia clave.