Home/Models/OpenAI/GPT-5.2
O

GPT-5.2

Entrada:$1.4/M
Salida:$11.2/M
Contexto:400,000
Salida Máxima:128,000
GPT-5.2 es una suite de modelos con múltiples variantes (Instant, Thinking, Pro) diseñada para mejorar la comprensión de contextos largos, fortalecer las capacidades de programación y el uso de herramientas, y ofrecer un rendimiento sustancialmente superior en pruebas de referencia profesionales de “trabajo del conocimiento”.
Nuevo
Uso comercial
Playground
Resumen
Características
Precios
API

Qué es la API de GPT-5.2

La API de GPT-5.2 es la misma que GPT-5.2 Thinking en ChatGPT. GPT-5.2 Thinking es la variante de nivel medio de la familia GPT-5.2 de OpenAI diseñada para trabajo más profundo: razonamiento de múltiples pasos, resumen de documentos largos, generación de código de calidad y trabajo profesional de conocimiento donde la precisión y la estructura utilizable importan más que el rendimiento bruto. En la API se expone como el modelo gpt-5.2 (Responses API / Chat Completions), y se sitúa entre la variante de baja latencia Instant y la variante Pro de mayor calidad pero más costosa.

Características principales

  • Contexto muy largo y compactación: ventana efectiva de 400K y herramientas de compactación para gestionar la relevancia en conversaciones y documentos extensos.
  • Esfuerzo de razonamiento configurable: none | medium | high | xhigh (xhigh habilita el máximo cómputo interno para razonamientos difíciles). xhigh está disponible en las variantes Thinking/Pro.
  • Soporte más sólido de herramientas y funciones: llamadas a herramientas de primera clase, gramáticas (CFG/Lark) para restringir salidas estructuradas, y comportamientos de agente mejorados que simplifican automatizaciones complejas de múltiples pasos.
  • Comprensión multimodal: comprensión más rica de imagen + texto e integración en tareas de múltiples pasos.
  • Seguridad mejorada / manejo de contenido sensible: intervenciones específicas para reducir respuestas indeseables en áreas como autolesiones y otros contextos sensibles.

Capacidades técnicas & especificaciones (vista para desarrolladores)

  • Puntos finales de API e IDs de modelo: gpt-5.2 para Thinking (Responses API), gpt-5.2-chat-latest para flujos de chat/instant, y gpt-5.2-pro para el nivel Pro; disponibles vía Responses API y Chat Completions donde se indique.
  • Tokens de razonamiento y gestión del esfuerzo: la API admite parámetros explícitos para asignar cómputo (esfuerzo de razonamiento) por solicitud; mayor esfuerzo incrementa la latencia y el costo pero mejora la calidad de salida en tareas complejas.
  • Herramientas de salida estructurada: compatibilidad con gramáticas (Lark / CFG) para restringir la salida del modelo a un DSL o sintaxis exacta (útil para SQL, JSON, generación de DSL).
  • Llamadas de herramientas en paralelo y coordinación de agentes: mayor paralelismo y orquestación de herramientas más limpia reducen la necesidad de prompts de sistema elaborados y andamiaje multiagente.

Rendimiento en benchmarks y datos de respaldo

OpenAI publicó una variedad de resultados de benchmarks internos y externos para GPT-5.2. Aspectos destacados seleccionados (cifras reportadas por OpenAI):

  • GDPval (44 ocupaciones, trabajo de conocimiento) — GPT-5.2 Thinking “supera o iguala a los mejores profesionales de la industria en el 70,9% de las comparaciones”; OpenAI informa que las salidas se produjeron a >11× la velocidad y a <1% del costo de profesionales expertos en sus tareas de GDPval (las estimaciones de velocidad y costo se basan en datos históricos). Estas tareas incluyen modelos de hojas de cálculo, presentaciones y videos cortos.
  • SWE-Bench Pro (coding) — GPT-5.2 Thinking alcanza ≈55.6% en SWE-Bench Pro y ~80% en SWE-Bench Verified (solo Python) según OpenAI, estableciendo un nuevo estado del arte para evaluación de generación de código/ingeniería en sus pruebas. Esto se traduce en depuración más confiable y correcciones de extremo a extremo en la práctica, según los ejemplos de OpenAI.
  • GPQA Diamond (preguntas y respuestas a nivel de posgrado en ciencia) — GPT-5.2 Pro: 93.2%, GPT-5.2 Thinking: 92.4% en GPQA Diamond (sin herramientas, razonamiento máximo).
  • Serie ARC-AGI — En ARC-AGI-2 (un benchmark más difícil de razonamiento fluido), GPT-5.2 Thinking obtuvo 52.9% y GPT-5.2 Pro 54.2% (OpenAI afirma que son nuevas marcas de estado del arte para modelos de estilo cadena de pensamiento).
  • Contexto largo (OpenAI MRCRv2) — GPT-5.2 Thinking muestra precisión cercana al 100% en la variante MRCR de 4 agujas hasta 256k tokens y puntuaciones sustancialmente mejoradas frente a GPT-5.1 en escenarios de contexto largo. (OpenAI publicó gráficos y tablas de MRCRv2.)

GPT-5.2

Comparación con contemporáneos

  • vs Google Gemini 3 (Gemini 3 Pro / Deep Think): Gemini 3 Pro ha sido publicitado con una ventana de contexto de tokens de ~1,048,576 (≈1M) y entradas multimodales amplias (texto, imagen, audio, video, PDFs) y sólidas integraciones de agente vía Vertex AI / AI Studio. En teoría, la ventana de contexto mayor de Gemini 3 es un diferenciador para cargas extremadamente grandes de una sola sesión; las compensaciones incluyen la superficie de herramientas y el encaje en el ecosistema.
  • vs Anthropic Claude Opus 4.5: Opus 4.5 de Anthropic enfatiza flujos de trabajo de codificación/agent empresariales y reporta resultados sólidos en SWE-bench y robustez para sesiones agentivas largas; Anthropic posiciona Opus para automatización y generación de código con una ventana de contexto de 200k y integraciones especializadas de agente/Excel. Opus 4.5 es un competidor fuerte en tareas de automatización y código a nivel empresarial.

Conclusión práctica: GPT-5.2 apunta a un conjunto equilibrado de mejoras (contexto de 400k, salidas de tokens altas, razonamiento/codificación mejorados). Gemini 3 apunta a los contextos de una sola sesión absolutamente más grandes (≈1M), mientras que Claude Opus se centra en la ingeniería empresarial y la robustez agentiva. Elige en función del tamaño de contexto, necesidades de modalidad, ajuste de características/herramientas y compensaciones de costo/latencia.

Cómo acceder y usar la API de GPT-5.2

Paso 1: Regístrate para obtener la clave de API

Inicia sesión en cometapi.com. Si aún no eres nuestro usuario, regístrate primero. Inicia sesión en tu consola de CometAPI. Obtén la clave de API de credenciales de acceso de la interfaz. Haz clic en “Add Token” en el token de API en el centro personal, obtén la clave del token: sk-xxxxx y envíala.

Paso 2: Envía solicitudes a la API de GPT-5.2

Selecciona el “gpt-5.2” endpoint para enviar la solicitud de API y establece el cuerpo de la solicitud. El método de la solicitud y el cuerpo de la solicitud se obtienen de la documentación de la API en nuestro sitio web. Nuestro sitio web también proporciona Apifox test para tu comodidad. Reemplaza <YOUR_API_KEY> con tu clave real de CometAPI de tu cuenta. Los desarrolladores llaman a estos vía la Responses API / Chat endpoints.

Inserta tu pregunta o solicitud en el campo de contenido—esto es a lo que el modelo responderá . Procesa la respuesta de la API para obtener la respuesta generada.

Paso 3: Recupera y verifica los resultados

Procesa la respuesta de la API para obtener la respuesta generada. Después del procesamiento, la API responde con el estado de la tarea y los datos de salida.

Consulta también Gemini 3 Pro Preview API

Preguntas Frecuentes

What makes GPT-5.2 OpenAI's flagship model for developers?

GPT-5.2 is OpenAI's best model for coding and agentic tasks, combining a 400K context window with support for code interpreter, web search, file search, image generation, and MCP—making it the most versatile choice for complex workflows.

Does GPT-5.2 support model distillation?

Yes, GPT-5.2 uniquely supports distillation, allowing developers to use its outputs to train smaller, more efficient models for specific tasks while maintaining performance.

What is the knowledge cutoff date for GPT-5.2?

GPT-5.2 has a knowledge cutoff of August 31, 2025. For more recent information, you can enable web search through the Responses API to ground responses in current data.

Can GPT-5.2 process images and generate code simultaneously?

Yes, GPT-5.2 accepts image inputs and supports code interpreter, allowing it to analyze visual content and execute Python code in the same conversation—ideal for data visualization and analysis workflows.

How does GPT-5.2 compare to GPT-5 in pricing and performance?

GPT-5.2 costs $1.75/$14 per million tokens (input/output) compared to GPT-5's $1.25, but delivers materially higher performance on professional benchmarks including coding, long-context understanding, and tool use.

What endpoints does GPT-5.2 support?

GPT-5.2 supports Chat Completions, Responses API, Batch processing, and Assistants API—but does not support fine-tuning, Realtime API, or audio modalities.

Características para GPT-5.2

Explora las características clave de GPT-5.2, diseñado para mejorar el rendimiento y la usabilidad. Descubre cómo estas capacidades pueden beneficiar tus proyectos y mejorar la experiencia del usuario.

Precios para GPT-5.2

Explora precios competitivos para GPT-5.2, diseñado para adaptarse a diversos presupuestos y necesidades de uso. Nuestros planes flexibles garantizan que solo pagues por lo que uses, facilitando el escalado a medida que crecen tus requisitos. Descubre cómo GPT-5.2 puede mejorar tus proyectos mientras mantienes los costos manejables.
Precio de Comet (USD / M Tokens)Precio Oficial (USD / M Tokens)
Entrada:$1.4/M
Salida:$11.2/M
Entrada:$1.75/M
Salida:$14/M

Código de ejemplo y API para GPT-5.2

Accede a código de muestra completo y recursos de API para GPT-5.2 para agilizar tu proceso de integración. Nuestra documentación detallada proporciona orientación paso a paso, ayudándote a aprovechar todo el potencial de GPT-5.2 en tus proyectos.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "none"},
)

print(response.output_text)

Más modelos