ModelosSoporteEmpresaBlog
500+ API de Modelos de IA, Todo en Una API. Solo en CometAPI
API de Modelos
Desarrollador
Inicio RápidoDocumentaciónPanel de API
Recursos
Modelos de IABlogEmpresaRegistro de cambiosAcerca de
2025 CometAPI. Todos los derechos reservados.Política de PrivacidadTérminos de Servicio
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

Entrada:$0.2/M
Salida:$1.6/M
Contexto:400K
Salida Máxima:128K
GPT-5 mini es el miembro de la familia GPT-5 de OpenAI optimizado en costos y latencia, diseñado para ofrecer gran parte de las capacidades multimodales y de seguimiento de instrucciones de GPT-5 a un costo sustancialmente menor para su uso en producción a gran escala. Está orientado a entornos donde el rendimiento, los precios por token predecibles y las respuestas rápidas son las principales restricciones, a la vez que sigue proporcionando sólidas capacidades de propósito general.
Nuevo
Uso comercial
Playground
Resumen
Características
Precios
API

Información básica y funciones clave

GPT-5 mini es el miembro optimizado en costo y latencia de la familia GPT-5, diseñado para ofrecer gran parte de las capacidades multimodales y de seguimiento de instrucciones de GPT-5 a un costo sustancialmente menor para uso en producción a gran escala. Se orienta a entornos donde el rendimiento, la tarificación por token predecible y las respuestas rápidas son las principales restricciones, a la vez que proporciona sólidas capacidades de propósito general.

  • Nombre del modelo: gpt-5-mini
  • Ventana de contexto: 400 000 tokens
  • Máximo de tokens de salida: 128 000
  • Funciones clave: velocidad, rendimiento, eficiencia de costos, salidas deterministas para prompts concisos

¿Cómo funciona gpt-5-mini?

Ruta de inferencia y despliegue optimizados. Las aceleraciones prácticas provienen de la fusión de kernels, el paralelismo de tensores ajustado para un grafo más pequeño, y un tiempo de ejecución de inferencia que prefiere bucles internos de “pensamiento” más cortos a menos que el desarrollador solicite un razonamiento más profundo. Por eso mini logra un cómputo por llamada notablemente menor y una latencia predecible para tráfico de alto volumen. Esta compensación es deliberada: menos cómputo por pasada hacia adelante → menor costo y menor latencia promedio.

Controles para desarrolladores. GPT-5 mini expone parámetros como verbosity (controla el detalle/la longitud) y reasoning_effort (equilibra velocidad frente a profundidad), además de un sólido soporte de tool-calling (llamadas a funciones, cadenas de herramientas en paralelo y manejo estructurado de errores), lo que permite a los sistemas en producción ajustar con precisión la exactitud frente al costo.

Rendimiento en benchmarks — cifras principales e interpretación

GPT-5 mini suele situarse dentro del ~85–95% de GPT-5 high en benchmarks generales, mientras mejora sustancialmente la latencia/el precio. Los materiales de lanzamiento de la plataforma indican puntuaciones absolutas muy altas para GPT-5 high (AIME ≈ 94.6% reportado para la variante superior), con mini algo más bajo pero aún líder en la industria para su rango de precio.

En una variedad de benchmarks estandarizados e internos, GPT-5 mini alcanza:

  • Inteligencia (AIME ’25): 91.1% (vs. 94.6% para GPT-5 high)
  • Multimodal (MMMU): 81.6% (vs. 84.2% para GPT-5 high)
  • Programación (SWE-bench Verified): 71.0% (vs. 74.9% para GPT-5 high)
  • Seguimiento de instrucciones (Scale MultiChallenge): 62.3% (vs. 69.6%)
  • Llamado de funciones (τ²-bench telecom): 74.1% (vs. 96.7%)
  • Tasas de alucinación (LongFact-Concepts): 0.7% (cuanto más bajo, mejor)([OpenAI][4])

Estos resultados demuestran las sólidas compensaciones de GPT-5 mini entre rendimiento, costo y velocidad.

Limitaciones

Limitaciones conocidas: GPT-5 mini capacidad reducida de razonamiento profundo frente a GPT-5 completo, mayor sensibilidad a prompts ambiguos y riesgos persistentes de alucinación.

  • Razonamiento profundo reducido: Para tareas de razonamiento de múltiples pasos y horizonte largo, el modelo completo de razonamiento o las variantes de “pensamiento” superan a mini.
  • Alucinaciones y exceso de confianza: Mini reduce la alucinación en comparación con modelos muy pequeños, pero no la elimina; las salidas deben validarse en flujos de alto riesgo (legales, clínicos, de cumplimiento).
  • Sensibilidad al contexto: Cadenas de contexto muy largas y altamente interdependientes se sirven mejor con las variantes completas de GPT-5 con ventanas de contexto mayores o el modelo de “pensamiento”.
  • Límites de seguridad y políticas: Se aplican las mismas protecciones y límites de tasa/uso que para otros modelos GPT-5; las tareas sensibles requieren supervisión humana.

¿Qué hace gpt-5-mini?

  • Agentes conversacionales de alto volumen: baja latencia, costo predecible.
  • Resumen de documentos y multimodal: resumen de contexto largo, informes de imagen+texto.
  • Herramientas para desarrolladores a escala: comprobaciones de código en CI, revisión automática, generación ligera de código.
  • Orquestación de agentes: tool-calling con cadenas en paralelo cuando no se requiere razonamiento profundo.

¿Cómo empiezo a usar la API de gpt-5-mini?

Pasos necesarios

  • Inicia sesión en cometapi.com. Si aún no eres usuario, regístrate primero
  • Obtén la clave de API de credenciales de acceso de la interfaz. Haz clic en “Add Token” en el token de API del centro personal, obtén la clave de token: sk-xxxxx y envíala.
  • Obtén la URL de este sitio: https://api.cometapi.com/

Método de uso

  1. Selecciona el endpoint “gpt-5-mini“ / "gpt-5-mini-2025-08-07" para enviar la solicitud de API y establece el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de la API de nuestro sitio web. Nuestro sitio web también ofrece pruebas en Apifox para tu comodidad.
  2. Reemplaza <YOUR_API_KEY> por tu clave CometAPI real de tu cuenta.
  3. Inserta tu pregunta o solicitud en el campo content—esto es a lo que responderá el modelo.
  4. . Procesa la respuesta de la API para obtener la respuesta generada.

CometAPI proporciona una API REST totalmente compatible—para una migración sin fricciones. Detalles clave en API doc:

  • Parámetros principales: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Parámetro de modelo: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Autenticación: Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json .

Instrucciones de llamada a la API: gpt-5-chat-latest debe llamarse usando el estándar /v1/chat/completions format. Para otros modelos (gpt-5, gpt-5-mini, gpt-5-nano, y sus versiones con fecha), usar the /v1/responses format is recommended. Actualmente hay dos modos disponibles.

Características para GPT-5 mini

Explora las características clave de GPT-5 mini, diseñado para mejorar el rendimiento y la usabilidad. Descubre cómo estas capacidades pueden beneficiar tus proyectos y mejorar la experiencia del usuario.

Precios para GPT-5 mini

Explora precios competitivos para GPT-5 mini, diseñado para adaptarse a diversos presupuestos y necesidades de uso. Nuestros planes flexibles garantizan que solo pagues por lo que uses, facilitando el escalado a medida que crecen tus requisitos. Descubre cómo GPT-5 mini puede mejorar tus proyectos mientras mantienes los costos manejables.
Precio de Comet (USD / M Tokens)Precio Oficial (USD / M Tokens)Descuento
Entrada:$0.2/M
Salida:$1.6/M
Entrada:$0.25/M
Salida:$2/M
-20%

Código de ejemplo y API para GPT-5 mini

GPT-5 mini es una variante ligera y optimizada en costos del modelo insignia GPT-5 de OpenAI, diseñada para ofrecer razonamiento de alta calidad y capacidades multimodales con menor latencia y costo.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Más modelos

A

Claude Opus 4.6

Entrada:$4/M
Salida:$20/M
Claude Opus 4.6 es el modelo de lenguaje grande de clase “Opus” de Anthropic, lanzado en febrero de 2026. Se posiciona como un caballo de batalla para el trabajo del conocimiento y los flujos de trabajo de investigación — mejorando el razonamiento en contextos extensos, la planificación en múltiples pasos, el uso de herramientas (incluidos flujos de trabajo de software basados en agentes) y tareas de uso de la computadora, como la generación automatizada de diapositivas y hojas de cálculo.
A

Claude Sonnet 4.6

Entrada:$2.4/M
Salida:$12/M
Claude Sonnet 4.6 es nuestro modelo Sonnet más capaz hasta la fecha. Es una actualización completa de las capacidades del modelo en programación, uso de computadoras, razonamiento con contexto largo, planificación de agentes, trabajo del conocimiento y diseño. Sonnet 4.6 también ofrece una ventana de contexto de 1M de tokens en beta.
O

GPT-5.4 nano

Entrada:$0.16/M
Salida:$1/M
GPT-5.4 nano está diseñado para tareas en las que la velocidad y el coste son primordiales, como la clasificación, la extracción de datos, la ordenación y los subagentes.
O

GPT-5.4 mini

Entrada:$0.6/M
Salida:$3.6/M
GPT-5.4 mini aporta las fortalezas de GPT-5.4 a un modelo más rápido y eficiente, diseñado para cargas de trabajo de alto volumen.
A

Claude Mythos Preview

A

Claude Mythos Preview

Próximamente
Entrada:$60/M
Salida:$240/M
Claude Mythos Preview es nuestro modelo de frontera más capaz hasta la fecha y muestra un salto notable en las puntuaciones en muchos benchmarks de evaluación en comparación con nuestro anterior modelo de frontera, Claude Opus 4.6.
X

mimo-v2-pro

Entrada:$0.8/M
Salida:$2.4/M
MiMo-V2-Pro es el modelo fundacional insignia de Xiaomi, con más de 1T de parámetros totales y una longitud de contexto de 1M, profundamente optimizado para escenarios orientados a agentes. Es altamente adaptable a frameworks generales de agentes como OpenClaw. Se sitúa entre la élite mundial en los benchmarks estándar PinchBench y ClawBench, con un rendimiento percibido que se acerca al de Opus 4.6. MiMo-V2-Pro está diseñado para servir como el cerebro de los sistemas de agentes, orquestar flujos de trabajo complejos, impulsar tareas de ingeniería de producción y ofrecer resultados de manera fiable.