GPT-5 mini es un ligero, variante optimizada en costos del modelo insignia GPT-5 de OpenAI, diseñada para ofrecer alta calidad razonamiento y capacidades multimodales con latencia y costo reducidos.
Información básica y características clave
GPT-5 mini es de OpenAI optimizado en cuanto a costos y latencia Miembro de la familia GPT-5, diseñado para ofrecer gran parte de las fortalezas multimodales y de seguimiento de instrucciones de GPT-5 en un costo sustancialmente menor Para uso en producción a gran escala. Está dirigido a entornos donde throughput, precios predecibles por token e respuestas rápidas son las principales limitaciones, aunque siguen ofreciendo sólidas capacidades de propósito general.
- Nombre de Modelo:
gpt-5-mini - Ventana de contexto:400 000 tokens
- Tokens de salida máxima: 128 000
- Características principales: Velocidad, rendimiento, rentabilidad y resultados deterministas para indicaciones concisas.
Detalles técnicos: arquitectura, inferencia y controles
Ruta de inferencia y despliegue optimizados. Las aceleraciones prácticas provienen de fusión del núcleo, Paralelismo tensorial ajustado para un gráfico más pequeño, y un tiempo de ejecución de inferencia que prefiere bucles de “pensamiento” internos más cortos A menos que el desarrollador solicite un razonamiento más profundo. Por eso, mini logra un cómputo por llamada notablemente menor y una latencia predecible para tráfico de alto volumen. Esta compensación es deliberada: menor procesamiento por pase hacia adelante → menor costo y menor latencia promedio.
Controles para desarrolladores. GPT-5 mini expone parámetros como verbosity (controla detalle/longitud) y reasoning_effort (velocidad comercial vs. profundidad), además de robusta llamada de herramientas soporte (llamadas de función, cadenas de herramientas paralelas y manejo estructurado de errores), que permite a los sistemas de producción ajustar la precisión frente al costo con precisión.
Rendimiento de referencia: cifras principales e interpretación
El GPT-5 mini normalmente se sienta entre ~85–95% GPT-5 obtuvo buenos resultados en los indicadores generales, a la vez que mejoró sustancialmente la relación latencia/precio. Los materiales de lanzamiento de la plataforma indican... puntuaciones absolutas muy altas para GPT-5 alto (AIME ≈ 94.6% reportado para la variante superior), con el mini un poco más bajo pero aún líder en la industria para su nivel de precio.
A través de una gama de puntos de referencia internos y estandarizados, GPT-5 mini logra:
- Inteligencia (AIME '25): 91.1% (frente al 94.6% para GPT-5 alto)
- Multimodal (MMMU): 81.6% (frente a 84.2% para GPT-5 alto)
- Codificación (SWE-bench verificado): 71.0 % (frente al 74.9 % para GPT-5 alto)
- Instrucciones siguientes (Escala MultiChallenge): 62.3% (vs. 69.6%)
- Llamada de función (τ²-bench telecom): 74.1% (frente al 96.7%)
- Tasas de alucinaciones (LongFact-Concepts): 0.7 % (cuanto menor, mejor) ()
Estos resultados demuestran que GPT-5 mini robusto compensaciones entre rendimiento, costo y velocidad.
Limitaciones
Limitaciones conocidas: GPT-5 mini capacidad de razonamiento profundo reducida en comparación con la GPT-5 completa, mayor sensibilidad a indicaciones ambiguas y riesgos restantes de alucinación.
- Razonamiento profundo reducido: Para tareas de razonamiento de varios pasos y de largo plazo, el modelo de razonamiento completo o las variantes de “pensamiento” superan al modelo mini.
- Alucinaciones y exceso de confianza: Mini reduce la alucinación en comparación con modelos muy pequeños, pero no la elimina; los resultados deben validarse en flujos de alto riesgo (legal, clínico, cumplimiento).
- Sensibilidad del contexto: Las cadenas de contexto muy largas y altamente interdependientes se atienden mejor con las variantes completas de GPT-5 con ventanas de contexto más grandes o el modelo de “pensamiento”.
- Límites de seguridad y políticas: Las mismas barandillas de seguridad y límites de velocidad/uso que se aplican a otros modelos GPT-5 se aplican al modelo mini; las tareas sensibles requieren supervisión humana.
Casos de uso recomendados (donde Mini Excel destaca)
- Agentes conversacionales de alto volumen: Baja latencia, costo predecible. Palabra clave: throughput.
- Documento y resumen multimodal: Resumen de contexto largo, informes de imagen+texto. Palabra clave: contexto largo.
- Herramientas para desarrolladores a escala: Verificación de código CI, revisión automática, generación de código liviano. Palabra clave: codificación rentable.
- Orquestación del agente: llamada de herramientas con cadenas paralelas cuando no se requiere razonamiento profundo. Palabra clave: llamada de herramienta.
Como llamar gpt-5-mini API de CometAPI
gpt-5-mini Precios de API en CometAPI: 20 % de descuento sobre el precio oficial.
| Tokens de entrada | $0.20 |
| Fichas de salida | $1.60 |
Pasos requeridos
- Inicia sesión en cometapi.comSi aún no eres nuestro usuario, por favor regístrate primero.
- Obtenga la clave API de credenciales de acceso de la interfaz. Haga clic en "Agregar token" en el token API del centro personal, obtenga la clave del token: sk-xxxxx y envíe.
- Obtenga la URL de este sitio: https://api.cometapi.com/
Método de uso
- Seleccione la opción "
gpt-5-mini“ / “gpt-5-mini-2025-08-07Punto final para enviar la solicitud de API y configurar el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de la API de nuestro sitio web. Nuestro sitio web también ofrece la prueba de Apifox para su comodidad. - Reemplazar con su clave CometAPI real de su cuenta.
- Inserte su pregunta o solicitud en el campo de contenido: esto es lo que responderá el modelo.
- . Procesa la respuesta de la API para obtener la respuesta generada.
CometAPI proporciona una API REST totalmente compatible para una migración fluida. Detalles clave para Documento API:
- Parámetros centrales:
prompt,max_tokens_to_sample,temperature,stop_sequences - Punto final: https://api.cometapi.com/v1/chat/completions
- Parámetro del modelo: "
gpt-5-mini“ / “gpt-5-mini-2025-08-07" - Autenticación:
Bearer YOUR_CometAPI_API_KEY - Tipo de contenido:
application/json.
Instrucciones de llamada a la API: gpt-5-chat-latest debe llamarse utilizando el estándar /v1/chat/completions format. Para otros modelos (gpt-5, gpt-5-mini, gpt-5-nano y sus versiones anteriores), utilizando the /v1/responses format es recomendadoActualmente hay dos modos disponibles.
Vea también GPT-5 Modelo


