Cómo utilizar los nuevos parámetros y herramientas de GPT-5: una guía práctica

CometAPI
AnnaAug 11, 2025
Cómo utilizar los nuevos parámetros y herramientas de GPT-5: una guía práctica

La implementación de GPT-5 de OpenAI incorpora un objetivo ya conocido: mayor precisión, velocidad y control para los desarrolladores, pero lo complementa con un nuevo conjunto de parámetros de API e integraciones de herramientas que transforman la forma en que los equipos diseñan indicaciones, invocan modelos y los conectan a entornos de ejecución externos. Este artículo explica los cambios clave, muestra patrones de uso concretos y ofrece las mejores prácticas para una adopción segura y rentable.

¿Qué nuevos modelos, parámetros y herramientas GPT-5 debo conocer?

¿Qué es GPT-5?

OpenAI ahora publica GPT-5 en múltiples versiones para que los desarrolladores puedan equilibrar la latencia, el costo y la capacidad: gpt-5 (modelo de razonamiento completo), gpt-5-mini (equilibrado), y gpt-5-nano (bajo costo, baja latencia). Estos tamaños permiten elegir el modelo más adecuado para consultas cortas, procesamiento por lotes o tareas de razonamiento complejas. GPT-5 en ChatGPT se presenta como un sistema con componentes de razonamiento, y una versión de API enfoca el modelo de razonamiento directamente para el uso de los desarrolladores.

Nuevos parámetros de API (alto nivel)

Algunos parámetros que aparecen y que cambian el modo en que se controlan la producción y los costos son particularmente notables:

  • Nuevos parámetros: verbosity (bajo/medio/alto) para controlar la longitud/forma de la respuesta y reasoning_effort (ahora: minimal, low, medium, high) para controlar cuánto piensa el modelo antes de responder. Utilice minimal Cuando deseas velocidad en lugar de una cadena de pensamiento profunda.
  • modos mínimos/de razonamiento — opciones para preferir respuestas más rápidas y con menor razonamiento (útiles para la recuperación breve de hechos) frente a un razonamiento más extenso (“pensamiento”) cuando se requieren cadenas de pensamiento más profundas.
  • Contexto largo y tokens: GPT-5 admite contextos muy grandes (un total de ~400 272 tokens: ~128 XNUMX de entrada + XNUMX XNUMX de salida en documentos): use esto para documentos grandes, bases de código o conversaciones largas.

Estos parámetros le permiten ajustar el equilibrio entre calidad, latencia y costo a nivel de llamada en lugar de solo elegir un tamaño de modelo.

Nuevos tipos de herramientas y compatibilidad con cargas sin procesar

Una de las novedades más prácticas del GPT-5 es el nuevo custom tipo de herramienta que permite al modelo enviar cargas útiles de texto sin formato al entorno de ejecución de su herramienta (por ejemplo: scripts de Python, sentencias SQL, comandos de shell o texto de configuración arbitrario) sin necesidad de llamadas a funciones encapsuladas en JSON. Esto reduce la fricción al conectar el modelo a entornos aislados, intérpretes o bases de datos y permite patrones de software bajo demanda más completos.

Restricción de salidas: Puede aplicar gramáticas/contratos (Gramática Libre de Contexto, CFG) para que las cargas útiles de las herramientas sean sintácticamente válidas para su entorno de ejecución. Las llamadas a herramientas paralelas y los CFG le permiten automatizar de forma segura flujos de trabajo de agentes de varios pasos.

¿Cómo llamo los nuevos parámetros y herramientas en la API?

(Utilizando el patrón oficial del SDK de Python from openai import OpenAI y la API de respuestas como en la documentación).

1) Establecer verbosidad + esfuerzo_de_razonamiento

from openai import OpenAI
client = OpenAI(
    base_url="https://api.cometapi.com/v1/responses",
    api_key="<YOUR_CometAPI_KEY>",    
)

resp = client.responses.create(
    model="gpt-5",
    input="Summarize the following meeting notes in one short paragraph: ...",
    parameters={
        "verbosity": "low",            # low / medium / high

        "reasoning_effort": "minimal", # minimal / low / medium / high

        "max_output_tokens": 200
    }
)

print(resp.output_text)  # SDK convenience property aggregates returned text

Esto devuelve una respuesta corta y rápida cuando desea latencia + brevedad.

2) Llamar a una herramienta personalizada con una carga útil de texto sin formato (formato libre)

# Example: send a raw SQL query (not JSON) to your "sql_runner" custom tool

from openai import OpenAI
client = OpenAI(
    base_url="https://api.cometapi.com/v1/responses",
    api_key="<YOUR_CometAPI_KEY>",    
)

resp = client.responses.create(
    model="gpt-5",
    input="Fetch the average order value for last month and return a SQL query only.",
    tools=[
        {
            "name": "sql_runner",
            "type": "custom",
            "description": "Executes raw SQL and returns results."
        }
    ],
    parameters={
        "verbosity": "medium"
    }
)

# The model can emit text that the tool receives directly (raw SQL)

# How your backend receives and executes the model->tool payload depends on your webhook/runtime.
print(resp.output_text)

Utilice CFG si el SQL debe seguir una sintaxis estricta o patrones permitidos. (, )

3) Ejemplo: requerir una salida restringida con CFG

# Pseudocode / conceptual example for attaching a grammar to a tool call.

client.responses.create(
    model="gpt-5",
    input="Generate a safe shell command to list .txt files.",
    tools=[{
        "name":"shell_exec",
        "type":"custom",
        "description":"Runs a shell command in a sandbox",
        "grammar": "COMMAND -> 'ls' ' ' DIR_FILTER; DIR_FILTER -> '*.txt' | '-la *.txt'"
    }],
    parameters={"verbosity":"low"}
)

El elemento grammar/CFG garantiza que GPT-5 solo muestre los patrones de comando permitidos y aceptados por su ejecutor.

¿Cómo me registro y utilizo un custom ¿Herramienta para enviar cargas útiles sin procesar?

El elemento custom La herramienta se define al registrar herramientas en el sistema. La herramienta recibe texto sin formato (no JSON estructurado), por lo que el entorno de ejecución debe estar listo para analizarla y validarla.

  1. Registrar la herramienta (lado del servidor; pseudodefinición):
{
  "name": "code_executor",
  "type": "custom",
  "description": "Runs Python code in a sandbox and returns output or errors."
}
  1. El modelo invoca la herramienta — ejemplo de instrucción del asistente (lo que el modelo produce cuando quiere llamar a la herramienta):
<tool name="code_executor">
print(run_tests_on_module('payment_processor'))
</tool>
  1. Su tiempo de ejecución se ejecuta El texto sin procesar se almacena de forma segura (en un espacio aislado), devuelve una cadena de salida a la API o al bucle del agente y el modelo continúa la conversación usando el texto devuelto.

¿Cómo debería impulsarse el cambio de ingeniería con las nuevas opciones de GPT-5?

¿Cuándo debo utilizar el “pensamiento” (razonamiento extendido) frente a respuestas mínimas?

Utilice los modos de pensamiento/razonamiento extendido para tareas que requieran deducción gradual, planificación multietapa o generación de código que deba respetar restricciones. Reserve el razonamiento mínimo o mini/nano Para consultas breves, tareas de recuperación y grandes cargas de trabajo de ramificación (p. ej., calificar a muchos candidatos). Cuando la precisión es crucial (finanzas, derecho, diagnóstico), se prefiere el razonamiento superior/predeterminado. gpt-5 y añadir comprobaciones posteriores. OpenAI sigue enfatizando que GPT-5 no es IA general (AGI): mejora las capacidades, pero no es una fuente infalible de información, así que elija los modos de razonamiento en consecuencia.

¿Cuáles son las mejores prácticas para integrar GPT-5 con herramientas y entornos de ejecución externos?

¿Cómo debo diseñar la arquitectura de ejecución de la herramienta?

  • Aislado Entornos de ejecución de herramientas: contenedores efímeros por solicitud o procesos sandbox dedicados.
  • Límite de tarifa y cupo uso de herramientas por separado de la API del modelo para controlar costos y riesgos.
  • Los registros de auditoría:Registra las entradas y salidas de la herramienta, y la decisión del modelo de invocar la herramienta para análisis post mortem y cumplimiento.
  • Manejo de errores:Diseñar el entorno de ejecución para devolver códigos de error estructurados y un mensaje breve y legible para que el modelo pueda reintentar, retroceder o explicar el error.

¿Qué controles de seguridad son esenciales?

  • Análisis estático para el código recibido como texto sin formato, inclusión en la lista blanca de módulos permitidos y API de tiempo de ejecución.
  • Aislamiento de red y estrictas reglas de salida de contenedores.
  • Gestión de secretos — nunca exponga las claves de la cuenta de servicio directamente al modelo; use tokens efímeros generados por su backend si se requiere acceso remoto.
  • Control de acceso con presencia humana Para operaciones de alto riesgo (transacciones financieras, implementaciones). Estos son patrones de seguridad estándar para agentes habilitados por herramientas.

Consejos prácticos y mejores prácticas

  • Elija verbosity No pronta cirugía. Use verbosity para ajustar la longitud/nivel de detalle en lugar de reescribir las indicaciones repetidamente.
  • Use reasoning_effort para compensar costos y latencia. Establecer minimal para la recuperación rápida de datos o UI, high para tareas de razonamiento complejas.
  • Seguridad de las herramientas: Siempre valide/escape cualquier texto sin procesar que el modelo emita antes de ejecutarlo. Use las reglas de configuración y la limpieza del servidor como segunda línea de defensa. (El libro de recetas advierte sobre las prácticas de seguridad de las herramientas).
  • Llamada de herramienta paralela: Puedes ejecutar varias llamadas a herramientas simultáneamente para mayor velocidad (p. ej., búsqueda web + consulta en la base de datos) y luego hacer que el modelo sintetice los resultados. Ideal para flujos de agentes.
  • Resultados estructurados cuando los necesitas. Si su consumidor necesita JSON, utilice la compatibilidad con salidas estructuradas y esquemas JSON. Use formato libre solo cuando el texto sin formato sea más natural para el entorno de ejecución de destino.
  • Transmisión y salidas largas: Utilice la transmisión para procesar salidas largas (especialmente con grandes presupuestos de tokens) mientras se generan.

¿Cómo mido, pruebo y optimizo el rendimiento y el costo?

¿Qué métricas debo seguir?

  • Tokens por solicitud y costo por llamada (use el tamaño del modelo + verbosidad para estimar).
  • Latencia (p95/p99) y tasas de error — especialmente para solicitudes que activan la ejecución de herramientas externas.
  • Métricas de calidad:tasas de éxito de verificación automatizada, tasas de validación humana, frecuencia de alucinaciones en pruebas de oro.

Cómo realizar experimentos

  • Tamaños de modelos A/B (gpt-5 vs gpt-5-mini) en una carga de trabajo representativa para medir la precisión frente al coste. Para cargas de trabajo que requieren muchas respuestas breves, mini or nano A menudo reduce drásticamente los costos, manteniendo una precisión aceptable. La cobertura de los proveedores y la prensa destaca estas desventajas en las primeras pruebas de referencia; realice sus propias pruebas en tareas críticas.

¿Cuáles son las limitaciones y consideraciones sobre el uso responsable?

¿GPT-5 es AGI o infalible?

OpenAI posiciona GPT-5 como una mejora sustancial en usabilidad y razonamiento, no en IA general. Se esperan mejoras significativas en las capacidades (codificación, matemáticas, razonamiento multipaso), pero también errores y alucinaciones ocasionales. Planifique flujos de trabajo de productos que verifiquen la exactitud de los resultados del modelo antes de su ejecución automatizada en dominios sensibles.

Cumplimiento, privacidad y gobernanza de datos

  • Trate las indicaciones y los resultados del modelo como confidenciales: enmascare la información PII antes de enviarla a la API si su política prohíbe enviar dichos datos.
  • Conozca las políticas de retención y uso de los términos de OpenAI para su cuenta/región. Utilice contratos empresariales para una mayor protección de datos si es necesario.
  • Documentar y divulgar la función del modelo para los usuarios finales cuando las decisiones los afectan materialmente (requisitos de transparencia en muchas jurisdicciones).

Lista de verificación rápida y patrones de código para comenzar

Lista de verificación previa al lanzamiento

  1. Elija el modelo objetivo (precisión vs costo): gpt-5, gpt-5-mini o gpt-5-nano.
  2. Definición verbosity valores predeterminados para cada punto final (por ejemplo, puntos finales de API que potencian la búsqueda rápida frente al análisis profundo).
  3. Registrarse y endurecerse custom tiempos de ejecución de herramientas (sandboxing, validadores, registros).
  4. Agregue pasos de verificación automatizada para cualquier salida de herramienta ejecutada en sus sistemas.
  5. Cree paneles de monitoreo para tokens, latencia y métricas de calidad del modelo.

Ejemplo de patrón de orquestación (pseudocódigo)

  1. Solicitud de usuario → elija modelo y verbosidad (lógica de enrutamiento).
  2. El mensaje del sistema define la sintaxis de la herramienta + el modo de razonamiento.
  3. Enviar solicitud de finalización del chat.
  4. Si el asistente invoca custom herramienta: validar carga útil → ejecutar en sandbox → devolver resultado al asistente → el asistente finaliza la respuesta.
  5. Si la operación es de alto riesgo: se requiere aprobación humana.

Utilice GPT-5 en CometAPI

CometAPI es una plataforma API unificada que integra más de 500 modelos de IA de proveedores líderes, como la serie GPT de OpenAI, Gemini de Google, Claude de Anthropic, Midjourney, Suno y más, en una única interfaz intuitiva para desarrolladores. Al ofrecer autenticación, formato de solicitudes y gestión de respuestas consistentes, CometAPI simplifica drásticamente la integración de las capacidades de IA en sus aplicaciones. Ya sea que esté desarrollando chatbots, generadores de imágenes, compositores musicales o canales de análisis basados ​​en datos, CometAPI le permite iterar más rápido, controlar costos y mantenerse independiente del proveedor, todo mientras aprovecha los últimos avances del ecosistema de IA.

Para obtener las referencias definitivas, revise la entrada del Cookbook de OpenAI sobre parámetros y herramientas de GPT-5: estas son las fuentes principales de campos de API, registro de herramientas y patrones de uso.

Reflexiones finales

La combinación de tamaños de modelos del GPT-5, nuevos parámetros como verbosity e custom La compatibilidad con la carga útil sin procesar de las herramientas crea nuevas y potentes opciones para los equipos de producto, desde trabajos de puntuación masiva de bajo coste hasta flujos de trabajo de "software bajo demanda" donde el modelo genera código o SQL que ejecuta su entorno de ejecución seguro. Las ventajas y desventajas son comunes: capacidad frente a coste, velocidad frente a profundidad, y automatización frente a supervisión humana. Empiece con poco (elija un único caso de uso de descubrimiento), instrumente con intensidad e itere: diseñe los entornos de ejecución y las indicaciones de sus herramientas para que los resultados del modelo sean... verificable antes de que se conviertan en acciones.

Los desarrolladores pueden acceder GPT-5 GPT-5 Nano y GPT-5 Mini a través de CometAPI. Las últimas versiones de los modelos mencionados corresponden a la fecha de publicación del artículo. Para comenzar, explore las capacidades del modelo en... Playground y consultar el Guía de API Para obtener instrucciones detalladas, consulte la sección "Antes de acceder, asegúrese de haber iniciado sesión en CometAPI y de haber obtenido la clave API". CometAPI Ofrecemos un precio muy inferior al oficial para ayudarte a integrarte.

Puedes usar la API gpt-5 de Cpmr para experimentar con nuevos parámetros. Simplemente reemplaza la clave openAI por la clave CometAPI. Dos opciones: Patrón de llamada a la función de finalización de chat y Patrón de llamada a función de respuesta.

El paso de CoT solo existe en la API de Respuestas, lo que mejora la inteligencia, reduce la cantidad de tokens de inferencia generados, mejora las tasas de acierto de caché y reduce la latencia. La mayoría de los demás parámetros se mantienen, pero el formato es diferente. Por lo tanto, recomendamos usar Respuesta formato para acceder a gpt-5 en CometAPI.

SHARE THIS BLOG

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento