La API de Respuestas de OpenAI recibe una importante actualización en lugar de la API de Asistentes

CometAPI
AnnaMay 27, 2025
La API de Respuestas de OpenAI recibe una importante actualización en lugar de la API de Asistentes

OpenAI ha implementado una importante actualización de su API de Respuestas, que incorpora un conjunto de potentes herramientas y funciones empresariales que transforman la forma en que los desarrolladores crean aplicaciones con agentes. Anunciada el 21 de mayo de 2025, esta versión se basa en la API de Respuestas inicial, lanzada en marzo de 2025, que sustituyó a la API de Asistentes y ya ha procesado billones de tokens en modelos como GPT-4o y los motores de razonamiento de la serie o.

En qué se diferencia de la API tradicional ChatGPT (finalizaciones de chat)

  • Compleciones primitivas con agente primero vs. compleciones de solo texto: A diferencia de la API de finalizaciones de chat, que devuelve texto sin formato según las indicaciones, la API de respuestas está diseñada como un primitivo central para crear experiencias "agenticas", lo que permite que los modelos planifiquen y ejecuten tareas de varios pasos llamando a herramientas externas directamente dentro de su cadena de pensamiento.
  • Orquestación de herramientas integrada: Mientras que Chat Completions ofrece la capacidad de llamar a funciones, Responses unifica la invocación de herramientas (como la generación de imágenes o la ejecución de código) en una única llamada API optimizada, lo que reduce el código repetitivo y mejora la productividad del desarrollador.
  • Estado de razonamiento preservado: Modelos como o3 y o4-mini mantienen tokens de razonamiento en todas las llamadas e invocaciones de herramientas, lo que genera una comprensión contextual más rica y una latencia más baja en comparación con las finalizaciones sin estado.
  • Confiabilidad de nivel empresarial: Las características como el modo de fondo para tareas asincrónicas, los resúmenes de razonamiento para auditabilidad y los elementos de razonamiento cifrados para clientes de retención de datos cero brindan SLA y controles de privacidad más sólidos que el punto final de Finalizaciones de chat estándar.

Nuevas capacidades

  1. Soporte de servidor MCP remoto: Conecte cualquier servidor de protocolo de contexto de modelo (Shopify, Stripe, Twilio y más) para ampliar el contexto del modelo con fuentes de datos de terceros a través de solo unas pocas líneas de código.
  2. Generación de imágenes nativas: Acceda al gpt-image-1 modelo como una herramienta dentro de Responses, lo que permite vistas previas transmitidas y ediciones de múltiples turnos sin llamadas API separadas.
  3. Intérprete de código integrado: Realice análisis de datos, cálculos complejos y manipulaciones de imágenes directamente dentro del flujo de la agencia, mejorando el rendimiento en los puntos de referencia de la industria.
  4. Búsqueda mejorada de archivos: Realice consultas en múltiples tiendas de vectores con filtros de atributos para extraer fragmentos de documentos relevantes del contexto, lo que simplifica las integraciones de la base de conocimiento.
  5. Funciones empresariales: Modo en segundo plano para administrar tareas de razonamiento de larga duración, resúmenes de razonamiento automáticos para depuración y elementos de razonamiento cifrados para implementaciones compatibles.

Precio y disponibilidad

Todas las nuevas herramientas y funciones están disponibles de inmediato en la API de Respuestas para GPT-4o, GPT-4.1 y los modelos de la serie o (o1, o3, o3-mini, o4-mini); la generación de imágenes solo es compatible con o3. Los precios se mantienen con las tarifas de las herramientas existentes:

  • Generación de imágenes: $5.00 por 1 millón de tokens de entrada de texto, $10.00 por 1 millón de tokens de entrada de imagen, $40.00 por 1 millón de tokens de salida de imagen (75% de descuento en entradas en caché)
  • Intérprete de código: $0.03 por ejecución de contenedor
  • Búsqueda de archivos: $0.10 por GB de almacenamiento vectorial por día (el primer GB es gratuito); $2.50 por cada 1 llamadas a herramientas
  • Servidores MCP remotos: Sin cargo adicional: se aplica la facturación de token de salida estándar.

No hay una tarifa de API de respuestas separada: los tokens se facturan según las tarifas de entrada/salida del modelo seleccionado (por ejemplo, GPT-4.1 según sus tarifas publicadas por token).

Los desarrolladores y las empresas pueden comenzar a integrar estas capacidades hoy mismo a través de client.responses.create Punto final. Con estas mejoras, OpenAI busca impulsar aplicaciones basadas en IA más inteligentes, confiables y seguras en todos los sectores. La API de Respuestas ya está disponible para todos los desarrolladores, y la API de Asistentes heredada quedará completamente obsoleta a mediados de 2026. Las integraciones existentes de Asistentes se pueden migrar con cambios mínimos en el código, gracias a la compatibilidad de los esquemas de solicitud y respuesta.

Primeros Pasos

CometAPI proporciona una interfaz REST unificada que integra cientos de modelos de IA, incluida la familia ChatGPT, en un punto final consistente, con gestión de claves API integrada, cuotas de uso y paneles de facturación. En lugar de tener que gestionar múltiples URL y credenciales de proveedores.

Los desarrolladores pueden acceder a la última API de chatgpt API GPT-4.1 atravesar CometAPIPara comenzar, explore las capacidades del modelo en el Playground y consulte la Guía de API Para obtener instrucciones detalladas, consulte la sección "Antes de acceder, asegúrese de haber iniciado sesión en CometAPI y de haber obtenido la clave API".

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento