Home/Blog/L'API OpenAI Responses bénéficie d'une mise à niveau majeure à la place de l'API Assistants
Étiquettes
open-ai
responses-api
Plus de 500 modèles dans une seule APIJusqu'à 90% de réduction
En savoir plus

500+ Modèles en Une API

Jusqu'à 20% de réduction

L'API OpenAI Responses bénéficie d'une mise à niveau majeure à la place de l'API Assistants

CometAPI
AnnaMay 27, 2025
L'API OpenAI Responses bénéficie d'une mise à niveau majeure à la place de l'API Assistants

OpenAI a déployé une mise à niveau significative de son API Responses, introduisant une suite d'outils puissants et de fonctionnalités professionnelles qui transforment la façon dont les développeurs créent des applications agentiques. Annoncée le 21 mai 2025, cette version s'appuie sur l'API Responses initiale lancée en mars 2025, qui a remplacé l'API Assistants et a déjà traité des milliards de jetons sur des modèles tels que GPT-4o et les moteurs de raisonnement de la série o.

En quoi diffère-t-il de l'API traditionnelle ChatGPT (Chat Completions) ?

  • Complétions primitives de type Agent-First vs. Complétions textuelles uniquement : Contrairement à l'API Chat Completions, qui renvoie du texte brut en fonction des invites, l'API Responses est conçue comme une primitive de base pour la création d'expériences « agentiques », permettant aux modèles de planifier et d'exécuter des tâches en plusieurs étapes en appelant des outils externes directement dans leur chaîne de pensée.
  • Orchestration d'outils intégrés : Alors que Chat Completions offre une capacité d'appel de fonction, Responses unifie l'invocation d'outils (tels que la génération d'images ou l'exécution de code) en un seul appel d'API rationalisé, réduisant ainsi le code standard et améliorant la productivité des développeurs.
  • État de raisonnement préservé : Des modèles comme o3 et o4-mini conservent des jetons de raisonnement entre les appels et les invocations d'outils, ce qui permet une compréhension contextuelle plus riche et une latence plus faible par rapport aux complétions sans état.
  • Fiabilité de niveau entreprise : Des fonctionnalités telles que le mode d'arrière-plan pour les tâches asynchrones, les résumés de raisonnement pour l'auditabilité et les éléments de raisonnement chiffrés pour les clients Zero Data Retention offrent des SLA et des contrôles de confidentialité plus stricts que le point de terminaison standard des complétions de chat.

Nouvelles capacités

  1. Prise en charge du serveur MCP à distance : Connectez n'importe quel serveur Model Context Protocol (Shopify, Stripe, Twilio, etc.) pour étendre le contexte du modèle avec des sources de données tierces via seulement quelques lignes de code.
  2. Génération d'images natives : Accéder au gpt-image-1 modèle en tant qu'outil au sein de Responses, permettant des aperçus en continu et des modifications multi-tours sans appels API séparés.
  3. Interpréteur de code intégré : Effectuez des analyses de données, des calculs complexes et des manipulations d'images directement dans le flux agentique, améliorant ainsi les performances par rapport aux références du secteur.
  4. Recherche de fichiers améliorée : Interrogez plusieurs magasins de vecteurs avec des filtres d'attributs pour extraire des extraits de documents pertinents dans leur contexte, simplifiant ainsi les intégrations de la base de connaissances.
  5. Fonctionnalités d'entreprise : Mode d'arrière-plan pour gérer les tâches de raisonnement de longue durée, les résumés de raisonnement automatique pour le débogage et les éléments de raisonnement chiffrés pour les déploiements conformes.

Prix ​​et disponibilité

Tous les nouveaux outils et fonctionnalités sont disponibles immédiatement dans l'API Réponses pour GPT-4o, GPT-4.1 et les modèles de la série O (o1, o3, o3-mini, o4-mini) ; la génération d'images est prise en charge uniquement sur o3. Les tarifs restent inchangés par rapport aux tarifs actuels des outils :

  • Génération d'images : 5.00 $ pour 1 M de jetons d'entrée de texte, 10.00 $ pour 1 M de jetons d'entrée d'image, 40.00 $ pour 1 M de jetons de sortie d'image (75 % de réduction sur les entrées mises en cache)
  • Interprète de code : 0.03 $ par exécution de conteneur
  • Recherche de fichier: 0.10 $ par Go de stockage vectoriel par jour (premier Go gratuit) ; 2.50 $ pour 1 XNUMX appels d'outils
  • Serveurs MCP distants : Aucun frais supplémentaire : la facturation par jeton de sortie standard s'applique.

Aucun frais d'API de réponses distinct : les jetons sont facturés aux taux d'entrée/sortie du modèle sélectionné (par exemple, GPT-4.1 à ses taux par jeton publiés).

Les développeurs et les entreprises peuvent commencer à intégrer ces fonctionnalités dès aujourd’hui via le client.responses.create Point de terminaison. Grâce à ces améliorations, OpenAI vise à développer des applications basées sur l'IA plus intelligentes, plus fiables et plus sécurisées dans tous les secteurs. L'API Réponses est disponible dès aujourd'hui pour tous les développeurs, et l'ancienne API Assistants sera totalement obsolète d'ici mi-2026. Les intégrations Assistants existantes peuvent être migrées avec un minimum de modifications de code, grâce à des schémas de requêtes et de réponses compatibles.

Pour commencer

CometAPI fournit une interface REST unifiée qui regroupe des centaines de modèles d'IA, dont la famille ChatGPT, sous un point de terminaison cohérent, avec gestion intégrée des clés API, des quotas d'utilisation et des tableaux de bord de facturation. Plus besoin de jongler avec plusieurs URL et identifiants de fournisseurs.

Les développeurs peuvent accéder à la dernière API chatgpt API GPT-4.1 à travers API CometPour commencer, explorez les capacités du modèle dans le Playground et consultez le Guide de l'API Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API avant d'y accéder.