Décryptage de l’Agents SDK d’OpenAI : un guide

CometAPI
AnnaMar 11, 2025
Décryptage de l’Agents SDK d’OpenAI : un guide

OpenAI introduit plusieurs nouvelles offres : Responses API, des outils intégrés pour la recherche web et de fichiers, un outil d’utilisation d’ordinateur et le SDK open source Agents. Alors que la Responses API permet aux développeurs de créer des agents au-dessus de sa technologie, le SDK Agents peut les aider à relier des agents à d’autres outils et processus web, en exécutant des « flux de travail » qui réalisent de manière autonome ce que l’utilisateur ou l’entreprise souhaite.

2025 est souvent saluée comme « l’année des agents » et l’initiative d’OpenAI est considérée comme une étape clé pour l’industrie. Le SDK Agents permet aux développeurs de tirer facilement parti des dernières avancées d’OpenAI (telles qu’un raisonnement amélioré, des interactions multimodales et de nouvelles techniques de sécurité) dans des scénarios concrets et multi-étapes. Pour les développeurs de LLM et les bâtisseurs d’agents IA, le SDK Agents fournit un ensemble de « briques » pour créer et gérer leurs propres systèmes d’IA autonomes.

L’importance du SDK Agents réside dans sa capacité à relever les défis du déploiement d’agents IA en production. Traditionnellement, traduire la puissance des LLM en flux de travail multi-étapes était laborieux, nécessitant beaucoup d’écriture de règles sur mesure, une conception séquentielle des prompts, et des essais-erreurs sans outils d’observabilité adéquats. Avec le SDK Agents et les nouveaux outils API associés comme la Responses API, OpenAI vise à simplifier considérablement ce processus, permettant aux développeurs de construire des agents plus complexes et fiables avec moins d’efforts.

Agents SDK

Qu’est-ce que l’Agents SDK

OpenAI revient en force dans l’open source avec la sortie de son Agents SDK, une boîte à outils conçue pour aider les développeurs à gérer, coordonner et optimiser les flux de travail d’agents — en construisant même des agents propulsés par d’autres modèles que ceux d’OpenAI, tels que ceux des concurrents Anthropic et Google, ou des modèles open source de DeepSeek, Qwen, Mistral et la famille Llama de Meta.

Pourquoi utiliser l’Agents SDK

Le SDK repose sur deux principes de conception directeurs :

  1. Assez de fonctionnalités pour valoir l’adoption, mais suffisamment peu de primitives pour être rapide à apprendre.
  2. Excellentes performances dès la sortie de la boîte, tout en permettant une personnalisation fine de ce qui se passe.

Voici les principales fonctionnalités du SDK :

  • Agent loop : boucle d’agent intégrée qui gère l’appel des outils, l’envoi des résultats au LLM et la boucle jusqu’à la fin du LLM.
  • Python-first : utilisez les fonctionnalités natives du langage pour orchestrer et chaîner des agents, sans devoir apprendre de nouvelles abstractions.
  • Handoffs : une fonctionnalité puissante pour coordonner et déléguer entre plusieurs agents.
  • Guardrails : exécutez des validations et contrôles d’entrées en parallèle de vos agents, avec arrêt anticipé en cas d’échec des contrôles.
  • Function tools : transformez n’importe quelle fonction Python en outil, avec génération automatique de schéma et validation propulsée par Pydantic.
  • Tracing : traçage intégré qui permet de visualiser, déboguer et superviser vos workflows, ainsi que d’utiliser la suite OpenAI d’évaluation, d’affinage (fine-tuning) et de distillation.

Comment utiliser Openai Agents SDK

  1. Configurez votre environnement Python
python -m venv env
source env/bin/activate
  1. Installez Agents SDK
pip install openai-agents
  1. définissez la variable d’environnement OPENAI_API_KEY

Définir librement l’API OPENAI_API_KEY depuis CometAPI

  • Se connecter à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire
  • Obtenir la clé d’API d’identification de l’interface. Cliquez sur “Add Token” dans la section API token du centre personnel, obtenez la clé de jeton : sk-xxxxx et soumettez.
  • Obtenez l’URL de ce site : https://api.cometapi.com/
  • Sélectionnez l’endpoint OPENAI_API_KEY pour envoyer la requête API et définir le corps de la requête. La méthode de requête et le corps de la requête sont fournis dans la documentation API de notre site. Notre site propose également des tests Apifox pour votre commodité.
  1. Configurez votre agent

Définissez les outils que votre IA peut utiliser. Disons que nous voulons activer la recherche web et la récupération de fichiers :

from agent_sdk import Agent, WebSearchTool, FileRetrievalTool

search_tool = WebSearchTool(api_key="your_api_key")
file_tool = FileRetrievalTool()

agent = Agent(tools=)

Votre agent sait désormais comment rechercher sur le web et récupérer des documents.

5. exécuter

Contrairement aux chatbots traditionnels, cette IA décide quel outil utiliser en fonction de l’entrée utilisateur :

def agent_task(query):
    result = agent.use_tool("web_search", query)
    return result

response = agent_task("Latest AI research papers")
print(response)

Aucune intervention manuelle — juste une exécution autonome.

La boucle de l’agent

Lorsque vous appelez Runner.run(), le SDK exécute une boucle jusqu’à obtenir un résultat final :

  1. Le LLM est appelé à l’aide du modèle et des paramètres de l’agent, ainsi que de l’historique des messages.
  2. Le LLM renvoie une réponse, qui peut inclure des appels d’outils.
  3. Si la réponse contient une sortie finale, la boucle s’arrête et la renvoie.
  4. Si la réponse contient un handoff, l’agent est remplacé par le nouvel agent et la boucle reprend à l’étape 1.
  5. Les appels d’outils sont traités (le cas échéant) et les messages de réponse d’outil sont ajoutés. La boucle reprend ensuite à l’étape 1.

Vous pouvez utiliser le paramètre max_turns pour limiter le nombre d’exécutions de la boucle.

Sortie finale

La sortie finale est la dernière chose que l’agent produit dans la boucle :

  • Si vous définissez un output_type sur l’agent, la sortie finale survient lorsque le LLM renvoie quelque chose de ce type via des sorties structurées.
  • S’il n’y a pas de output_type (c’est-à-dire des réponses en texte brut), alors la première réponse du LLM sans aucun appel d’outil ni handoff est considérée comme la sortie finale.

Exemple Hello world

from agents import Agent, Runner

agent = Agent(name="Assistant", instructions="You are a helpful assistant")

result = Runner.run_sync(agent, "Write a haiku about recursion in programming.")
print(result.final_output)

# Code within the code,

# Functions calling themselves,
# Infinite loop's dance.

Décryptage de l’Agents SDK d’OpenAI : un guide

Structure technique

« L’OpenAI Agents SDK se veut un cadre conceptuel démontrant comment différents agents, tels qu’un “Triage Agent” ou un “CRM Agent”, peuvent collaborer pour accomplir des tâches via des interactions avec des outils et des mécanismes de délégation. »

Composants centraux et architecture de l’Agents SDK

L’OpenAI Agents SDK repose sur un ensemble de principes concis mais robustes. Au cœur se trouve le concept d’Agent, qui représente une instance de modèle de langage personnalisée avec des instructions spécifiques et équipée pour utiliser divers outils. Les agents commencent par recevoir des requêtes utilisateur — telles que des questions ou des définitions de tâches — puis décomposent ces tâches en sous-tâches pouvant impliquer l’utilisation d’outils prédéfinis, pour finalement livrer une réponse complète. Ces Outils sont fonctionnellement décrits comme des fonctions appelables ; en tirant parti de l’Agents SDK, toute fonction Python peut servir d’outil de manière transparente, avec validation de schéma automatique pour les entrées et sorties via Pydantic. Par exemple, des fonctions Python représentant un outil de requête de base de données ou un outil de recherche web peuvent être intégrées directement dans la boîte à outils d’un agent.

Un autre élément central du SDK est la boucle d’agent, qui définit le processus itératif de résolution de tâche. À partir d’une tentative initiale de répondre à une requête, un agent évalue s’il dispose d’informations suffisantes ou s’il doit effectuer des actions externes. Au besoin, l’agent invoque un outil pertinent, traite la sortie et réévalue la tâche. Ce cycle se répète jusqu’à ce que l’agent signale l’achèvement de la tâche par une réponse « J’ai terminé ». L’Agents SDK gère ce processus de manière autonome, simplifiant le développement en automatisant les tâches récurrentes telles que l’invocation d’outils, la gestion des résultats et les reprises itératives. Cela permet aux développeurs de se concentrer davantage sur la définition des workflows et des capacités des agents sans se soucier de la mécanique sous-jacente. OpenAI décrit cette approche comme priorité au Python, en mettant l’accent sur l’utilisation de constructions Python familières — telles que les boucles, les conditionnels et les appels de fonctions — plutôt que des langages spécifiques au domaine (DSL). Grâce à cette flexibilité, les développeurs peuvent orchestrer des agents interconnectés tout en s’appuyant sur la syntaxe Python native.

Handoff et architecture multi-agents

Les capacités du SDK vont au-delà des agents individuels. Grâce à une fonctionnalité appelée Handoff, les tâches peuvent être transférées entre plusieurs agents, leur permettant de collaborer de manière fluide. Par exemple, un “Triage Agent” peut déterminer la nature d’une demande entrante, puis la déléguer à un autre agent spécialisé, ou la sortie d’un agent peut servir d’entrée à un autre. Ce système prend en charge des workflows où des agents spécialisés exécutent des parties distinctes d’une tâche plus large, rendant possibles des architectures multi-agents complexes. En outre, les Guardrails renforcent la fiabilité en imposant des règles de validation sur les entrées ou les sorties des agents. Par exemple, des garde-fous peuvent faire respecter la conformité au format des paramètres ou arrêter la boucle de manière anticipée lorsqu’une anomalie est détectée, réduisant les risques tels qu’une exécution inefficace ou des comportements indésirables en conditions réelles.

Orchestration et supervision

Au-delà de l’exécution des tâches, l’Agents SDK inclut des fonctionnalités d’orchestration robustes, prenant en charge l’exécution des outils, les flux de données et la gestion des boucles. Malgré le haut niveau d’automatisation, OpenAI privilégie la transparence, en dotant les développeurs d’outils pour superviser l’activité des agents en temps réel. Grâce au Tracing intégré, accessible depuis le tableau de bord OpenAI, les développeurs peuvent visualiser les workflows étape par étape, observer quand les outils sont appelés, les entrées qu’ils utilisent et les sorties qu’ils renvoient. La plateforme utilise l’infrastructure de supervision d’OpenAI pour décomposer l’exécution de la logique d’agent en traces et spans, offrant une visibilité granulaire sur le comportement des agents. Cela permet aux développeurs de diagnostiquer des goulots d’étranglement, de déboguer des problèmes, d’optimiser des workflows et de suivre les performances. De plus, l’architecture de traçage prend en charge des évaluations sophistiquées, permettant l’affinage et l’amélioration des performances des agents au fil du temps.

Avantages

L’OpenAI Agents SDK ne s’adresse pas seulement aux développeurs individuels ; il offre également des avantages significatifs aux entreprises qui construisent des produits basés sur des agents IA. Commençons par les avantages :

Prototypage rapide et mise en production : le SDK Agents implémente des comportements d’agents complexes avec un minimum de code et de configuration, raccourcissant le cycle de l’idée au produit. Par exemple, la plateforme crypto grand public Coinbase utilise le SDK pour prototyper et déployer rapidement des systèmes de support multi-agents. De même, dans des domaines tels que les assistants de recherche en entreprise, les entreprises peuvent intégrer les outils de recherche web et de fichiers du SDK pour livrer de la valeur rapidement. En déchargeant les détails d’orchestration, les développeurs peuvent se concentrer sur les fonctionnalités spécifiques au produit.

Réduction des coûts de développement : construire un système d’agents à partir de zéro nécessite un investissement d’ingénierie important. Le SDK Agents réduit les coûts en fournissant des solutions prêtes à l’emploi pour les besoins courants — gestion de boucle, synchronisation des appels d’API, gestion des erreurs, et formatage des sorties d’outils pour les LLM. Étant open source, il permet également des personnalisations pour répondre aux besoins de l’entreprise. C’est un atout pour les startups, leur permettant de créer des produits puissants pilotés par des agents avec des ressources limitées.

Traçabilité et débogage : le tableau de bord de suivi intégré du SDK transforme les applications métier. Les préoccupations de l’industrie concernant l’IA comme « boîte noire » laissent désormais chaque étape d’agent traçable et auditée. Si un agent de support client donne une mauvaise réponse, la trace montre quel appel d’outil ou quelle étape a échoué. L’écran de logs/traces de la plateforme OpenAI améliore l’auditabilité des agents — essentiel dans les secteurs soumis à la régulation ou à des audits internes. Cela permet aux entreprises d’intégrer l’IA avec plus de confiance, sachant qu’elles peuvent expliquer les résultats si nécessaire.

Accès aux derniers modèles et outils d’OpenAI : utiliser le SDK Agents signifie profiter des meilleurs modèles d’OpenAI (par ex. GPT-4) et des outils actuels (recherche web, exécution de code). Cela confère un avantage de qualité par rapport à des alternatives qui pourraient s’appuyer sur des modèles plus faibles. Pour les applications nécessitant une grande précision ou des informations à jour (par ex. assistants de recherche, agents d’analyse financière), les performances des modèles d’OpenAI sont un atout majeur. À mesure qu’OpenAI ajoute des outils (suggérant davantage d’intégrations à venir), les utilisateurs du SDK peuvent les adopter facilement.

CometAPI est entièrement compatible avec le protocole d’interface OpenAI afin d’assurer une intégration transparente. Vous pouvez éviter la dépendance aux modèles et services (risque de verrouillage), réduire les préoccupations de confidentialité et de sécurité des données, et diminuer les coûts. Tirer parti des modèles et outils puissants d’OpenAI peut être coûteux et parfois limiter les performances. CometAPI propose des tarifs plus bas.

Conclusion

OpenAI s’engage à faire progresser les capacités de l’IA avec des offres innovantes comme la Responses API. En introduisant ces outils, les entreprises et les développeurs ont l’opportunité de construire des solutions d’IA plus intelligentes, plus adaptatives et très fiables. Ces avancées pointent vers un avenir où l’intelligence artificielle continue de produire des changements marquants et de libérer de nouvelles possibilités dans tous les secteurs.

Accédez aux meilleurs modèles à moindre coût

En savoir plus