ModèlesSupportEntrepriseBlog
500+ API de modèles IA, toutes en une seule API. Simplement avec CometAPI
API des modèles
Développeur
Démarrage rapideDocumentationTableau de bord API
Ressources
Modèles d'IABlogEntrepriseJournal des modificationsÀ propos
2025 CometAPI. Tous droits réservés.Politique de confidentialitéConditions d'utilisation
Home/Models/OpenAI/GPT 5 Codex
O

GPT 5 Codex

Entrée:$1/M
Sortie:$8/M
Contexte:400K
Sortie maximale:128K
GPT-5-Codex est un grand modèle de langage haute performance, axé sur la génération et la compréhension de code, avec des capacités améliorées pour les tâches de programmation complexes, le raisonnement sur le code et les applications de niveau production.
Nouveau
Usage commercial
Playground
Aperçu
Fonctionnalités
Tarification
API
Versions

Qu’est-ce que GPT-5-Codex ?

GPT-5-Codex est une variante spécialisée de la famille GPT-5 d’OpenAI conçue pour des workflows d’ingénierie logicielle complexes : codage, refactorisation à grande échelle, longues tâches agentiques en plusieurs étapes, et exécutions autonomes prolongées dans l’environnement Codex (CLI, extension IDE et cloud). Il est positionné comme le modèle par défaut du produit Codex d’OpenAI et est accessible via l’API Responses et les abonnements Codex.

Fonctionnalités clés

  • Optimisation agentique — ajusté pour tourner dans des boucles d’agents et des workflows pilotés par des outils (meilleure cohérence lors de l’utilisation d’outils/CLI). L’aspect agentique et l’usage d’outils sont de premier ordre.
  • Focus qualité de code — produit un code plus propre, plus pilotable pour la refactorisation, la relecture et les tâches de développement de longue durée.
  • Intégration IDE et produit — intégré aux produits développeurs (par ex., déploiements en avant‑première de GitHub Copilot) et au SDK/CLI Codex d’OpenAI.
  • API Responses uniquement — utilise le nouveau schéma Responses API (réutilisation de jetons, support des boucles d’agents) pour de meilleurs résultats ; les appels de type Completion hérités peuvent sous‑performer sur les tâches Codex.

Détails techniques — entraînement et architecture

  • Lignée de base : GPT-5-Codex est un dérivé de GPT-5, construit par affinage supplémentaire d’un instantané GPT-5 pour les tâches de codage et les comportements d’agent. Les internes du modèle (nombre exact de paramètres, calcul d’entraînement) ne sont pas publiquement détaillés ; OpenAI publie les capacités et l’approche d’affinage plutôt que le nombre brut de paramètres.
  • Focus d’entraînement : accent sur des corpus d’ingénierie logicielle du monde réel, des traces d’agents interactives, des trajectoires d’utilisation d’outils, et un réglage par instructions pour améliorer la pilotabilité et l’exactitude sur de longues séquences.
  • Ajustement outils et boucle d’agent : les invites et définitions d’outils ont été ajustées pour que la boucle d’agent Codex s’exécute plus rapidement et produise des résultats multi‑étapes plus précis par rapport à un GPT-5 standard dans des configurations comparables.

Performances sur benchmarks

Des benchmarks publics de relecteurs indépendants et de sites agrégateurs montrent que GPT-5-Codex est leader ou proche des meilleurs sur des benchmarks modernes de codage :

  • SWE-Bench (tâches de codage réelles) : des rapports récapitulatifs indépendants indiquent ~≈77 % de réussite sur une suite de 500 tâches (rapporté dans une revue tierce). Cela a été noté comme légèrement au‑dessus de la base GPT-5 (élevée) généraliste dans cette revue.
  • LiveCodeBench / autres benchmarks de code : des sites agrégateurs rapportent de hautes performances relatives (exemples incluant des scores LiveCodeBench dans le milieu des 80 pour certaines tâches).

Versionnage du modèle et disponibilité

Canaux de disponibilité : API Responses (ID de modèle gpt-5-codex)

gpt-5-codex-low/medium/high – Spécialisés pour le codage et l’ingénierie logicielle :

  • gpt-5-codex-low
  • gpt-5-codex-medium
  • gpt-5-codex-high

Prend en charge les appels au format /v1/responses

Limitations

  • Latence et calcul : les workflows agentiques peuvent être gourmands en ressources et parfois plus lents que des modèles plus légers, notamment lorsque le modèle exécute des suites de tests ou réalise une analyse statique étendue.
  • Hallucinations et excès de confiance : malgré les améliorations, GPT-5-Codex peut encore halluciner des API, des chemins de fichiers ou une couverture de tests — les utilisateurs doivent valider le code généré et les sorties CI.
  • Longueur de contexte et état : bien que le modèle soit ajusté pour des sessions plus longues, il reste borné par des limites pratiques de contexte/attention ; des bases de code extrêmement grandes nécessitent une segmentation, un enrichissement par récupération, ou une mémoire assistée par outils.
  • Sécurité : des modifications de code automatisées peuvent introduire des régressions de sécurité ou des violations de licence ; une supervision humaine et des gardes‑fous CI sécurisés sont indispensables.

Cas d’utilisation

  • Revue de code automatisée — produire des commentaires de relecteur, identifier des régressions et suggérer des correctifs.
  • Développement de fonctionnalités et refactorisation — grandes modifications multi‑fichiers, avec tests exécutés par le modèle et validation CI.
  • Synthèse de tests et automatisation TDD — générer des tests unitaires/intégration et itérer jusqu’au passage.
  • Assistants et agents pour développeurs — intégrés aux plugins d’IDE, aux pipelines CI, ou à des agents autonomes pour mener des tâches d’ingénierie complexes.

Comment utiliser l’API GPT-5 Codex

Étapes requises

  • Connectez‑vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire.
  • Connectez‑vous à votre console CometAPI.
  • Obtenez la clé d’API d’accès de l’interface. Cliquez sur « Add Token » dans la section API token du centre personnel, récupérez la clé de jeton : sk-xxxxx et validez.

Méthode d’utilisation

  1. Sélectionnez l’endpoint « gpt-5-codex » pour envoyer la requête d’API et définissez le corps de requête. La méthode et le corps de requête sont disponibles dans la documentation API de notre site. Notre site propose également des tests Apifox pour votre commodité.
  2. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle depuis votre compte.
  3. Insérez votre question ou votre requête dans le champ content — c’est à cela que le modèle répondra.
  4. Traitez la réponse de l’API pour obtenir la réponse générée.

CometAPI fournit une API REST entièrement compatible — pour une migration sans friction. Détails clés sur Responses

Voir aussi GPT-5.1 API et GPT-5.1-Chat-latest API

Fonctionnalités pour GPT 5 Codex

Découvrez les fonctionnalités clés de GPT 5 Codex, conçues pour améliorer les performances et la facilité d'utilisation. Explorez comment ces capacités peuvent bénéficier à vos projets et améliorer l'expérience utilisateur.

Tarification pour GPT 5 Codex

Découvrez des tarifs compétitifs pour GPT 5 Codex, conçus pour s'adapter à différents budgets et besoins d'utilisation. Nos formules flexibles garantissent que vous ne payez que ce que vous utilisez, ce qui facilite l'adaptation à mesure que vos besoins évoluent. Découvrez comment GPT 5 Codex peut améliorer vos projets tout en maîtrisant les coûts.
Prix de Comet (USD / M Tokens)Prix officiel (USD / M Tokens)Remise
Entrée:$1/M
Sortie:$8/M
Entrée:$1.25/M
Sortie:$10/M
-20%

Exemple de code et API pour GPT 5 Codex

Accédez à des exemples de code complets et aux ressources API pour GPT 5 Codex afin de simplifier votre processus d'intégration. Notre documentation détaillée fournit des instructions étape par étape pour vous aider à exploiter tout le potentiel de GPT 5 Codex dans vos projets.
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-codex", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-codex", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-codex",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-codex",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Versions de GPT 5 Codex

La raison pour laquelle GPT 5 Codex dispose de plusieurs instantanés peut inclure des facteurs potentiels tels que des variations de sortie après des mises à jour nécessitant des instantanés plus anciens pour la cohérence, offrant aux développeurs une période de transition pour l'adaptation et la migration, et différents instantanés correspondant à des points de terminaison globaux ou régionaux pour optimiser l'expérience utilisateur. Pour les différences détaillées entre les versions, veuillez consulter la documentation officielle.
version
gpt-5-codex
gpt-5-codex-high
gpt-5-codex-low
gpt-5-codex-medium

Plus de modèles

A

Claude Opus 4.6

Entrée:$4/M
Sortie:$20/M
Claude Opus 4.6 est le grand modèle de langage de classe « Opus » d’Anthropic, publié en février 2026. Il est positionné comme un outil polyvalent pour le travail cognitif et les flux de travail de recherche — améliorant le raisonnement en contexte long, la planification à plusieurs étapes, l’utilisation d’outils (y compris des flux de travail logiciels basés sur des agents) et l’exécution de tâches informatiques telles que la génération automatisée de diapositives et de feuilles de calcul.
A

Claude Sonnet 4.6

Entrée:$2.4/M
Sortie:$12/M
Claude Sonnet 4.6 est notre modèle Sonnet le plus performant à ce jour. Il s’agit d’une mise à niveau complète des capacités du modèle dans la programmation, l’usage de l’ordinateur, le raisonnement sur des contextes étendus, la planification d’agents, le travail intellectuel et la conception. Sonnet 4.6 propose également une fenêtre de contexte de 1M de jetons en bêta.
O

GPT-5.4 nano

Entrée:$0.16/M
Sortie:$1/M
GPT-5.4 nano est conçu pour des tâches où la vitesse et le coût comptent le plus, comme la classification, l’extraction de données, le classement et les sous-agents.
O

GPT-5.4 mini

Entrée:$0.6/M
Sortie:$3.6/M
GPT-5.4 mini apporte les atouts de GPT-5.4 dans un modèle plus rapide et plus efficace, conçu pour des charges de travail à grande échelle.
A

Claude Mythos Preview

A

Claude Mythos Preview

Bientôt disponible
Entrée:$60/M
Sortie:$240/M
Claude Mythos Preview est à ce jour notre modèle de pointe le plus performant et affiche un bond spectaculaire des scores sur de nombreux benchmarks d’évaluation, par rapport à notre précédent modèle de pointe, Claude Opus 4.6.
X

mimo-v2-pro

Entrée:$0.8/M
Sortie:$2.4/M
MiMo-V2-Pro est le modèle fondationnel phare de Xiaomi, doté de plus de 1T de paramètres au total et d’une longueur de contexte de 1M, profondément optimisé pour des scénarios agentiques. Il est hautement adaptable aux frameworks d’agents généraux comme OpenClaw. Il se classe parmi l’élite mondiale sur les benchmarks standard PinchBench et ClawBench, avec des performances perçues proches de celles d’Opus 4.6. MiMo-V2-Pro est conçu pour servir de cerveau des systèmes d’agents, orchestrer des workflows complexes, piloter des tâches d’ingénierie de production et livrer des résultats de manière fiable.