Le 5 février 2026, OpenAI a annoncé GPT-5.3-Codex, une mise à niveau ciblée de sa famille Codex qui combine des capacités de programmation avancées avec un raisonnement professionnel plus large, une inférence plus rapide et des workflows « agentiques » plus approfondis. Cette version apporte une nouvelle application Codex pour ordinateur de bureau et étend l’accès à l’écosystème Codex (CLI, extensions d’IDE, web), avec un accès API (promis « bientôt »).
Qu’est-ce que GPT-5.3-Codex ?
GPT-5.3-Codex est le dernier modèle de programmation agentique de la gamme Codex d’OpenAI : un modèle entraîné et ajusté spécifiquement pour fonctionner au sein des workflows des développeurs, interagir avec des outils (terminaux, éditeurs, points de terminaison web) et exécuter des tâches d’ingénierie de long terme nécessitant planification, utilisation d’outils et débogage itératif. OpenAI présente GPT-5.3-Codex comme le successeur qui combine les forces en codage de GPT-5.2-Codex avec les améliorations en raisonnement et connaissances professionnelles de GPT-5.2, aboutissant à un modèle unique conçu pour agir davantage comme un coéquipier d’ingénierie collaboratif.
Origines et objectifs de conception
- Workflows agentiques : Le modèle est ajusté pour orchestrer des séquences d’actions dans le temps (p. ex., lancer des tests, corriger le code, relancer), et pas seulement produire des réponses ponctuelles.
- Intégration aux outils : Codex est conçu pour utiliser les outils des développeurs — CLIs, débogueurs, gestionnaires de paquets — de manière sûre et fiable, en préservant l’état d’une session à l’autre.
- Aide pratique aux développeurs : L’objectif est pragmatique : réduire les changements de contexte, accélérer le dépannage, automatiser les tâches routinières (tests, refactorisations, récupération de code) et soutenir le pilotage collaboratif par l’utilisateur.
Quoi de neuf dans GPT-5.3-Codex ?
GPT-5.3-Codex introduit plusieurs changements concrets et des améliorations au niveau produit par rapport à ses prédécesseurs immédiats :
1. Inférence plus rapide pour les utilisateurs de Codex
OpenAI indique que GPT-5.3-Codex fonctionne environ 25 % plus vite pour les utilisateurs de Codex grâce à des améliorations de la pile d’inférence et des optimisations d’infrastructure. Ce gain de vitesse est présenté à la fois comme une latence plus faible lors du débogage interactif et comme un facteur permettant des exécutions agentiques plus longues et plus fluides.
2. Unification des forces en raisonnement et en codage
Plutôt que d’être uniquement « orienté codage », GPT-5.3-Codex fusionne la performance de pointe en programmation de GPT-5.2-Codex avec un raisonnement professionnel amélioré (issu de GPT-5.2), ce qui le rend meilleur pour les tâches à forte composante de recherche : lecture de documentation, planification de migrations en plusieurs étapes, et production de justifications et de preuves de tests aux côtés du code.
3. Meilleure collaboration et pilotage pendant l’exécution
Un changement majeur côté utilisateur est une interaction de type collaborateur améliorée pendant que le modèle « travaille » : Codex signale plus fréquemment sa progression, accepte des instructions de pilotage en cours d’exécution, et conserve le contexte et l’état sur les tâches à plusieurs étapes — l’utilisateur peut ainsi interrompre, corriger ou orienter l’agent pendant son exécution. Les notes produit indiquent que ce comportement de « pilotage » est en cours de stabilisation sur l’ensemble des outils Codex.
4. L’application de bureau Codex (et une synchronisation inter-clients plus étroite)
OpenAI a lancé une application Codex qui synchronise l’historique des sessions et la configuration avec le CLI Codex et les extensions d’IDE — un développeur peut ainsi commencer dans son éditeur ou son terminal et reprendre le travail dans l’application de bureau sans perdre l’état. L’application est présentée comme le hub de coordination des workflows agentiques.
5. Comportement agentique pour les tâches de longue durée
GPT-5.3-Codex est explicitement optimisé pour des tâches pouvant s’exécuter pendant de longues périodes, s’entrelacer avec des appels d’outils, et nécessiter un pilotage en cours de tâche (pause/reprise, changement d’objectifs). Cela améliore les capacités sur les refactorisations complexes, le travail de fonctionnalités multi-modules et les tâches inter-dépôts.
GPT-5.3-Codex sur les benchmarks
| GPT-5.3-Codex (xhigh) | GPT-5.2-Codex (xhigh) | GPT-5.2 (xhigh) | |
|---|---|---|---|
| SWE-Bench Pro (Public) | 56.8% | 56.4% | 55.6% |
| Terminal-Bench 2.0 | 77.3% | 64.0% | 62.2% |
| OSWorld-Verified | 64.7% | 38.2% | 37.9% |
| GDPval (wins or ties) | 70.9% | - | 70.9% (high) |
| Cybersecurity Capture The Flag Challenges | 77.6% | 67.4% | 67.7% |
| SWE-Lancer IC Diamond | 81.4% | 76.0% | 74.6% |
Résultats de benchmark représentatifs
- Terminal-Bench 2.0 : GPT-5.3-Codex obtiendrait un score ≈77.3 %, un bond important qui signale une bien plus grande maîtrise des workflows en ligne de commande et terminal par rapport à la génération précédente.
- SWE-Bench Pro : OpenAI rapporte ≈56.8 % sur un benchmark rigoureux d’ingénierie logicielle couvrant plusieurs langages et défis industriels, une amélioration modeste mais utile par rapport aux modèles antérieurs.
- OSWorld-Verified et métriques CTF en cybersécurité : La fiche système et les rapports d’OpenAI citent des améliorations sur les benchmarks d’« utilisation de l’ordinateur » (OSWorld) et sur les tâches de type capture-the-flag en cybersécurité (progrès notables par rapport à GPT-5.2-Codex).
Comment les développeurs et les organisations peuvent-ils accéder à GPT-5.3-Codex ?
Dans quels produits et interfaces est-il disponible aujourd’hui ?
- Codex app (desktop & web) : OpenAI a lancé une application Codex dédiée qui préserve les sessions et synchronise la configuration avec le CLI et les extensions d’IDE — pour beaucoup d’utilisateurs, l’application est le moyen principal d’exécuter des workflows agentiques avec une interface graphique et un état persistant.
- Codex CLI : Les utilisateurs orientés terminal peuvent interagir avec Codex via une interface en ligne de commande qui s’intègre aux dépôts locaux et aux workflows.
- Extensions d’IDE : Des plugins pour les IDE courants (Visual Studio Code, famille JetBrains) permettent à Codex de vivre dans l’éditeur, de proposer du code, d’exécuter des tests locaux et d’appliquer des changements sur place.
- Interface web : L’accès web standard via les pages ChatGPT/Codex offre une option sans installation pour de nombreux utilisateurs.
Note importante sur la disponibilité : OpenAI indique que GPT-5.3-Codex est disponible pour les offres ChatGPT payantes sur les surfaces Codex, et que l’accès API est prévu mais pas encore activé en attendant le travail de sécurité.
En attendant l’API GPT-5.3 Codex, les développeurs peuvent utiliser le tout aussi riche en fonctionnalités GPT-5.2 Codex sur CometAPI afin de se préparer à migrer vers GPT-5.3 Codex. Lorsque l’API GPT-5.3 Codex sera publiée, vous pourrez passer à la nouvelle version en quelques minutes au lieu de repartir de zéro.
1. Application Codex (bureau)
- Qui : développeurs individuels et équipes souhaitant une surface de coordination centrée sur une interface graphique.
- Quoi : synchronise l’historique des sessions et les configurations depuis le CLI et l’IDE, met en avant les tâches agentiques en cours et les journaux, et sert de hub pour les opérations de longue durée.
- Comment commencer : connectez-vous avec votre compte ChatGPT dans l’application Codex ; les sessions démarrées dans l’IDE/CLI apparaissent dans l’application.
2. Codex CLI (terminal)
- Qui : développeurs orientés terminal, ingénieurs DevOps, SRE.
- Quoi : exécuter des actions Codex, lancer des commandes, exécuter des tests et recevoir des retours structurés en ligne dans votre projet. Le CLI est utile pour l’automatisation et le scripting avec le modèle en tant qu’outil.
- Comment commencer : installez le CLI Codex (paquet et instructions disponibles via la documentation développeur d’OpenAI), connectez-vous avec votre compte ChatGPT ou vos identifiants d’équipe, et pointez-le vers votre dépôt.
3. Extensions d’IDE (VS Code et autres)
- Qui : développeurs centrés sur l’éditeur.
- Quoi : assistance dans l’éditeur, automatisation de la revue de pull requests (p. ex., taguer
@codexsur les PR pour demander une revue automatisée), et possibilité d’exécuter des flux agentiques sans quitter l’éditeur. Les extensions prennent en charge la connexion par compte — pas de gymnastique avec des clés API pour de nombreux workflows.
4. Web/ChatGPT
- Qui : utilisateurs légers ou exploratoires, chefs de produit, et équipes souhaitant un accès web.
- Quoi : GPT-5.3-Codex est disponible via l’interface ChatGPT pour les abonnés payants. L’interface web offre un accès immédiat aux fonctionnalités de Codex dans un navigateur.
5. API (bientôt disponible)
- Qui : entreprises souhaitant intégrer Codex dans des pipelines CI/CD, des outils automatisés ou des plateformes propriétaires.
- À quoi s’attendre : OpenAI indique que l’accès API pour GPT-5.3-Codex est en préparation
Que signifie GPT-5.3-Codex pour l’écosystème des développeurs ?
Impact à court terme
- Gain de productivité pour le travail routinier : de nombreuses équipes verront des itérations plus rapides sur les tests, les refactorisations et le débogage. L’intégration IDE et CLI réduit les frictions pour adopter des workflows agentiques.
- Nouveaux modes de collaboration : les ingénieurs interagiront de plus en plus avec l’IA comme avec un « coéquipier » — en émettant des commandes de pilotage, en passant en revue les sorties de l’agent, et en faisant confiance au modèle pour des tâches répétitives mais critiques telles que le formatage de code, l’échafaudage et les correctifs de routine.
Effets sectoriels à plus long terme
- Consolidation de la chaîne d’outils : des outils agentiques intégrés (application + CLI + IDE) peuvent réduire la fragmentation des outils si les équipes adoptent un workflow centré sur Codex.
- Concurrence et spécialisation : les sorties de la même semaine chez Anthropic et d’autres soulignent que les fournisseurs se positionnent sur des niches différentes (p. ex., d’énormes fenêtres de contexte vs. vitesse de codage agentique), ce qui poussera les entreprises à choisir les modèles en fonction des cas d’usage plutôt qu’en fonction de la marque.
Rôles et main-d’œuvre
- Augmentation, pas remplacement (pour l’instant) : si Codex automatise de nombreuses tâches des développeurs, les ingénieurs humains restent essentiels pour l’architecture, la sécurité, le raisonnement critique et la gouvernance — en particulier lorsque la sécurité en production est en jeu. Codex change la distribution des efforts plutôt que d’éliminer purement et simplement des rôles.
Les développeurs peuvent accéder à GPT-5.2 Codex via CometAPI dès maintenant. Pour commencer, explorez les capacités du modèle dans le Playground et consultez le guide API pour des instructions détaillées. Avant d’y accéder, veillez à vous connecter à CometAPI et à obtenir la clé API. CometAPI propose un prix bien inférieur au tarif officiel pour vous aider à intégrer.
Prêt à démarrer ? → Sign up fo code today !
Si vous souhaitez plus d’astuces, de guides et d’actualités sur l’IA, suivez-nous sur VK, X et Discord !
