Am 5. Februar 2026 kündigte OpenAI GPT-5.3-Codex an, ein fokussiertes Upgrade der Codex-Familie, das fortgeschrittene Coding-Fähigkeiten mit breiterem professionellem Reasoning, schnellerer Inferenz und tieferen „agentischen“ Workflows vereint. Das Release bringt eine neue Codex-Desktop-App und erweitert den Zugriff im gesamten Codex-Ökosystem (CLI, IDE-Erweiterungen, Web), mit API-Zugriff (versprochen „bald“).
Was ist GPT-5.3-Codex?
GPT-5.3-Codex ist das neueste agentische Coding-Modell in OpenAIs Codex-Linie: ein Modell, das speziell dafür trainiert und getuned wurde, in Entwickler-Workflows zu arbeiten, mit Tools (Terminals, Editoren, Web-Endpunkten) zu interagieren und langfristige Engineering-Aufgaben auszuführen, die Planung, Toolnutzung und iteratives Debugging erfordern. OpenAI positioniert GPT-5.3-Codex als Nachfolger, der die Coding-Stärken von GPT-5.2-Codex mit den Verbesserungen im Reasoning und professionellen Wissen aus GPT-5.2 kombiniert und so ein einzelnes Modell liefert, das eher wie ein kollaborativer Engineering-Teamkollege agiert.
Herkunft und Designziele
- Agentische Workflows: Das Modell ist darauf getuned, Abfolgen von Aktionen über die Zeit zu orchestrieren (z. B. Tests ausführen, Code patchen, erneut ausführen), nicht nur Einzelantworten zu generieren.
- Tool-Integration: Codex ist darauf ausgelegt, Entwicklertools—CLIs, Debugger, Paketmanager—sicher und zuverlässig zu nutzen und dabei den Zustand über Sitzungen hinweg zu bewahren.
- Praktische Entwicklerhilfe: Das Ziel ist pragmatisch: Kontextwechsel reduzieren, Fehlersuche beschleunigen, Routinearbeiten automatisieren (Tests, Refactorings, Code-Retrieval) und kollaboratives Steuern durch den Menschen unterstützen.
Was ist neu in GPT-5.3-Codex?
GPT-5.3-Codex führt mehrere konkrete Änderungen und Produktverbesserungen gegenüber seinen unmittelbaren Vorgängern ein:
1. Schnellere Inferenz für Codex-Nutzer
OpenAI berichtet, dass GPT-5.3-Codex für Codex-Nutzer etwa 25 % schneller läuft—dank Verbesserungen im Inferenz-Stack und Infrastruktur-Optimierungen. Dieser Geschwindigkeitszuwachs bedeutet sowohl geringere Latenz bei interaktivem Debugging als auch längere, reibungslosere agentische Ausführungen.
2. Vereinigung von Reasoning- und Coding-Stärken
Anstatt rein „coding-only“ zu sein, vereint GPT-5.3-Codex die führende Coding-Performance von GPT-5.2-Codex mit verbessertem professionellem Reasoning (aus GPT-5.2) und wird dadurch besser bei forschungsintensiven Aufgaben: Doku lesen, mehrstufige Migrationen planen sowie Begründungen und Testnachweise zusammen mit Code liefern.
3. Bessere Zusammenarbeit und Steuerbarkeit während der Ausführung
Eine große, nutzerseitig spürbare Änderung ist die verbesserte Interaktion im Kollaborationsstil, während das Modell „arbeitet“: Codex berichtet häufiger über Fortschritte, akzeptiert Steueranweisungen während der Laufzeit und behält Kontext und Zustand über mehrstufige Aufgaben bei—so kann der Nutzer den Agenten während der Ausführung unterbrechen, korrigieren oder dirigieren. Produktnotizen deuten darauf hin, dass dieses „Steer“-Verhalten über die Codex-Tools hinweg stabilisiert wird.
4. Die Codex-Desktop-App (plus engere plattformübergreifende Synchronisierung)
OpenAI hat eine Codex-App vorgestellt, die Sitzungsverlauf und Konfiguration mit der Codex-CLI und den IDE-Erweiterungen synchronisiert—sodass ein Entwickler in Editor oder Terminal beginnen und die Arbeit in der Desktop-App fortsetzen kann, ohne Zustand zu verlieren. Die App ist als Koordinations-Hub für agentische Workflows positioniert.
5. Agentisches Langzeitverhalten
GPT-5.3-Codex ist explizit für Aufgaben optimiert, die über längere Zeit laufen, mit Tool-Aufrufen verzahnt sind und Steuerung während der Aufgabe erfordern (pausieren/fortsetzen, Ziele ändern). Das verbessert Fähigkeiten bei komplexen Refactorings, mehrmoduligen Features und repository-übergreifenden Aufgaben.
GPT-5.3-Codex in Benchmarks
| GPT-5.3-Codex (xhigh) | GPT-5.2-Codex (xhigh) | GPT-5.2 (xhigh) | |
|---|---|---|---|
| SWE-Bench Pro (Public) | 56.8% | 56.4% | 55.6% |
| Terminal-Bench 2.0 | 77.3% | 64.0% | 62.2% |
| OSWorld-Verified | 64.7% | 38.2% | 37.9% |
| GDPval (wins or ties) | 70.9% | - | 70.9% (high) |
| Cybersecurity Capture The Flag Challenges | 77.6% | 67.4% | 67.7% |
| SWE-Lancer IC Diamond | 81.4% | 76.0% | 74.6% |
Repräsentative Benchmark-Ergebnisse
- Terminal-Bench 2.0: GPT-5.3-Codex erzielt Berichten zufolge ≈77,3 %, ein großer Sprung, der deutlich höhere Kompetenz in Command-Line- und Terminal-Workflows gegenüber der vorherigen Generation signalisiert.
- SWE-Bench Pro: OpenAI meldet ≈56,8 % auf einem rigorosen Software-Engineering-Benchmark über mehrere Sprachen und industrielle Herausforderungen—ein moderater, aber nützlicher Fortschritt gegenüber früheren Modellen.
- OSWorld-Verified und Cybersecurity-CTF-Metriken: OpenAIs Systemkarte und Berichte nennen Verbesserungen bei allgemeinen „Computer-Use“-Benchmarks (OSWorld) und bei Cybersecurity-Capture-the-Flag-Aufgaben (merkliche Zuwächse vs. GPT-5.2-Codex).
Wie können Entwickler und Organisationen auf GPT-5.3-Codex zugreifen?
In welchen Produkten und Oberflächen ist es heute verfügbar?
- Codex-App (Desktop & Web): OpenAI hat eine dedizierte Codex-App gestartet, die Sitzungen bewahrt und Konfigurationen mit der CLI und IDE-Erweiterungen synchronisiert. Für viele Nutzer ist die App der primäre Weg, Agent-Workflows mit GUI und persistentem Zustand auszuführen.
- Codex-CLI: Terminal-first-Nutzer können über eine Command-Line-Interface mit Codex interagieren, das mit lokalen Repos und Workflows integriert ist.
- IDE-Erweiterungen: Plugins für gängige IDEs (Visual Studio Code, JetBrains-Familie) bringen Codex direkt in den Editor, schlagen Code vor, führen lokale Tests aus und nehmen Änderungen direkt vor.
- Weboberfläche: Standardzugriff über ChatGPT/Codex-Seiten bietet vielen Nutzern eine No-Install-Option.
Wichtiger Hinweis zur Verfügbarkeit: OpenAI gibt an, dass GPT-5.3-Codex für bezahlte ChatGPT-Pläne über die Codex-Oberflächen verfügbar ist und dass API-Zugriff geplant, aber noch nicht aktiviert ist, bis Sicherheitsarbeiten abgeschlossen sind.
Während Sie auf die GPT-5.3 Codex API warten, können Entwickler das ebenso funktionsreiche GPT-5.2 Codex auf CometAPI nutzen, um sich auf die Migration zu GPT-5.3 Codex vorzubereiten. Wenn die GPT-5.3 Codex API veröffentlicht wird, können Sie in Minuten upgraden, statt von Grund auf neu zu beginnen.
1. Codex-App (Desktop)
- Wer: Einzelentwickler und Teams, die eine GUI-zentrierte Koordinationsoberfläche möchten.
- Was: Synchronisiert Sitzungsverlauf und Konfigurationen aus CLI und IDE, zeigt laufende Agent-Aufgaben und Logs an und dient als Hub für langlaufende Operationen.
- So starten Sie: Mit Ihrem ChatGPT-Konto in der Codex-App anmelden; in IDE/CLI gestartete Sitzungen erscheinen in der App.
2. Codex-CLI (Terminal)
- Wer: Terminal-first-Entwickler, DevOps Engineers, SREs.
- Was: Codex-Aktionen ausführen, Kommandos absetzen, Tests laufen lassen und strukturiertes Feedback inline zu Ihrem Projekt erhalten. Die CLI eignet sich für Automatisierung und Scripting mit dem Modell als Tool.
- So starten Sie: Codex-CLI installieren (Paket und Anleitung in OpenAIs Developer-Dokumentation verfügbar), mit Ihrem ChatGPT-Konto oder Team-Zugang anmelden und auf Ihr Repository zeigen.
3. IDE-Erweiterungen (VS Code und andere)
- Wer: Editor-zentrierte Entwickler.
- Was: Unterstützung im Editor, Automatisierung von Pull-Request-Reviews (z. B. PRs mit
@codexmarkieren, um ein automatisiertes Review anzufordern) und die Möglichkeit, agentische Flows zu starten, ohne den Editor zu verlassen. Erweiterungen unterstützen kontobasierte Anmeldung—kein API-Key-Hin-und-her für viele Workflows.
4. Web/ChatGPT
- Wer: Leichtgewichtige oder explorative Nutzer, Product Manager und Teams, die Webzugang wollen.
- Was: GPT-5.3-Codex ist über die ChatGPT-Oberfläche für zahlende Abonnenten verfügbar. Die Weboberfläche bietet direkten Zugriff auf Codex-Funktionen im Browser.
5. API (kommt bald)
- Wer: Unternehmen, die Codex in CI/CD-Pipelines, automatisierte Tooling-Ketten oder proprietäre Plattformen einbetten wollen.
- Was ist zu erwarten: OpenAI gibt an, dass API-Zugriff für GPT-5.3-Codex vorbereitet wird
Was bedeutet GPT-5.3-Codex für das Entwickler-Ökosystem?
Kurzfristige Auswirkungen
- Produktivitätsanstieg bei Routinearbeit: Viele Teams werden schneller bei Tests, Refactorings und Debugging iterieren. IDE- und CLI-Integration senken Reibung bei der Einführung agentischer Workflows.
- Neue Kollaborationsmuster: Ingenieure werden zunehmend mit KI als „Teamkollege“ interagieren—Steuerkommandos geben, Agent-Ausgaben prüfen und dem Modell bei repetitiven, aber kritischen Aufgaben wie Codeformatierung, Gerüstbau und Routinefixes vertrauen.
Langfristige Brancheneffekte
- Toolchain-Konsolidierung: Integriertes agentisches Tooling (App + CLI + IDE) kann Tool-Zersplitterung verringern, wenn Teams einen Codex-zentrierten Workflow übernehmen.
- Wettbewerb und Spezialisierung: Veröffentlichungen derselben Woche von Anthropic und anderen unterstreichen, dass Anbieter unterschiedliche Nischen besetzen (z. B. riesige Kontextfenster vs. agentische Coding-Geschwindigkeit), was Unternehmen dazu drängen wird, Modelle nach Use Case statt nach Marke zu wählen.
Rollen und Belegschaft
- Erweiterung, kein Ersatz (vorerst): Während Codex viele Entwickleraufgaben automatisiert, bleiben menschliche Ingenieure essenziell für Architektur, Sicherheit, kritisches Denken und Governance—insbesondere wenn Produktionssicherheit auf dem Spiel steht. Codex verändert die Verteilung der Arbeit, statt Rollen vollständig zu eliminieren.
Entwickler können auf GPT-5.2 Codex über CometAPI zugreifen. Um zu beginnen, erkunden Sie die Fähigkeiten des Modells im Playground und konsultieren Sie den API-Leitfaden für detaillierte Anweisungen. Stellen Sie vor dem Zugriff sicher, dass Sie sich bei CometAPI angemeldet und den API-Schlüssel erhalten haben. CometAPI bietet einen Preis, der weit unter dem offiziellen Preis liegt, um Ihnen die Integration zu erleichtern.
Bereit loszulegen?→ Noch heute zum Programmieren anmelden!
Wenn Sie mehr Tipps, Leitfäden und News zu KI erfahren möchten, folgen Sie uns auf VK, X und Discord!
