ModelleSupportUnternehmenBlog
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Ressourcen
KI-ModelleBlogUnternehmenÄnderungsprotokollÜber uns
2025 CometAPI. Alle Rechte vorbehalten.DatenschutzrichtlinieNutzungsbedingungen
Home/Models/OpenAI/GPT 5 Codex
O

GPT 5 Codex

Eingabe:$1/M
Ausgabe:$8/M
Kontext:400K
Maximale Ausgabe:128K
GPT-5-Codex ist ein hochleistungsfähiges großes Sprachmodell, das auf Codegenerierung und -verständnis fokussiert ist und über erweiterte Fähigkeiten für komplexe Programmieraufgaben, Code-Reasoning und produktionsreife Anwendungen verfügt.
Neu
Kommerzielle Nutzung
Playground
Überblick
Funktionen
Preisgestaltung
API
Versionen

Was ist GPT-5-Codex?

GPT-5-Codex ist eine spezialisierte Variante der GPT-5-Familie von OpenAI, entwickelt für komplexe Software-Engineering-Workflows: Programmierung, groß angelegte Refactorings, lange, mehrstufige agentische Aufgaben sowie erweiterte autonome Läufe in der Codex-Umgebung (CLI, IDE-Erweiterung und Cloud). Es ist als Standardmodell für OpenAIs Codex-Produkt positioniert und über die Responses API sowie Codex-Abonnements zugänglich.

Hauptfunktionen

  • Agentische Optimierung — abgestimmt auf Ausführung in Agent-Loops und toolgetriebenen Workflows (bessere Konsistenz beim Einsatz von Tools/CLIs). Agentik und Tool-Nutzung werden erstklassig unterstützt.
  • Fokus auf Codequalität — erzeugt saubereren, besser steuerbaren Code für Refactoring, Reviews und langlaufende Entwicklungsaufgaben.
  • IDE- und Produktintegration — integriert in Entwicklerprodukte (z. B. GitHub Copilot-Preview-Rollouts) und OpenAIs Codex SDK/CLI.
  • Nur Responses API — verwendet das neuere Responses API-Muster (Token-Wiederverwendung, Agent-Loop-Unterstützung) für beste Ergebnisse; ältere Completion-Aufrufe können bei Codex-Aufgaben unterperformen.

Technische Details — Training & Architektur

  • Basisabstammung: GPT-5-Codex ist ein Derivat von GPT-5, das durch weiteres Tuning des GPT-5-Snapshots für Coding-Aufgaben und agentisches Verhalten aufgebaut wurde. Modellinterna (exakte Parameterzahl, Trainings-Compute) werden nicht öffentlich aufgeschlüsselt; OpenAI veröffentlicht Fähigkeiten und Tuning-Ansatz statt reiner Parameterzahlen.
  • Trainingsfokus: Schwerpunkt auf realen Software-Engineering-Korpora, interaktiven Agent-Traces, Tool-Nutzungs-Trajektorien und Instruction Tuning zur Verbesserung von Steuerbarkeit und Korrektheit über lange Abläufe hinweg.
  • Tuning für Tools & Agent-Loops: Prompt- und Tool-Definitionen wurden so angepasst, dass der Codex-Agent-Loop schneller läuft und genauere mehrstufige Ergebnisse liefert als ein unverändertes GPT-5 in vergleichbaren Setups.

Benchmark-Leistung

Öffentliche Benchmarks von unabhängigen Rezensenten und Aggregatorseiten zeigen, dass GPT-5-Codex bei modernen Coding-Benchmarks führend oder nahe der Spitze liegt:

  • SWE-Bench (reale Coding-Aufgaben): unabhängige Zusammenfassungen berichten von ~≈77% Erfolg auf einer Suite mit 500 Aufgaben (laut einer Drittanbieter-Review). Dies wurde dort als leicht über der allgemeinen GPT-5-(hoch)-Baseline liegend vermerkt.
  • LiveCodeBench / andere Code-Benchmarks: Aggregatorseiten berichten von hoher relativer Performance (Beispiele umfassen LiveCodeBench-Werte im mittleren 80er-Bereich bei bestimmten Aufgaben).

Modellversionen & Verfügbarkeit

Verfügbarkeitskanäle: Responses API (Modell-ID gpt-5-codex)

gpt-5-codex-low/medium/high – spezialisiert auf Programmierung & Software Engineering:

  • gpt-5-codex-low
  • gpt-5-codex-medium
  • gpt-5-codex-high

Unterstützt Aufrufe im Format /v1/responses

Einschränkungen

  • Latenz & Rechenaufwand: agentische Workflows können rechenintensiv sein und manchmal langsamer als leichtere Modelle, besonders wenn Test-Suiten ausgeführt oder umfangreiche statische Analysen vorgenommen werden.
  • Halluzinationen & Überkonfidenz: trotz Verbesserungen kann GPT-5-Codex weiterhin APIs, Dateipfade oder Testabdeckung halluzinieren — Nutzer müssen generierten Code und CI-Ausgaben validieren.
  • Kontextlänge & Zustand: obwohl das Modell für längere Sitzungen getuned ist, bleibt es durch praktische Kontext-/Aufmerksamkeitsgrenzen beschränkt; extrem große Codebasen erfordern Chunking, Retrieval-Augmentation oder toolgestützte Erinnerung.
  • Safety & Security: automatisierte Codeänderungen können Sicherheitsregressionen oder Lizenzverletzungen einführen; menschliche Aufsicht und abgesicherte CI-Gates sind zwingend.

Anwendungsfälle

  • Automatisiertes Code-Review — Reviewer-Kommentare erzeugen, Regressionen identifizieren und Fixes vorschlagen.
  • Feature-Entwicklung & Refactoring — große, mehrdateibasierte Änderungen mit vom Modell ausgeführten Tests und CI-Validierung.
  • Test-Synthese & TDD-Automatisierung — Unit-/Integrationstests generieren und iterieren, bis sie bestehen.
  • Entwicklerassistenten & -agenten — integriert in IDE-Plugins, CI-Pipelines oder autonome Agenten zur Durchführung komplexer Engineering-Aufgaben.

So verwenden Sie die GPT-5-Codex-API

Erforderliche Schritte

  • Melden Sie sich bei cometapi.com an. Wenn Sie noch kein Nutzer sind, registrieren Sie sich bitte zuerst.
  • Melden Sie sich in Ihrer CometAPI-Konsole an.
  • Rufen Sie den Zugangs-Credential-API-Key der Schnittstelle ab. Klicken Sie im persönlichen Zentrum beim API-Token auf „Add Token“, erhalten Sie den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.

Vorgehensweise

  1. Wählen Sie den Endpunkt „gpt-5-codex“, um die API-Anfrage zu senden, und setzen Sie den Request-Body. Anfragemethode und Request-Body entnehmen Sie der API-Dokumentation auf unserer Website. Unsere Website stellt Ihnen außerdem Apifox-Tests zur Verfügung.
  2. Ersetzen Sie <YOUR_API_KEY> durch Ihren tatsächlichen CometAPI-Schlüssel aus Ihrem Account.
  3. Fügen Sie Ihre Frage oder Anforderung in das content-Feld ein — darauf antwortet das Modell.
  4. Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.

CometAPI stellt eine vollständig kompatible REST-API bereit — für nahtlose Migration. Wichtige Details zu Responses

Siehe auch GPT-5.1 API und GPT-5.1-Chat-latest API

Funktionen für GPT 5 Codex

Entdecken Sie die wichtigsten Funktionen von GPT 5 Codex, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für GPT 5 Codex

Entdecken Sie wettbewerbsfähige Preise für GPT 5 Codex, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie GPT 5 Codex Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$1/M
Ausgabe:$8/M
Eingabe:$1.25/M
Ausgabe:$10/M
-20%

Beispielcode und API für GPT 5 Codex

Greifen Sie auf umfassende Beispielcodes und API-Ressourcen für GPT 5 Codex zu, um Ihren Integrationsprozess zu optimieren. Unsere detaillierte Dokumentation bietet schrittweise Anleitungen und hilft Ihnen dabei, das volle Potenzial von GPT 5 Codex in Ihren Projekten zu nutzen.
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-codex", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-codex", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-codex",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-codex",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Versionen von GPT 5 Codex

Der Grund, warum GPT 5 Codex mehrere Snapshots hat, kann potenzielle Faktoren wie Änderungen der Ausgabe nach Updates umfassen, die ältere Snapshots für Konsistenz erfordern, Entwicklern eine Übergangszeit für Anpassung und Migration bieten und verschiedene Snapshots, die globalen oder regionalen Endpunkten entsprechen, um das Benutzererlebnis zu optimieren. Für detaillierte Unterschiede zwischen den Versionen lesen Sie bitte die offizielle Dokumentation.
version
gpt-5-codex-medium
gpt-5-codex
gpt-5-codex-high
gpt-5-codex-low

Weitere Modelle

A

Claude Opus 4.6

Eingabe:$4/M
Ausgabe:$20/M
Claude Opus 4.6 ist das Großsprachmodell der „Opus“-Klasse von Anthropic, veröffentlicht im Februar 2026. Es ist als Arbeitstier für Wissensarbeit und Forschungs-Workflows positioniert — mit Verbesserungen beim langkontextuellen Denken, bei der mehrstufigen Planung, bei der Tool-Nutzung (einschließlich agentenbasierter Software-Workflows) sowie bei computerbezogenen Aufgaben wie der automatisierten Erstellung von Folien und Tabellen.
A

Claude Sonnet 4.6

Eingabe:$2.4/M
Ausgabe:$12/M
Claude Sonnet 4.6 ist unser bisher leistungsfähigstes Sonnet-Modell. Es ist ein umfassendes Upgrade der Fähigkeiten des Modells in den Bereichen Programmierung, Computernutzung, Schlussfolgern mit langem Kontext, Agentenplanung, Wissensarbeit und Design. Sonnet 4.6 bietet außerdem ein 1M-Token-Kontextfenster in Beta.
O

GPT-5.4 nano

Eingabe:$0.16/M
Ausgabe:$1/M
GPT-5.4 nano ist für Aufgaben konzipiert, bei denen Geschwindigkeit und Kosten am wichtigsten sind, wie Klassifizierung, Datenextraktion, Ranking und Sub-Agenten.
O

GPT-5.4 mini

Eingabe:$0.6/M
Ausgabe:$3.6/M
GPT-5.4 mini bringt die Stärken von GPT-5.4 in ein schnelleres, effizienteres Modell, das für hochvolumige Workloads konzipiert ist.
A

Claude Mythos Preview

A

Claude Mythos Preview

Demnächst verfügbar
Eingabe:$60/M
Ausgabe:$240/M
Claude Mythos Preview ist unser bisher leistungsfähigstes Frontier-Modell und zeigt einen bemerkenswerten Sprung bei den Ergebnissen in vielen Evaluations-Benchmarks im Vergleich zu unserem vorherigen Frontier-Modell, Claude Opus 4.6.
X

mimo-v2-pro

Eingabe:$0.8/M
Ausgabe:$2.4/M
MiMo-V2-Pro ist Xiaomis Flaggschiff unter den Foundation-Modellen und verfügt über insgesamt mehr als 1T Parameter sowie eine Kontextlänge von 1M. Es ist umfassend für agentische Szenarien optimiert. Es ist in hohem Maße an allgemeine Agent-Frameworks wie OpenClaw anpassbar. In den Standard-Benchmarks PinchBench und ClawBench zählt es weltweit zur Spitzengruppe, wobei die wahrgenommene Leistung an die von Opus 4.6 heranreicht. MiMo-V2-Pro wurde als Gehirn von Agentensystemen konzipiert, um komplexe Workflows zu orchestrieren, produktionsnahe Engineering-Aufgaben voranzutreiben und zuverlässig Ergebnisse zu liefern.