ModelliSupportoAziendaBlog
500+ API di Modelli AI, Tutto In Una Sola API. Solo In CometAPI
API dei Modelli
Sviluppatore
Avvio RapidoDocumentazioneDashboard API
Risorse
Modelli di Intelligenza ArtificialeBlogAziendaRegistro delle modificheChi siamo
2025 CometAPI. Tutti i diritti riservati.Informativa sulla PrivacyTermini di Servizio
Home/Models/OpenAI/GPT 5 Codex
O

GPT 5 Codex

Ingresso:$1/M
Uscita:$8/M
Contesto:400K
Uscita Massima:128K
GPT-5-Codex è un modello linguistico di grandi dimensioni ad alte prestazioni, focalizzato sulla generazione e comprensione del codice, con capacità potenziate per compiti di programmazione complessi, ragionamento sul codice e applicazioni in ambiente di produzione.
Nuovo
Uso commerciale
Playground
Panoramica
Caratteristiche
Prezzi
API
Versioni

Che cos’è GPT-5-Codex?

GPT-5-Codex è una variante specializzata della famiglia GPT-5 di OpenAI progettata per flussi di lavoro complessi di ingegneria del software: programmazione, refactoring su larga scala, attività agentiche lunghe e multi-step, ed esecuzioni autonome prolungate all’interno dell’ambiente Codex (CLI, estensione IDE e cloud). È posizionato come modello predefinito per il prodotto Codex di OpenAI ed è accessibile tramite la Responses API e gli abbonamenti Codex.

Caratteristiche principali

  • Ottimizzazione agentica — ottimizzato per funzionare all’interno di loop agentici e flussi di lavoro guidati da strumenti (maggiore coerenza nell’uso di tool/CLI). Agentic e tool usage sono elementi di primaria importanza.
  • Focus sulla qualità del codice — produce codice più pulito e più controllabile per refactoring, revisione e attività di sviluppo di lunga durata.
  • Integrazione con IDE e prodotto — integrato nei prodotti per sviluppatori (ad es. distribuzioni in anteprima di GitHub Copilot) e nell’SDK/CLI Codex di OpenAI.
  • Solo Responses API — utilizza il più recente modello della Responses API (riutilizzo dei token, supporto ai loop agentici) per ottenere i migliori risultati; le chiamate legacy Completion possono offrire prestazioni inferiori nei compiti Codex.

Dettagli tecnici — addestramento e architettura

  • Linea di base: GPT-5-Codex è un derivato di GPT-5, costruito tramite un ulteriore tuning dello snapshot GPT-5 per attività di coding e comportamenti agentici. Gli interni del modello (numero esatto di parametri, calcolo di training) non sono pubblicamente enumerati; OpenAI pubblica capacità e approccio di tuning piuttosto che il conteggio grezzo dei parametri.
  • Focus dell’addestramento: enfasi su corpora reali di ingegneria del software, tracce agentiche interattive, traiettorie di utilizzo degli strumenti e instruction tuning per migliorare la controllabilità e la correttezza sul lungo orizzonte.
  • Tuning di tool e loop agentici: i prompt e le definizioni degli strumenti sono stati adattati affinché il loop agentico di Codex funzioni più velocemente e produca risultati multi-step più accurati rispetto a un GPT-5 standard in configurazioni comparabili.

Prestazioni nei benchmark

Il benchmarking pubblico di revisori indipendenti e siti aggregatori mostra GPT-5-Codex ai vertici o quasi ai vertici nei moderni benchmark di coding:

  • SWE-Bench (attività di coding reali): riepiloghi indipendenti riportano ~≈77% di successo su una suite di 500 task (riportato in una recensione di terze parti). In quella recensione, questo risultato è stato indicato come leggermente superiore alla baseline GPT-5 general-purpose (high).
  • LiveCodeBench / altri benchmark di codice: i siti aggregatori riportano prestazioni relative elevate (gli esempi includono punteggi LiveCodeBench nella fascia medio-alta degli 80 per determinati task).

Versioning e disponibilità del modello

Canali di disponibilità: Responses API (model id gpt-5-codex)

gpt-5-codex-low/medium/high – Specializzati per coding e ingegneria del software:

  • gpt-5-codex-low
  • gpt-5-codex-medium
  • gpt-5-codex-high

Supporta il formato di chiamata /v1/responses

Limitazioni

  • Latenza e calcolo: i flussi di lavoro agentici possono richiedere molte risorse computazionali ed essere talvolta più lenti dei modelli più leggeri, in particolare quando il modello esegue suite di test o svolge analisi statica estesa.
  • Allucinazioni ed eccessiva sicurezza: nonostante i miglioramenti, GPT-5-Codex può ancora allucinare API, percorsi di file o copertura dei test—gli utenti devono validare il codice generato e gli output CI.
  • Lunghezza del contesto e stato: sebbene il modello sia ottimizzato per sessioni più lunghe, resta comunque vincolato da limiti pratici di contesto/attenzione; codebase estremamente grandi richiedono chunking, retrieval augmentation o memoria assistita da strumenti.
  • Sicurezza e protezione: modifiche automatiche al codice possono introdurre regressioni di sicurezza o violazioni di licenza; sono obbligatori supervisione umana e controlli CI sicuri.

Casi d’uso

  • Revisione automatizzata del codice — produrre commenti da reviewer, identificare regressioni e suggerire correzioni.
  • Sviluppo di funzionalità e refactoring — grandi modifiche multi-file con test eseguiti dal modello e validazione CI.
  • Sintesi di test e automazione TDD — generare test unitari/integrati e iterare fino al superamento.
  • Assistenti e agenti per sviluppatori — integrazione in plugin IDE, pipeline CI o agenti autonomi per eseguire attività di ingegneria complesse.

Come usare l’API di GPT-5 Codex

Passaggi richiesti

  • Accedi a cometapi.com. Se non sei ancora nostro utente, registrati prima.
  • Accedi alla tua console CometAPI.
  • Ottieni la credenziale di accesso API key dell’interfaccia. Fai clic su “Add Token” nella sezione API token del centro personale, ottieni la token key: sk-xxxxx e inviala.

Metodo d’uso

  1. Seleziona l’endpoint “gpt-5-codex” per inviare la richiesta API e imposta il body della richiesta. Il metodo di richiesta e il body della richiesta si ottengono dalla documentazione API del nostro sito. Il nostro sito fornisce anche test Apifox per tua comodità.
  2. Sostituisci <YOUR_API_KEY> con la tua effettiva chiave CometAPI del tuo account.
  3. Inserisci la tua domanda o richiesta nel campo content: questo è ciò a cui il modello risponderà.
  4. . Elabora la risposta API per ottenere la risposta generata.

CometAPI fornisce una REST API completamente compatibile, per una migrazione senza interruzioni. Dettagli chiave su Responses

Vedi anche GPT-5.1 API e GPT-5.1-Chat-latest API

Funzionalità per GPT 5 Codex

Esplora le caratteristiche principali di GPT 5 Codex, progettato per migliorare le prestazioni e l'usabilità. Scopri come queste funzionalità possono beneficiare i tuoi progetti e migliorare l'esperienza utente.

Prezzi per GPT 5 Codex

Esplora i prezzi competitivi per GPT 5 Codex, progettato per adattarsi a vari budget e necessità di utilizzo. I nostri piani flessibili garantiscono che paghi solo per quello che usi, rendendo facile scalare man mano che i tuoi requisiti crescono. Scopri come GPT 5 Codex può migliorare i tuoi progetti mantenendo i costi gestibili.
Prezzo Comet (USD / M Tokens)Prezzo Ufficiale (USD / M Tokens)Sconto
Ingresso:$1/M
Uscita:$8/M
Ingresso:$1.25/M
Uscita:$10/M
-20%

Codice di esempio e API per GPT 5 Codex

Accedi a codice di esempio completo e risorse API per GPT 5 Codex per semplificare il tuo processo di integrazione. La nostra documentazione dettagliata fornisce una guida passo dopo passo, aiutandoti a sfruttare appieno il potenziale di GPT 5 Codex nei tuoi progetti.
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-codex", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-codex", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-codex",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-codex",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Versioni di GPT 5 Codex

Il motivo per cui GPT 5 Codex dispone di più snapshot può includere fattori potenziali come variazioni nell'output dopo aggiornamenti che richiedono snapshot precedenti per coerenza, offrire agli sviluppatori un periodo di transizione per l'adattamento e la migrazione, e diversi snapshot corrispondenti a endpoint globali o regionali per ottimizzare l'esperienza utente. Per le differenze dettagliate tra le versioni, si prega di fare riferimento alla documentazione ufficiale.
version
gpt-5-codex
gpt-5-codex-high
gpt-5-codex-low
gpt-5-codex-medium

Altri modelli

A

Claude Opus 4.6

Ingresso:$4/M
Uscita:$20/M
Claude Opus 4.6 è il modello linguistico di grandi dimensioni di classe “Opus” di Anthropic, rilasciato nel febbraio 2026. È posizionato come un cavallo di battaglia per il lavoro della conoscenza e i flussi di lavoro di ricerca — migliorando il ragionamento con contesti estesi, la pianificazione in più fasi, l’uso di strumenti (inclusi i flussi di lavoro software basati su agenti) e le attività d’uso del computer, come la generazione automatizzata di diapositive e fogli di calcolo.
A

Claude Sonnet 4.6

Ingresso:$2.4/M
Uscita:$12/M
Claude Sonnet 4.6 è il nostro modello Sonnet più capace finora. È un aggiornamento completo delle capacità del modello in ambiti quali programmazione, uso del computer, ragionamento su contesti estesi, pianificazione degli agenti, lavoro basato sulla conoscenza e design. Sonnet 4.6 offre anche una finestra di contesto da 1M token in beta.
O

GPT-5.4 nano

Ingresso:$0.16/M
Uscita:$1/M
GPT-5.4 nano è progettato per attività in cui la velocità e il costo contano maggiormente, come classificazione, estrazione dei dati, ordinamento e sub-agenti.
O

GPT-5.4 mini

Ingresso:$0.6/M
Uscita:$3.6/M
GPT-5.4 mini porta i punti di forza di GPT-5.4 in un modello più veloce ed efficiente, progettato per carichi di lavoro ad alto volume.
A

Claude Mythos Preview

A

Claude Mythos Preview

Prossimamente
Ingresso:$60/M
Uscita:$240/M
Claude Mythos Preview è il nostro modello di frontiera più capace finora e mostra un balzo notevole nei punteggi su molti benchmark di valutazione rispetto al nostro precedente modello di frontiera, Claude Opus 4.6.
X

mimo-v2-pro

Ingresso:$0.8/M
Uscita:$2.4/M
MiMo-V2-Pro è il modello di base di punta di Xiaomi, con oltre 1T di parametri totali e una lunghezza del contesto di 1M, profondamente ottimizzato per scenari agentici. È altamente adattabile a framework per agenti generici come OpenClaw. Si colloca tra i migliori al mondo nei benchmark standard PinchBench e ClawBench, con prestazioni percepite che si avvicinano a quelle di Opus 4.6. MiMo-V2-Pro è progettato per fungere da cervello dei sistemi di agenti, orchestrando flussi di lavoro complessi, guidando attività di ingegneria in produzione e fornendo risultati in modo affidabile.