Informazioni di base & Funzionalità
- Classe del modello: o3-Pro fa parte dei “modelli di ragionamento” di OpenAI, progettati per pensare passo dopo passo anziché generare risposte immediate.
- Disponibilità: accessibile tramite le interfacce ChatGPT Pro/Team e l'API per sviluppatori di OpenAI a partire dal 10 giugno 2025.
- Livelli di accesso: sostituisce la precedente edizione o1-Pro; gli utenti Enterprise ed Edu saranno abilitati nella settimana successiva al lancio.
Dettagli tecnici
- Architettura: si basa sul backbone o3 con una catena di ragionamento privata migliorata, che abilita il ragionamento a più passaggi in fase di inferenza.
- Tokenizzazione: supporta lo stesso schema di token dei predecessori—1 milione di token di input ≈ 750,000 parole.
- Capacità estese: include ricerca sul web, esecuzione di codice Python, analisi di file e ragionamento visivo; la generazione di immagini non è supportata in questa versione.
Prestazioni nei benchmark
- Matematica e scienze: ha superato Google Gemini 2.5 Pro nel contest AIME 2024, dimostrando capacità superiori di problem solving in matematica avanzata.
- Scienza a livello di dottorato: ha superato Claude 4 Opus di Anthropic nel benchmark GPQA Diamond, indicando una solida competenza nei domini scientifici.
- Uso enterprise: i test interni riportano vittorie costanti rispetto ai modelli predecessori in attività di coding, STEM e ragionamento aziendale.
Indicatori tecnici
- Latenza: i tempi di risposta sono superiori a quelli di o1-Pro—riflettendo catene di ragionamento più profonde—con una media pari a 1.5× la latenza precedente.
- Throughput: throughput sostenuto di generazione dei token fino a 10 token/sec in modalità burst.
Grazie alle catene di ragionamento potenziate, al set di funzionalità ampliato e alle prestazioni leader nei benchmark, o3-Pro rappresenta un significativo passo avanti verso un'IA affidabile e ad alta precisione.
Come accedere all'API o3-pro
Passaggio 1: Registrati per la chiave API
Accedi a cometapi.com. Se non sei ancora nostro utente, registrati prima. Accedi alla tua CometAPI console. Ottieni la chiave API di credenziali di accesso dell'interfaccia. Clicca “Add Token” nella sezione API token del centro personale, ottieni la chiave token: sk-xxxxx e invia.
Passaggio 2: Invia richieste all'API o3-pro
Seleziona l'endpoint “\**o3-pro\**” per inviare la richiesta API e imposta il corpo della richiesta. Il metodo e il corpo della richiesta sono ottenibili dalla documentazione API sul nostro sito. Il nostro sito fornisce anche un test Apifox per tua comodità. Sostituisci <YOUR_API_KEY> con la tua effettiva chiave CometAPI del tuo account.
Inserisci la tua domanda o richiesta nel campo content — è a questo che il modello risponderà. Elabora la risposta dell'API per ottenere l'output generato.
Passaggio 3: Recupera e verifica i risultati
Elabora la risposta dell'API per ottenere l'output generato. Dopo l'elaborazione, l'API risponde con lo stato dell'attività e i dati di output.
