Home/Models/OpenAI/GPT-5.2
O

GPT-5.2

Ingresso:$1.4/M
Uscita:$11.2/M
Contesto:400,000
Uscita Massima:128,000
GPT-5.2 è una suite di modelli con più varianti (Instant, Thinking, Pro) progettata per una migliore comprensione di contesti lunghi, una programmazione e un uso degli strumenti più solidi, e prestazioni sostanzialmente superiori nei benchmark professionali di “knowledge-work”.
Nuovo
Uso commerciale
Playground
Panoramica
Caratteristiche
Prezzi
API

Che cos'è l'API GPT-5.2

L'API GPT-5.2 è la stessa di GPT-5.2 Thinking in ChatGPT. GPT-5.2 Thinking è la variante di fascia media della famiglia GPT-5.2 di OpenAI progettata per il lavoro più approfondito: ragionamento multi-step, sintesi di documenti lunghi, generazione di codice di qualità e lavoro di conoscenza professionale dove accuratezza e struttura utilizzabile contano più della pura velocità. Nell'API è esposta come modello gpt-5.2 (Responses API / Chat Completions) e si colloca tra la variante Instant a bassa latenza e la variante Pro, di qualità superiore ma più costosa.

Caratteristiche principali

  • Contesto molto lungo e compattazione: finestra effettiva di 400K e strumenti di compattazione per gestire la rilevanza in conversazioni e documenti molto estesi.
  • Sforzo di ragionamento configurabile: none | medium | high | xhigh (xhigh abilita il massimo calcolo interno per ragionamenti difficili). xhigh è disponibile nelle varianti Thinking/Pro.
  • Supporto più solido per strumenti e funzioni: chiamata di strumenti di prima classe, grammatiche (CFG/Lark) per vincolare gli output strutturati e comportamenti agentici migliorati che semplificano automazioni complesse a più passaggi.
  • Comprensione multimodale: comprensione più ricca di immagini + testo e integrazione in attività a più passaggi.
  • Sicurezza migliorata / gestione dei contenuti sensibili: interventi mirati per ridurre risposte indesiderate in aree come l'autolesionismo e altri contesti sensibili.

Capacità tecniche e specifiche (vista sviluppatore)

  • Endpoint API e ID modello: gpt-5.2 per Thinking (Responses API), gpt-5.2-chat-latest per flussi chat/instant e gpt-5.2-pro per il tier Pro; disponibili tramite Responses API e Chat Completions dove indicato.
  • Token di ragionamento e gestione dello sforzo: l'API supporta parametri espliciti per allocare il compute (reasoning effort) per richiesta; uno sforzo più elevato aumenta la latenza e il costo ma migliora la qualità dell'output per attività complesse.
  • Strumenti per output strutturati: supporto per grammatiche (Lark / CFG) per vincolare l'output del modello a una DSL o a una sintassi esatta (utile per SQL, JSON, generazione di DSL).
  • Chiamata di strumenti in parallelo e coordinamento agentico: parallelismo migliorato e orchestrazione degli strumenti più pulita riducono la necessità di prompt di sistema elaborati e impalcature multi-agente.

Prestazioni nei benchmark e dati di supporto

OpenAI ha pubblicato una varietà di risultati di benchmark interni ed esterni per GPT-5.2. Evidenze selezionate (numeri riportati da OpenAI):

  • GDPval (44 professioni, lavoro di conoscenza) — GPT-5.2 Thinking “supera o eguaglia i migliori professionisti del settore nel 70.9% dei confronti”; OpenAI riporta che gli output sono stati prodotti a >11× la velocità e <1% del costo dei professionisti esperti nei loro task GDPval (stime di velocità e costo basate su dati storici). Questi task includono modelli di fogli di calcolo, presentazioni e brevi video.
  • SWE-Bench Pro (coding) — GPT-5.2 Thinking raggiunge ≈55.6% su SWE-Bench Pro e ~80% su SWE-Bench Verified (solo Python) secondo OpenAI, stabilendo un nuovo stato dell'arte per la generazione di codice / valutazione ingegneristica nei loro test. Questo si traduce in debug più affidabile e correzioni end-to-end nella pratica, secondo gli esempi di OpenAI.
  • GPQA Diamond (Q&A di scienza a livello graduate) — GPT-5.2 Pro: 93.2%, GPT-5.2 Thinking: 92.4% su GPQA Diamond (nessun tool, massimo ragionamento).
  • Serie ARC-AGI — Su ARC-AGI-2 (un benchmark di ragionamento fluido più difficile), GPT-5.2 Thinking ha ottenuto 52.9% e GPT-5.2 Pro 54.2% (OpenAI afferma che questi sono nuovi state-of-the-art per modelli in stile chain-of-thought).
  • Contesto lungo (OpenAI MRCRv2) — GPT-5.2 Thinking mostra una precisione quasi del 100% sulla variante MRCR a 4 aghi fino a 256k token e punteggi sostanzialmente migliorati rispetto a GPT-5.1 in scenari di contesto lungo. (OpenAI ha pubblicato grafici e tabelle MRCRv2.)

GPT-5.2

Confronto con i contemporanei

  • vs Google Gemini 3 (Gemini 3 Pro / Deep Think): Gemini 3 Pro è stato pubblicizzato con una ~1,048,576 (≈1M) token finestra di contesto e ampi input multimodali (testo, immagini, audio, video, PDF) e forti integrazioni agentiche tramite Vertex AI / AI Studio. Sulla carta, la finestra di contesto più grande di Gemini 3 è un elemento differenziante per carichi di lavoro a singola sessione estremamente grandi; i compromessi includono la superficie degli strumenti e l'adattamento all'ecosistema.
  • vs Anthropic Claude Opus 4.5: Opus 4.5 enfatizza flussi di lavoro di codifica/agent enterprise e riporta forti risultati SWE-bench e robustezza per lunghe sessioni agentiche; Anthropic posiziona Opus per automazione e generazione di codice con una finestra di contesto da 200k e integrazioni specializzate agent/Excel. Opus 4.5 è un forte concorrente nell'automazione enterprise e nei task di codice.

Conclusione pratica: GPT-5.2 punta su un set bilanciato di miglioramenti (contesto da 400k, elevati output di token, ragionamento/codifica migliorati). Gemini 3 punta ai contesti a singola sessione assolutamente più grandi (≈1M), mentre Claude Opus si concentra su ingegneria enterprise e robustezza agentica. Scegli in base a dimensione del contesto, esigenze di modalità, aderenza a funzionalità/strumenti e compromessi costo/latenza.

Come accedere e usare l'API GPT-5.2

Passo 1: Registrati per ottenere la chiave API

Accedi a cometapi.com. Se non sei ancora nostro utente, registrati prima. Accedi alla tua CometAPI console. Ottieni la chiave API delle credenziali di accesso dell'interfaccia. Fai clic su “Add Token” nel token API nel centro personale, ottieni la chiave del token: sk-xxxxx e invia.

Passo 2: Invia richieste all'API GPT-5.2

Seleziona l'endpoint “gpt-5.2” per inviare la richiesta API e imposta il body della richiesta. Il metodo e il body della richiesta sono ottenuti dalla documentazione API sul nostro sito web. Il nostro sito fornisce anche test Apifox per la tua comodità. Sostituisci <YOUR_API_KEY> con la tua chiave CometAPI effettiva dal tuo account. Gli sviluppatori invocano questi tramite la Responses API / gli endpoint Chat.

Inserisci la tua domanda o richiesta nel campo content—è a questo che il modello risponderà . Elabora la risposta dell'API per ottenere l'output generato.

Passo 3: Recupera e verifica i risultati

Elabora la risposta dell'API per ottenere l'output generato. Dopo l'elaborazione, l'API risponde con lo stato dell'attività e i dati di output.

Vedi anche Gemini 3 Pro Preview API

FAQ

What makes GPT-5.2 OpenAI's flagship model for developers?

GPT-5.2 is OpenAI's best model for coding and agentic tasks, combining a 400K context window with support for code interpreter, web search, file search, image generation, and MCP—making it the most versatile choice for complex workflows.

Does GPT-5.2 support model distillation?

Yes, GPT-5.2 uniquely supports distillation, allowing developers to use its outputs to train smaller, more efficient models for specific tasks while maintaining performance.

What is the knowledge cutoff date for GPT-5.2?

GPT-5.2 has a knowledge cutoff of August 31, 2025. For more recent information, you can enable web search through the Responses API to ground responses in current data.

Can GPT-5.2 process images and generate code simultaneously?

Yes, GPT-5.2 accepts image inputs and supports code interpreter, allowing it to analyze visual content and execute Python code in the same conversation—ideal for data visualization and analysis workflows.

How does GPT-5.2 compare to GPT-5 in pricing and performance?

GPT-5.2 costs $1.75/$14 per million tokens (input/output) compared to GPT-5's $1.25, but delivers materially higher performance on professional benchmarks including coding, long-context understanding, and tool use.

What endpoints does GPT-5.2 support?

GPT-5.2 supports Chat Completions, Responses API, Batch processing, and Assistants API—but does not support fine-tuning, Realtime API, or audio modalities.

Funzionalità per GPT-5.2

Esplora le caratteristiche principali di GPT-5.2, progettato per migliorare le prestazioni e l'usabilità. Scopri come queste funzionalità possono beneficiare i tuoi progetti e migliorare l'esperienza utente.

Prezzi per GPT-5.2

Esplora i prezzi competitivi per GPT-5.2, progettato per adattarsi a vari budget e necessità di utilizzo. I nostri piani flessibili garantiscono che paghi solo per quello che usi, rendendo facile scalare man mano che i tuoi requisiti crescono. Scopri come GPT-5.2 può migliorare i tuoi progetti mantenendo i costi gestibili.
Prezzo Comet (USD / M Tokens)Prezzo Ufficiale (USD / M Tokens)
Ingresso:$1.4/M
Uscita:$11.2/M
Ingresso:$1.75/M
Uscita:$14/M

Codice di esempio e API per GPT-5.2

Accedi a codice di esempio completo e risorse API per GPT-5.2 per semplificare il tuo processo di integrazione. La nostra documentazione dettagliata fornisce una guida passo dopo passo, aiutandoti a sfruttare appieno il potenziale di GPT-5.2 nei tuoi progetti.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "none"},
)

print(response.output_text)

Altri modelli