ModelliSupportoAziendaBlog
500+ API di Modelli AI, Tutto In Una Sola API. Solo In CometAPI
API dei Modelli
Sviluppatore
Avvio RapidoDocumentazioneDashboard API
Risorse
Modelli di Intelligenza ArtificialeBlogAziendaRegistro delle modificheChi siamo
2025 CometAPI. Tutti i diritti riservati.Informativa sulla PrivacyTermini di Servizio
Home/Models/OpenAI/GPT-5.1
O

GPT-5.1

Ingresso:$1/M
Uscita:$8/M
GPT-5.1 è un modello linguistico general-purpose messo a punto per seguire istruzioni, focalizzato sulla generazione di testo e sul ragionamento nei flussi di lavoro di prodotto. Supporta conversazioni multi-turno, formattazione di output strutturati e attività orientate al codice come stesura, refactoring e spiegazione. Gli utilizzi tipici includono assistenti conversazionali, QA potenziato dal recupero, trasformazione dei dati e automazione in stile agente con strumenti o API, se supportati. I punti salienti tecnici includono una modalità incentrata sul testo, il rispetto delle istruzioni, output in stile JSON e compatibilità con le chiamate di funzione nei comuni framework di orchestrazione.
Nuovo
Uso commerciale
Playground
Panoramica
Caratteristiche
Prezzi
API

API GPT‑5.1: GPT‑5.1 Thinking è la variante di ragionamento avanzato della famiglia GPT‑5.1 di OpenAI; dà priorità a un ragionamento adattivo e di qualità superiore offrendo agli sviluppatori un controllo esplicito sul compromesso tra latenza e calcolo.

Funzionalità di base

  • Ragionamento adattivo: il modello regola dinamicamente la profondità del “pensiero” per richiesta — più veloce nei compiti di routine, più persistente in quelli complessi. Questo riduce latenza e uso di token per le query comuni; assegna esplicitamente più tempo di ragionamento ai prompt complessi ed è più persistente nei problemi multi‑step; può essere più lento nei task difficili ma fornisce risposte più approfondite.
  • Modalità di ragionamento: none / low / medium / high (GPT‑5.1 usa di default none per casi a bassa latenza; scegliere livelli più alti per compiti più impegnativi). La Responses API espone un parametro reasoning per controllarlo.
  • Tono e stile predefiniti: scrittura più chiara su temi complessi (meno gergo), più esplicativa e “paziente”.
  • Finestra di contesto (token / contesto lungo) Thinking: molto più ampia — 400K token di contesto per i piani a pagamento.

Dettagli tecnici chiave

  • Assegnazione adattiva del compute — il design di training e inferenza fa sì che il modello impieghi meno token di ragionamento per i compiti banali e proporzionalmente di più per quelli difficili. Non è un separato “motore di pensiero”, ma un’allocazione dinamica all’interno della pipeline di ragionamento.
  • Parametro di ragionamento nella Responses API — i client passano un oggetto reasoning (ad esempio reasoning: { "effort": "high" }) per richiedere un ragionamento interno più profondo; impostare reasoning: { "effort": "none" } disattiva di fatto il pass di ragionamento esteso per una latenza inferiore. La Responses API restituisce anche metadati su ragionamento/token (utili per costi e debug).
  • Strumenti e chiamate strumento in parallelo — GPT‑5.1 migliora le chiamate agli strumenti in parallelo e include strumenti nominati (come apply_patch) che riducono i failure mode per le modifiche programmatiche; la parallelizzazione aumenta la throughput end‑to‑end nei flussi ricchi di strumenti.
  • Cache del prompt e persistenza — prompt_cache_retention='24h' è supportato sugli endpoint Responses e Chat Completions per mantenere il contesto su sessioni multi‑turn (riduce la ricodifica ripetuta dei token).

Prestazioni nei benchmark

Esempi di latenza/efficienza dei token (forniti dal fornitore): su query di routine, OpenAI riporta riduzioni drastiche di token/tempo (esempio: un comando di listing npm che impiegava ~10s / ~250 token su GPT‑5 ora richiede ~2s / ~50 token su GPT‑5.1 nel loro test rappresentativo). Tester esterni early (ad es. asset manager, aziende di coding) hanno riportato accelerazioni di 2–3× su molti task e guadagni di efficienza dei token in flussi a forte uso di strumenti.

OpenAI e partner early hanno pubblicato affermazioni rappresentative e miglioramenti misurati nei benchmark:

ValutazioneGPT‑5.1 (high)GPT‑5 (high)
SWE-bench Verified (tutti i 500 problemi)76.3%72.8%
GPQA Diamond (senza strumenti)88.1%85.7%
AIME 2025 (senza strumenti)94.0%94.6%
FrontierMath (con strumento Python)26.7%26.3%
MMMU85.4%84.2%
Tau2-bench Airline67.0%62.6%
Tau2-bench Telecom*95.6%96.7%
Tau2-bench Retail77.9%81.1%
BrowseComp Long Context 128k90.0%90.0%

Limitazioni e considerazioni sulla sicurezza

  • Il rischio di allucinazioni persiste. Il ragionamento adattivo aiuta nei problemi complessi ma non elimina le allucinazioni; un reasoning_effort più alto migliora i controlli ma non garantisce la correttezza. Convalidare sempre gli output ad alta criticità.
  • Compromessi di risorse e costi: sebbene GPT‑5.1 possa essere molto più efficiente in token su flussi semplici, attivare un elevato sforzo di ragionamento o un uso agentico prolungato degli strumenti può aumentare consumo di token e latenza. Usare la cache del prompt per mitigare i costi ripetuti, ove opportuno.
  • Sicurezza degli strumenti: gli strumenti apply_patch e shell aumentano la capacità di automazione (e il rischio). Le distribuzioni in produzione dovrebbero filtrare l’esecuzione degli strumenti (revisionare diff/comandi prima dell’esecuzione), applicare il principio del minimo privilegio e garantire solide protezioni CI/CD e operative.

Confronto con altri modelli

  • vs GPT‑5: GPT‑5.1 migliora il ragionamento adattivo e l’aderenza alle istruzioni; OpenAI riporta tempi di risposta più rapidi sui compiti facili e maggiore persistenza su quelli difficili. GPT‑5.1 aggiunge anche l’opzione di ragionamento none e una cache del prompt estesa.
  • vs GPT‑4.x / 4.1: GPT‑5.1 è progettato per task più agentici, ricchi di strumenti e di coding; OpenAI e i partner riportano miglioramenti nei benchmark di coding e nel ragionamento multi‑step. Per molti compiti conversazionali standard, GPT‑5.1 Instant può essere paragonabile ai precedenti modelli chat GPT‑4.x ma con migliore guidabilità e preset di personalità.
  • vs Anthropic / Claude / altri LLM: l’architettura MoA di ChatGPT 5.1 offre un vantaggio distintivo nei compiti che richiedono ragionamento complesso e multi‑step. Ha ottenuto un inedito 98.20 sul benchmark HELM per il ragionamento complesso, rispetto ai 95.60 di Claude 4 e ai 94.80 di Gemini 2.0 Ultra.

Funzionalità per GPT-5.1

Esplora le caratteristiche principali di GPT-5.1, progettato per migliorare le prestazioni e l'usabilità. Scopri come queste funzionalità possono beneficiare i tuoi progetti e migliorare l'esperienza utente.

Prezzi per GPT-5.1

Esplora i prezzi competitivi per GPT-5.1, progettato per adattarsi a vari budget e necessità di utilizzo. I nostri piani flessibili garantiscono che paghi solo per quello che usi, rendendo facile scalare man mano che i tuoi requisiti crescono. Scopri come GPT-5.1 può migliorare i tuoi progetti mantenendo i costi gestibili.
Prezzo Comet (USD / M Tokens)Prezzo Ufficiale (USD / M Tokens)Sconto
Ingresso:$1/M
Uscita:$8/M
Ingresso:$1.25/M
Uscita:$10/M
-20%

Codice di esempio e API per GPT-5.1

Che cos'è l'API GPT 5.1? GPT-5.1 Thinking è la variante avanzata di ragionamento della famiglia GPT-5.1 di OpenAI, privilegia un ragionamento adattivo e di qualità superiore, offrendo agli sviluppatori un controllo esplicito sul compromesso latenza / capacità di calcolo.
POST
/v1/responses
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5.1",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5.1",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Altri modelli

A

Claude Opus 4.6

Ingresso:$4/M
Uscita:$20/M
Claude Opus 4.6 è il modello linguistico di grandi dimensioni di classe “Opus” di Anthropic, rilasciato nel febbraio 2026. È posizionato come un cavallo di battaglia per il lavoro della conoscenza e i flussi di lavoro di ricerca — migliorando il ragionamento con contesti estesi, la pianificazione in più fasi, l’uso di strumenti (inclusi i flussi di lavoro software basati su agenti) e le attività d’uso del computer, come la generazione automatizzata di diapositive e fogli di calcolo.
A

Claude Sonnet 4.6

Ingresso:$2.4/M
Uscita:$12/M
Claude Sonnet 4.6 è il nostro modello Sonnet più capace finora. È un aggiornamento completo delle capacità del modello in ambiti quali programmazione, uso del computer, ragionamento su contesti estesi, pianificazione degli agenti, lavoro basato sulla conoscenza e design. Sonnet 4.6 offre anche una finestra di contesto da 1M token in beta.
O

GPT-5.4 nano

Ingresso:$0.16/M
Uscita:$1/M
GPT-5.4 nano è progettato per attività in cui la velocità e il costo contano maggiormente, come classificazione, estrazione dei dati, ordinamento e sub-agenti.
O

GPT-5.4 mini

Ingresso:$0.6/M
Uscita:$3.6/M
GPT-5.4 mini porta i punti di forza di GPT-5.4 in un modello più veloce ed efficiente, progettato per carichi di lavoro ad alto volume.
A

Claude Mythos Preview

A

Claude Mythos Preview

Prossimamente
Ingresso:$60/M
Uscita:$240/M
Claude Mythos Preview è il nostro modello di frontiera più capace finora e mostra un balzo notevole nei punteggi su molti benchmark di valutazione rispetto al nostro precedente modello di frontiera, Claude Opus 4.6.
X

mimo-v2-pro

Ingresso:$0.8/M
Uscita:$2.4/M
MiMo-V2-Pro è il modello di base di punta di Xiaomi, con oltre 1T di parametri totali e una lunghezza del contesto di 1M, profondamente ottimizzato per scenari agentici. È altamente adattabile a framework per agenti generici come OpenClaw. Si colloca tra i migliori al mondo nei benchmark standard PinchBench e ClawBench, con prestazioni percepite che si avvicinano a quelle di Opus 4.6. MiMo-V2-Pro è progettato per fungere da cervello dei sistemi di agenti, orchestrando flussi di lavoro complessi, guidando attività di ingegneria in produzione e fornendo risultati in modo affidabile.

Blog correlati

GPT 5.2 Codex rilasciato: funzionalità, benchmark e accesso
Dec 22, 2025

GPT 5.2 Codex rilasciato: funzionalità, benchmark e accesso

OpenAI ha rilasciato GPT-5.2-Codex, una versione di GPT-5.2 ottimizzata per Codex, progettata specificamente per compiti di codifica a lungo termine e basati su agenti, refactoring e migrazioni su larga scala, uso affidabile degli strumenti in ambienti di terminale, comportamento nativo su Windows migliorato e capacità di sicurezza informatica più robuste. I benchmark come SWE-Bench Pro e Terminal-Bench 2.0 collocano GPT-5.2-Codex allo stato dell’arte tra i modelli di codifica basati su agenti.
Quanta acqua consuma ChatGPT al giorno?
Dec 6, 2025
chat-gpt

Quanta acqua consuma ChatGPT al giorno?

Risposta breve: il servizio globale di ChatGPT consuma probabilmente dai 2 ai 160 milioni di litri di acqua al giorno, un intervallo molto ampio determinato da
Che cos'è GPT-5.1 Pro? Una spiegazione professionale e un rapporto sullo stato
Nov 28, 2025
gpt-5-1
gpt-5-1-instant
gpt-5-1-pro

Che cos'è GPT-5.1 Pro? Una spiegazione professionale e un rapporto sullo stato

GPT-5.1 Pro di OpenAI è l'ultima versione incrementale della famiglia GPT-5: un aggiornamento del modello di livello produttivo che perfeziona il ragionamento, la latenza/la produttività
Claude Opus 4.5: com'è — e quanto costerà?
Nov 23, 2025
gemini-3-pro
gpt-5-1

Claude Opus 4.5: com'è — e quanto costerà?

Post sui social e articoli investigativi hanno indicato l’arrivo del prossimo Claude Opus 4.5 (spesso abbreviato in “Opus 4.5”) — indicato internamente da alcune fonti come Neptune V6 — e la condivisione del modello con membri del red team esterni per test di jailbreak. I dettagli pubblici sono ancora frammentari, quindi questo articolo raccoglie le informazioni disponibili, spiega che cosa la fuga di notizie implica in termini di capacità e sicurezza e offre una stima fondata dei probabili prezzi, oltre a come Opus 4.5 potrebbe posizionarsi rispetto a Gemini 3 di Google e GPT-5.1 di OpenAI.
Gemini 3 Pro contro GPT 5.1: qual è il migliore? Un confronto completo
Nov 18, 2025
gemini-3-pro-preview
gpt-5-1

Gemini 3 Pro contro GPT 5.1: qual è il migliore? Un confronto completo

GPT-5.1 di OpenAI e Gemini 3 Pro di Google rappresentano passi incrementali ma significativi nella continua corsa agli armamenti per l'IA generalista e multimodale.