ModelliSupportoAziendaBlog
500+ API di Modelli AI, Tutto In Una Sola API. Solo In CometAPI
API dei Modelli
Sviluppatore
Avvio RapidoDocumentazioneDashboard API
Risorse
Modelli di Intelligenza ArtificialeBlogAziendaRegistro delle modificheChi siamo
2025 CometAPI. Tutti i diritti riservati.Informativa sulla PrivacyTermini di Servizio
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

Ingresso:$0.2/M
Uscita:$1.6/M
Contesto:400K
Uscita Massima:128K
GPT-5 mini è il membro della famiglia GPT-5 ottimizzato per costi e latenza di OpenAI, progettato per offrire gran parte dei punti di forza multimodali e di aderenza alle istruzioni di GPT-5 a un costo notevolmente inferiore per l’uso in produzione su larga scala. Si rivolge ad ambienti in cui la capacità di elaborazione, la prevedibilità dei prezzi per token e la rapidità delle risposte sono i vincoli principali, pur offrendo solide capacità generali.
Nuovo
Uso commerciale
Playground
Panoramica
Caratteristiche
Prezzi
API

Informazioni di base e caratteristiche principali

GPT-5 mini è il membro della famiglia GPT-5 di OpenAI ottimizzato per costi e latenza, progettato per offrire gran parte dei punti di forza multimodali e di esecuzione delle istruzioni di GPT-5 a un costo significativamente inferiore per l’uso in produzione su larga scala. È destinato ad ambienti in cui throughput, prezzi prevedibili per token e risposte rapide sono i vincoli principali, pur mantenendo solide capacità di uso generale.

  • Nome del modello: gpt-5-mini
  • Finestra di contesto: 400 000 token
  • Token massimi in output: 128 000
  • Caratteristiche principali: velocità, throughput, efficienza dei costi, output deterministici per prompt concisi

Come funziona gpt-5-mini?

Percorso di inferenza e distribuzione ottimizzati. I miglioramenti pratici della velocità derivano da kernel fusion, parallelismo tensoriale ottimizzato per un grafo più piccolo e da un runtime di inferenza che preferisce cicli interni di “ragionamento” più brevi a meno che lo sviluppatore non richieda un ragionamento più approfondito. Per questo motivo mini ottiene un consumo di calcolo sensibilmente inferiore per chiamata e una latenza prevedibile per traffico ad alto volume. Questo compromesso è intenzionale: minore calcolo per ogni forward pass → costo inferiore e latenza media inferiore.

Controlli per sviluppatori. GPT-5 mini espone parametri come verbosity (controlla dettaglio/lunghezza) e reasoning_effort (bilancia velocità e profondità), oltre a un solido supporto per il tool-calling (chiamate di funzione, catene di strumenti parallele e gestione strutturata degli errori), che consente ai sistemi di produzione di regolare con precisione accuratezza e costo.

Prestazioni nei benchmark — numeri principali e interpretazione

GPT-5 mini si colloca in genere entro ~85–95% di GPT-5 high nei benchmark generali, migliorando in modo sostanziale latenza e prezzo. I materiali di lancio della piattaforma indicano punteggi assoluti molto elevati per GPT-5 high (AIME ≈ 94.6% riportato per la variante di punta), con mini leggermente inferiore ma comunque leader del settore per la sua fascia di prezzo.

Su una serie di benchmark standardizzati e interni, GPT-5 mini ottiene:

  • Intelligenza (AIME ’25): 91.1% (vs. 94.6% per GPT-5 high)
  • Multimodale (MMMU): 81.6% (vs. 84.2% per GPT-5 high)
  • Coding (SWE-bench Verified): 71.0% (vs. 74.9% per GPT-5 high)
  • Esecuzione delle istruzioni (Scale MultiChallenge): 62.3% (vs. 69.6%)
  • Function Calling (τ²-bench telecom): 74.1% (vs. 96.7%)
  • Tassi di allucinazione (LongFact-Concepts): 0.7% (più basso è meglio)([OpenAI][4])

Questi risultati dimostrano i solidi compromessi di GPT-5 mini tra prestazioni, costo e velocità.

Limitazioni

Limitazioni note: GPT-5 mini presenta capacità di ragionamento profondo ridotte rispetto a GPT-5 completo, maggiore sensibilità ai prompt ambigui e persistenti rischi di allucinazione.

  • Ragionamento profondo ridotto: per attività di ragionamento multi-step e di lungo orizzonte, il modello di ragionamento completo o le varianti “thinking” superano mini.
  • Allucinazioni ed eccessiva sicurezza: Mini riduce le allucinazioni rispetto ai modelli molto piccoli, ma non le elimina; gli output dovrebbero essere convalidati nei flussi ad alto rischio (legale, clinico, conformità).
  • Sensibilità al contesto: catene di contesto molto lunghe e altamente interdipendenti sono gestite meglio dalle varianti complete di GPT-5 con finestre di contesto più ampie o dal modello “thinking”.
  • Limiti di sicurezza e policy: gli stessi guardrail di sicurezza e gli stessi limiti di frequenza/uso che si applicano agli altri modelli GPT-5 si applicano anche a mini; le attività sensibili richiedono supervisione umana.

Cosa fa gpt-5-mini?

  • Agenti conversazionali ad alto volume: bassa latenza, costo prevedibile.
  • Riepilogo di documenti e contenuti multimodali: riepilogo a lungo contesto, report immagine+testo.
  • Strumenti per sviluppatori su larga scala: controlli CI del codice, revisione automatica, generazione di codice leggera.
  • Orchestrazione di agenti: tool-calling con catene parallele quando non è richiesto ragionamento profondo.

Come inizio a usare l’API gpt-5-mini?

Passaggi richiesti

  • Accedi a cometapi.com. Se non sei ancora un nostro utente, registrati prima
  • Ottieni la credenziale di accesso API key dell’interfaccia. Fai clic su “Add Token” nella sezione API token del centro personale, ottieni la chiave token: sk-xxxxx e inviala.
  • Ottieni l’url di questo sito: https://api.cometapi.com/

Metodo di utilizzo

  1. Seleziona l’endpoint “gpt-5-mini“ / "gpt-5-mini-2025-08-07" per inviare la richiesta API e imposta il corpo della richiesta. Il metodo di richiesta e il corpo della richiesta sono disponibili nella documentazione API del nostro sito. Il nostro sito fornisce anche test Apifox per tua comodità.
  2. Sostituisci <YOUR_API_KEY> con la tua effettiva chiave CometAPI del tuo account.
  3. Inserisci la tua domanda o richiesta nel campo content: è a questo che il modello risponderà.
  4. . Elabora la risposta API per ottenere la risposta generata.

CometAPI fornisce un’API REST completamente compatibile, per una migrazione senza interruzioni. Dettagli principali in API doc:

  • Parametri principali: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Parametro modello: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Autenticazione:  Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json .

Istruzioni per la chiamata API: gpt-5-chat-latest deve essere chiamato usando il formato standard /v1/chat/completions. Per altri modelli (gpt-5, gpt-5-mini, gpt-5-nano e le loro versioni datate), è consigliato usare the /v1/responses format is recommended. Attualmente sono disponibili due modalità.

Funzionalità per GPT-5 mini

Esplora le caratteristiche principali di GPT-5 mini, progettato per migliorare le prestazioni e l'usabilità. Scopri come queste funzionalità possono beneficiare i tuoi progetti e migliorare l'esperienza utente.

Prezzi per GPT-5 mini

Esplora i prezzi competitivi per GPT-5 mini, progettato per adattarsi a vari budget e necessità di utilizzo. I nostri piani flessibili garantiscono che paghi solo per quello che usi, rendendo facile scalare man mano che i tuoi requisiti crescono. Scopri come GPT-5 mini può migliorare i tuoi progetti mantenendo i costi gestibili.
Prezzo Comet (USD / M Tokens)Prezzo Ufficiale (USD / M Tokens)Sconto
Ingresso:$0.2/M
Uscita:$1.6/M
Ingresso:$0.25/M
Uscita:$2/M
-20%

Codice di esempio e API per GPT-5 mini

GPT-5 mini è una variante leggera e ottimizzata in termini di costi del modello di punta GPT-5 di OpenAI, progettata per offrire capacità di ragionamento e multimodali di alta qualità con latenza e costi ridotti.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Altri modelli

A

Claude Opus 4.6

Ingresso:$4/M
Uscita:$20/M
Claude Opus 4.6 è il modello linguistico di grandi dimensioni di classe “Opus” di Anthropic, rilasciato nel febbraio 2026. È posizionato come un cavallo di battaglia per il lavoro della conoscenza e i flussi di lavoro di ricerca — migliorando il ragionamento con contesti estesi, la pianificazione in più fasi, l’uso di strumenti (inclusi i flussi di lavoro software basati su agenti) e le attività d’uso del computer, come la generazione automatizzata di diapositive e fogli di calcolo.
A

Claude Sonnet 4.6

Ingresso:$2.4/M
Uscita:$12/M
Claude Sonnet 4.6 è il nostro modello Sonnet più capace finora. È un aggiornamento completo delle capacità del modello in ambiti quali programmazione, uso del computer, ragionamento su contesti estesi, pianificazione degli agenti, lavoro basato sulla conoscenza e design. Sonnet 4.6 offre anche una finestra di contesto da 1M token in beta.
O

GPT-5.4 nano

Ingresso:$0.16/M
Uscita:$1/M
GPT-5.4 nano è progettato per attività in cui la velocità e il costo contano maggiormente, come classificazione, estrazione dei dati, ordinamento e sub-agenti.
O

GPT-5.4 mini

Ingresso:$0.6/M
Uscita:$3.6/M
GPT-5.4 mini porta i punti di forza di GPT-5.4 in un modello più veloce ed efficiente, progettato per carichi di lavoro ad alto volume.
A

Claude Mythos Preview

A

Claude Mythos Preview

Prossimamente
Ingresso:$60/M
Uscita:$240/M
Claude Mythos Preview è il nostro modello di frontiera più capace finora e mostra un balzo notevole nei punteggi su molti benchmark di valutazione rispetto al nostro precedente modello di frontiera, Claude Opus 4.6.
X

mimo-v2-pro

Ingresso:$0.8/M
Uscita:$2.4/M
MiMo-V2-Pro è il modello di base di punta di Xiaomi, con oltre 1T di parametri totali e una lunghezza del contesto di 1M, profondamente ottimizzato per scenari agentici. È altamente adattabile a framework per agenti generici come OpenClaw. Si colloca tra i migliori al mondo nei benchmark standard PinchBench e ClawBench, con prestazioni percepite che si avvicinano a quelle di Opus 4.6. MiMo-V2-Pro è progettato per fungere da cervello dei sistemi di agenti, orchestrando flussi di lavoro complessi, guidando attività di ingegneria in produzione e fornendo risultati in modo affidabile.