L'API OpenAI Responses riceve un aggiornamento importante al posto dell'API Assistants

CometAPI
AnnaMay 27, 2025
L'API OpenAI Responses riceve un aggiornamento importante al posto dell'API Assistants

OpenAI ha implementato un aggiornamento significativo della sua API Responses, introducendo una suite di potenti strumenti e funzionalità di livello enterprise che trasformano il modo in cui gli sviluppatori creano applicazioni agentiche. Annunciata il 21 maggio 2025, questa versione si basa sulla API Responses iniziale lanciata a marzo 2025, che ha sostituito l'API Assistants e ha già elaborato migliaia di miliardi di token su modelli come GPT-4o e i motori di ragionamento della serie o.

Differenza con la tradizionale API ChatGPT (completamento chat)

  • Completamenti primitivi Agent-First vs. solo testo: A differenza dell'API Chat Completions, che restituisce testo normale in base ai prompt, l'API Responses è progettata come un elemento fondamentale per la creazione di esperienze "agentiche", consentendo ai modelli di pianificare ed eseguire attività in più fasi chiamando strumenti esterni direttamente all'interno della loro catena di pensiero.
  • Orchestrazione degli strumenti integrati: Mentre Chat Completions offre la possibilità di chiamare funzioni, Responses unifica l'invocazione di strumenti, come la generazione di immagini o l'esecuzione di codice, in un'unica chiamata API semplificata, riducendo il codice standard e migliorando la produttività degli sviluppatori.
  • Stato di ragionamento preservato: Modelli come o3 e o4-mini mantengono i token di ragionamento tra chiamate e invocazioni di strumenti, garantendo una comprensione contestuale più completa e una latenza inferiore rispetto ai completamenti senza stato.
  • Affidabilità di livello aziendale: Funzionalità quali la modalità in background per le attività asincrone, i riepiloghi dei ragionamenti per la verificabilità e gli elementi di ragionamento crittografati per i clienti Zero Data Retention garantiscono SLA e controlli della privacy più rigorosi rispetto all'endpoint di completamento chat standard.

Nuove funzionalità

  1. Supporto remoto per server MCP: Collega qualsiasi server Model Context Protocol (Shopify, Stripe, Twilio e altri) per estendere il contesto del modello con fonti di dati di terze parti tramite poche righe di codice.
  2. Generazione di immagini native: Accedi al gpt-image-1 modello come strumento all'interno di Risposte, consentendo anteprime in streaming e modifiche multi-turn senza chiamate API separate.
  3. Interprete di codice integrato: Eseguire analisi dei dati, calcoli complessi e manipolazioni delle immagini direttamente all'interno del flusso agentico, migliorando le prestazioni nei benchmark di settore.
  4. Ricerca file avanzata: Esegui query su più archivi vettoriali con filtri di attributi per estrarre frammenti di documenti pertinenti e inserirli nel contesto, semplificando le integrazioni della knowledge base.
  5. Funzionalità aziendali: Modalità in background per gestire attività di ragionamento di lunga durata, riepiloghi di ragionamento automatici per il debug ed elementi di ragionamento crittografati per distribuzioni conformi.

Prezzi e disponibilità

Tutti i nuovi strumenti e funzionalità sono disponibili immediatamente nell'API Responses per GPT-4o, GPT-4.1 e i modelli della serie O (O1, O3, O3-mini, O4-mini); la generazione di immagini è supportata solo su O3. I prezzi rimangono in linea con quelli degli strumenti esistenti:

  • Generazione di immagini: $ 5.00 per 1 milione di token di input di testo, $ 10.00 per 1 milione di token di input di immagini, $ 40.00 per 1 milione di token di output di immagini (sconto del 75% sugli input memorizzati nella cache)
  • Interprete del codice: $ 0.03 per esecuzione del contenitore
  • Ricerca file: $ 0.10 per GB di spazio di archiviazione vettoriale al giorno (primo GB gratuito); $ 2.50 per 1 K chiamate di strumenti
  • Server MCP remoti: Nessun costo aggiuntivo: si applica la fatturazione standard tramite token di output.

Nessuna tariffa API di risposte separata: i token vengono fatturati in base alle tariffe di input/output del modello selezionato (ad esempio, GPT-4.1 alle tariffe pubblicate per token).

Gli sviluppatori e le aziende possono iniziare a integrare queste funzionalità oggi tramite client.responses.create Endpoint. Con questi miglioramenti, OpenAI mira a potenziare applicazioni basate sull'intelligenza artificiale più intelligenti, affidabili e sicure in tutti i settori. L'API Responses è disponibile da oggi per tutti gli sviluppatori e l'API legacy Assistants sarà completamente dismessa entro la metà del 2026. Le integrazioni esistenti di Assistants possono essere migrate con modifiche minime al codice, grazie a schemi di richiesta e risposta compatibili.

Iniziamo

CometAPI fornisce un'interfaccia REST unificata che aggrega centinaia di modelli di intelligenza artificiale, inclusa la famiglia ChatGPT, in un endpoint coerente, con gestione integrata delle chiavi API, quote di utilizzo e dashboard di fatturazione. Questo significa che non dovrete più destreggiarvi tra URL e credenziali di più fornitori.

Gli sviluppatori possono accedere all'ultima API chatgpt API GPT-4.1 attraverso CometaAPIPer iniziare, esplora le capacità del modello nel Playground e consulta il Guida API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l'accesso a CometAPI e di aver ottenuto la chiave API.

Leggi di più

500+ Modelli in Una API

Fino al 20% di sconto