"Error in message stream" in ChatGPT: che cos'è e come risolvere

CometAPI
AnnaDec 30, 2025
"Error in message stream" in ChatGPT: che cos'è e come risolvere

“Error in message stream” (e messaggi correlati come “Error in body stream”) è un errore di streaming/connessione che interrompe la risposta di ChatGPT mentre il modello sta inviando dati al tuo client — spesso causato da problemi temporanei lato server, interruzioni di rete, timeout o problemi lato client (browser, proxy o app). Il messaggio indica che il flusso di risposta si è fermato prima che la risposta completa fosse terminata.

Di seguito trovi una guida professionale, pratica e aggiornata che spiega cosa significa questo messaggio, perché accade, come riconoscerlo e i passaggi specifici che puoi intraprendere — sia che tu sia un utente occasionale, un abbonato pagante, o uno sviluppatore che chiama l’API o utilizza l’Apps SDK.

What is the “ChatGPT Error in Message Stream” (or “Error in Body Stream”)?

Quando usi ChatGPT (nell’app web, nell’app mobile o tramite API) il modello spesso effettua lo streaming della risposta a blocchi anziché consegnare un unico payload finale. “Error in message stream” / “Error in body stream” è l’etichetta che compare quando quella connessione di streaming viene interrotta o fallisce prima che la risposta si completi. Potresti incontrare questi messaggi in tre contesti:

  • Nell’interfaccia web o mobile di ChatGPT quando il client tenta di renderizzare una risposta generata ma il server o la connessione di trasporto si interrompe.
  • Nei log lato server o client quando utilizzi l’Assistants API o le API Chat Completion / streaming meno recenti.
  • All’interno di integrazioni costruite con l’Apps SDK, i Plugin o connettori personalizzati quando ChatGPT tenta di includere contenuti esterni (per esempio, allegati o risposte da webhook) e il flusso viene troncato.

Tecnicamente, il messaggio indica che il canale di streaming usato per trasmettere token parziali, chunk o messaggi evento è stato chiuso, malformato o comunque interrotto prima che la risposta raggiungesse uno stato finale e completato. Questo stato incompleto impedisce al client di calcolare o visualizzare l’output finale dell’assistente.

What causes the “Error in body stream”?

Is the cause server-side, client-side, or both?

Risposta breve: tutte le precedenti. Gli errori di streaming possono essere causati da una serie di problemi, più comunemente:

Network and transport interruptions

La causa sottostante più comune è un’interruzione del trasporto mentre il server sta inviando dati in streaming. Lo streaming si basa su una connessione stabile e continua; perdite di pacchetti transitorie, timeout del proxy, interruzioni VPN o bilanciatori di carico intermedi che chiudono connessioni inattive possono tutti provocare un flusso troncato. Molti utenti riscontrano il problema in periodi di scarsa qualità della rete o quando proxy aziendali ispezionano o limitano connessioni HTTP di lunga durata.

Server-side issues and heavy load

Se il livello di servizio di OpenAI che gestisce lo streaming è sovraccarico, il server può terminare lo streaming in anticipo o restituire un errore lato server a metà flusso. Gli utenti hanno segnalato interruzioni e risposte troncate durante periodi di carico aumentato della piattaforma e in diversi thread recenti di incidenti dell’Assistants API. Quando si verifica un errore a monte lato server, i client in genere ricevono un oggetto di errore conciso che indica che il flusso è finito con un errore.

File attachments and content-specific failures

Quando le chat includono allegati (immagini, PDF) o quando connettori personalizzati passano dati binari, la pipeline di elaborazione dei contenuti può fallire durante la produzione di una risposta in streaming. Gli allegati immagine in particolare possono essere associati a "Error in message stream" quando la fase di elaborazione dell’immagine fallisce o va in timeout. Il client mostrerà quindi un messaggio di errore in rosso come data: {"message": null, "error": "Error in message stream"}.

Client-side causes: browser, extensions, and caching

Cache del browser corrotta, estensioni del browser (blocchi privacy, ad‑blocker, ispezione HTTPS) o software di sicurezza configurato in modo errato possono corrompere le risposte in streaming o chiudere prematuramente la connessione. Molte guide di troubleshooting evidenziano la pulizia lato browser (cache/cookie, modalità sicura) come un primo passo comune ed efficace. Il caricamento di allegati aumenta la probabilità di errori per tre ragioni:

  • Complessità di parsing dei file: ChatGPT richiede l’estrazione e la pre-elaborazione del testo. File corrotti, cifrati o PDF con molte immagini possono fallire durante questo processo.
  • Timeout: file grandi possono superare i tempi interni di OpenAI durante la fase di pre-elaborazione o il numero di token disponibili.
  • Utilizzo della memoria del browser: l’elaborazione locale di file di grandi dimensioni può causare un "unknown error" o "upload failed".

API misuse, configuration, and permissions

Lato API/integrazione, una configurazione errata come l’uso di una modalità di streaming non supportata, la mancanza di verifica dell’organizzazione per determinati modelli o l’invio di header di richiesta malformati può generare errori di flusso. Ad esempio, gli sviluppatori hanno segnalato errori quando si tenta lo streaming con modelli o account che richiedono verifica per l’accesso in streaming. Inoltre, non rispettare le regole del protocollo di streaming (ad esempio, non ascoltare il segnale di chiusura data: [DONE]) può portare il client a interpretare erroneamente una fine del flusso valida come un errore.

What are the common symptoms of the error

Symptom: partial output and abrupt cut-off

Quando il flusso fallisce a metà risposta potresti vedere testo parziale (l’assistente inizia a rispondere) e poi il contenuto si interrompe bruscamente. Il client può mostrare un pulsante “regenerate” o un’indicazione che la risposta è incompleta. Questo è tipico di errori di trasporto transitori o terminazioni lato server. Nell’interfaccia web o mobile di ChatGPT:

  • Una scheda o un toast che dice “Error in message stream” o “Error in body stream”, spesso accompagnato da un pulsante “Retry”.
  • Risposte parziali visualizzate nella conversazione seguite dall’errore (il modello ha iniziato a rispondere, poi la risposta si ferma a metà frase).
  • Un messaggio “There was an error generating a response” o un output rigenerato che fallisce.

Symptom: error traces in logs and SDK exceptions

Gli sviluppatori vedranno eccezioni negli SDK o nei log del server come "Error occurred while streaming." o messaggi a livello di trasporto come stream disconnected before completion: Transport error: error decoding response body. Queste tracce di log sono cruciali per la triage perché catturano l’errore a livello di client o host che ha accompagnato il flusso troncato. Nei log di sviluppo o nei client API:

  • Eventi di terminazione della connessione HTTP, eccezioni di socket o tracebacks come “ConnectionResetError” o errori di rete simili.
  • Il client API riceve un flusso incompleto o errori di parsing JSON perché il flusso si è chiuso a metà payload.
  • Log della console che mostrano chunk SSE falliti, o l’Apps SDK che registra “Failed to fetch” o “Error in message stream.”

Symptom: a red inline error in the ChatGPT UI

Nell’interfaccia web di ChatGPT, un flusso fallito è spesso rappresentato da un riquadro di errore rosso al posto della risposta dell’assistente con la dicitura “Error in message stream” (o simile). A volte il messaggio non include una spiegazione leggibile — solo un breve JSON con un campo error.

Symptom: repeated failures under certain operations

Se l’errore compare costantemente durante un’operazione specifica (per esempio: allegare immagini, invocare un plugin GPT o chiamare una determinata route di un connettore personalizzato), ciò indica un errore di elaborazione specifico del contenuto piuttosto che un rumore di rete intermittente.

How should you diagnose the problem?

Step 1 — Confirm scope: single user, single network, or platform-wide

  • Verifica se altri utenti dello stesso account, o su altre reti, riescono a riprodurre il problema.
  • Controlla la status page di OpenAI o le segnalazioni recenti della community per capire se c’è un outage più ampio o un incidente noto. Se più utenti indipendenti sono interessati, la causa radice è più probabilmente lato server.

Step 2 — Reproduce with minimal variables

  • Riproduci la richiesta usando il caso più semplice possibile: nessun allegato, nessun plugin, un prompt breve.
  • Se stai chiamando l’API/Assistants API, prova stream: false o una richiesta non in streaming per determinare se il comportamento specifico dello streaming scatena il problema. (Nota: alcuni modelli o configurazioni organizzative possono rifiutare richieste in streaming.)

Step 3 — Browser and network checks (end-user)

  • Passa a una finestra in incognito/privata con le estensioni disabilitate.
  • Cancella cache e cookie, oppure prova con un browser diverso.
  • Prova su una rete diversa (hotspot mobile) per escludere problemi con proxy/firewall aziendali.

Step 4 — Capture diagnostic logs (developer)

  • Se possiedi l’integrazione, registra l’intera richiesta e la risposta a livello di trasporto (inclusi i confini dei chunk e eventuali oggetti JSON di errore).
  • Annota timestamp, dimensioni di richiesta/risposta e se il flusso si è interrotto prima del segnale [DONE] o dell’evento di finalizzazione. Questi dati aiutano a determinare se è stato prodotto un flusso parziale di token o se il server ha interrotto in anticipo.

Step 5 — Validate attachments and content

Se il fallimento si verifica solo quando sono presenti immagini o file, riproduci con file più piccoli o diversi per testare il percorso di elaborazione. Alcuni tipi di file o immagini corrotte possono causare il fallimento della fase di elaborazione dei contenuti.

How to fix “Error in message stream” — step-by-step remedies

How do you fix the error? (Practical, prioritized steps)

Di seguito sono riportati passaggi concreti ordinati in base alla probabilità di risolvere rapidamente il problema. Applicali in sequenza finché l’errore non si risolve.

Fix 1 — Retry and regenerate (fastest user-facing step)

  • Nell’interfaccia di ChatGPT, clicca su Regenerate per tentare di nuovo lo stesso messaggio. Per molti problemi temporanei di rete e lato server, un semplice retry produce uno streaming corretto. Se l’errore è intermittente, questo è il rimedio più semplice e veloce.

Fix 2 — Confirm and reset network and browser state

  • Passa a una rete diversa (hotspot cellulare o un altro Wi‑Fi).
  • Cancella cache e cookie del browser, oppure usa una finestra in incognito con le estensioni disabilitate.
  • Riavvia il router se altri dispositivi mostrano connettività degradata. Questi passaggi affrontano problemi di proxy, caching e DNS che possono corrompere flussi di lunga durata.

Fix 3 — Regenerate without problematic attachments

Se l’errore si verifica durante il caricamento di immagini o allegati, rimuovi l’allegato e riprova. Se funziona, ripeti con versioni più piccole o riformattate del file. Spesso ridimensionare le immagini o convertirle riduce i tempi di elaborazione ed elimina il problema.

Fix 4 — Fall back to non-streaming mode (developer)

Se controlli un’applicazione che usa l’API con streaming, passa a una richiesta senza streaming (stream: false) come mitigazione a breve termine. Le richieste non in streaming restituiscono un payload completo e sono meno sensibili a problemi di trasporto di lunga durata, anche se possono aumentare la latenza della risposta e l’uso di memoria. Tieni presente che alcune combinazioni account/modello possono richiedere la verifica dell’organizzazione per l’accesso in streaming o non in streaming — verifica i permessi dell’account.

Fix 5 — Implement robust retry/backoff and signal handling (developer best practice)

Aggiungi logica di retry idempotente con backoff esponenziale per gli errori di flusso. In caso di troncamento a livello di trasporto, riemetti lo stesso prompt (o un delta troncato) affinché le risposte possano essere richieste di nuovo senza perdere stato.

Se il progresso deve essere preservato, progetta il client per tollerare output parziali (memorizza l’ultimo token ricevuto con successo) e riprendi o richiedi il resto dove possibile.

Fix 6 — Validate TLS/SSL and proxy settings (integration owners)

Assicurati che proxy intermedi, terminatori TLS e CDN siano configurati per consentire connessioni di streaming di lunga durata e non impongano timeout di inattività aggressivi. Alcuni strumenti aziendali di ispezione TLS terminano o alterano i corpi in streaming, producendo errori di decodifica. Se controlli l’ambiente, metti in whitelist gli endpoint di OpenAI o disabilita l’ispezione profonda dei pacchetti per tali route.

Final thoughts: balance expectation with design

Gli errori di streaming sono una realtà operativa quando i servizi restituiscono output lunghi o in streaming su internet. La maggior parte degli episodi è transitoria e si risolve con azioni semplici dell’utente (refresh/regenerate) o con fix lato piattaforma. Per power user e ingegneri, la strategia più affidabile è combinare una buona resilienza lato client (timeout, retry, UI gradevole), monitoraggio proattivo (status page, tassi di errore) e fallback operativi sensati (sistemi o workflow alternativi).

CometAPI fornisce un gateway API unificato che espone diversi modelli di AI sottostanti — inclusi i modelli ChatGPT — così che gli sviluppatori possano richiedere programmaticamente immagini e brevi video generati dall’AI senza integrare direttamente le interfacce proprietarie di ciascun vendor.

Gli sviluppatori possono accedere al modello ChatGPT (come gpt 5.2) tramite CometAPI. Per iniziare, esplora le funzionalità dei modelli di CometAPI nel Playground e consulta la guida all’API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l’accesso a CometAPI e di aver ottenuto la chiave API. CometAPI offre un prezzo molto inferiore a quello ufficiale per aiutarti a integrare.

Ready to Go?→ Prova gratuita dei modelli di ChatGPT!

Accesso ai Migliori Modelli a Basso Costo

Leggi di più