Il nome in codice GPT-5.3“Garlic”, è descritto in leak e reportage come una release GPT-5.x incrementale/iterativa, pensata per colmare le lacune nel ragionamento, nel coding e nelle prestazioni di prodotto di OpenAI in risposta alla pressione competitiva di Google con Gemini e Anthropic con Claude.
OpenAI sta sperimentando un’iterazione GPT-5.x più densa ed efficiente, focalizzata su un ragionamento più robusto, inferenza più rapida e flussi di lavoro a contesto più lungo, invece di puntare unicamente su conteggi di parametri sempre maggiori. Non si tratta semplicemente di un’altra iterazione della serie Generative Pre-trained Transformer; è una controffensiva strategica. Nata da un "Code Red" interno dichiarato dal CEO Sam Altman nel dicembre 2025, "Garlic" rappresenta il rifiuto del dogma "più grande è meglio" che ha guidato lo sviluppo degli LLM per mezzo decennio. Al contrario, scommette tutto su una nuova metrica: densità cognitiva.
Che cos’è GPT-5.3 “Garlic”?
GPT-5.3 — nome in codice “Garlic” — viene descritto come il prossimo passo iterativo nella famiglia GPT-5 di OpenAI. Le fonti che inquadrano il leak presentano Garlic non come un semplice checkpoint o un ritocco sui token, bensì come un affinamento mirato di architettura e training: l’obiettivo è estrarre prestazioni di ragionamento superiori, un migliore planning multi-step e un comportamento migliorato su contesti lunghi da un modello più compatto ed efficiente in inferenza, invece di fare affidamento esclusivo sulla scala. Questo inquadramento è in linea con le tendenze più ampie del settore verso design “densi” o “ad alta efficienza”.
Il nomignolo "Garlic" — un netto distacco dai codenames celestiali (Orion) o dolcemente botanici (Strawberry) del passato — è a quanto pare una metafora interna deliberata. Proprio come uno spicchio d’aglio può insaporire un intero piatto più potentemente di ingredienti più grandi e più insipidi, questo modello è progettato per fornire intelligenza concentrata senza l’enorme overhead computazionale dei giganti del settore.
La genesi del "Code Red"
L’esistenza di Garlic non può essere separata dalla crisi esistenziale che l’ha generata. A fine 2025, OpenAI si è trovata in una posizione “difensiva” per la prima volta dal lancio di ChatGPT. Gemini 3 di Google aveva conquistato lo scettro per i benchmark multimodali, e Claude Opus 4.5 di Anthropic era diventato lo standard de facto per coding complesso e flussi di lavoro agentici. In risposta, la leadership di OpenAI ha messo in pausa progetti periferici — incluse sperimentazioni di ad-platform e espansioni di agent consumer — per concentrarsi interamente su un modello in grado di eseguire un “attacco tattico” contro questi concorrenti.
Garlic è quell’attacco. Non è pensato per essere il modello più grande al mondo; è progettato per essere il più intelligente per parametro. Fonse le linee di ricerca di precedenti progetti interni, soprattutto "Shallotpeat", incorporando bug fix ed efficienze di pre-training che gli permettono di rendere ben al di sopra della sua classe di peso.
Qual è lo stato attuale delle iterazioni osservate del modello GPT-5.3?
A metà gennaio 2026, GPT-5.3 è nelle fasi finali di validazione interna, una fase spesso descritta nella Silicon Valley come “hardening”. Il modello è attualmente visibile nei log interni ed è stato spot-testato da alcuni partner enterprise selezionati sotto rigorosi accordi di non divulgazione.
Iterazioni osservate e integrazione di "Shallotpeat"
La strada verso Garlic non è stata lineare. Leak di memo interni del Chief Research Officer Mark Chen suggeriscono che Garlic sia in realtà un composito di due piste di ricerca distinte. Inizialmente, OpenAI stava sviluppando un modello con nome in codice "Shallotpeat", pensato come aggiornamento incrementale diretto. Tuttavia, durante il pre-training di Shallotpeat, i ricercatori hanno scoperto un metodo innovativo per “comprimere” i pattern di ragionamento — insegnando essenzialmente al modello a scartare percorsi neurali ridondanti nelle prime fasi del processo di training.
Questa scoperta ha portato all’abbandono del rilascio standalone di Shallotpeat. La sua architettura è stata fusa con il ramo più sperimentale "Garlic". Il risultato è un’iterazione ibrida che possiede la stabilità di una variante GPT-5 matura ma l’efficienza di ragionamento esplosiva di una nuova architettura.

Quando possiamo dedurre che avverrà il rilascio?
Prevedere le date di rilascio di OpenAI è notoriamente difficile, ma lo status di "Code Red" accelera le timeline standard. Sulla base della convergenza di leak, aggiornamenti dei vendor e cicli dei concorrenti, possiamo triangolare una finestra di rilascio.
Finestra primaria: Q1 2026 (gennaio - marzo)
Il consenso tra gli insider è un lancio in Q1 2026. Il "Code Red" è stato dichiarato a dicembre 2025, con la direttiva di rilasciare "il prima possibile". Considerando che il modello è già in fase di checking/validazione (la fusione con "Shallotpeat" ha accelerato la timeline), una release a fine gennaio o inizio febbraio sembra la più plausibile.
Il rollout “Beta”
Potremmo vedere un rilascio scaglionato:
- Fine gennaio 2026: una release “preview” per partner selezionati e utenti ChatGPT Pro (possibilmente con l’etichetta "GPT-5.3 (Preview)").
- Febbraio 2026: disponibilità API completa.
- Marzo 2026: integrazione nel tier gratuito di ChatGPT (query limitate) per contrastare l’accessibilità gratuita di Gemini.
3 funzionalità distintive di GPT-5.3?
Se i rumor si riveleranno veri, GPT-5.3 introdurrà una suite di funzionalità che privilegiano utilità e integrazione rispetto alla pura creatività generativa. Il set di feature suona come una wishlist per architetti di sistemi e sviluppatori enterprise.
1. Pre-Training ad alta densità (EPTE)
Il gioiello della corona di Garlic è la sua Enhanced Pre-Training Efficiency (EPTE).
I modelli tradizionali apprendono vedendo enormi quantità di dati e creando una rete estesa di associazioni. Il processo di training di Garlic includerebbe una fase di “pruning” in cui il modello condensa attivamente le informazioni.
- Il risultato: un modello fisicamente più piccolo (in termini di requisiti di VRAM) ma che conserva la “Conoscenza del mondo” di un sistema molto più grande.
- Il beneficio: velocità di inferenza più elevate e costi API significativamente inferiori, andando a risolvere il rapporto “intelligenza/costo” che ha ostacolato l’adozione di massa di modelli come Claude Opus.
2. Ragionamento agentico nativo
A differenza dei modelli precedenti che richiedevano “wrapper” o prompt engineering complessi per funzionare come agenti, Garlic dispone di capability di tool-calling native.
Il modello tratta le chiamate API, l’esecuzione di codice e le query al database come “cittadini di prima classe” nel suo vocabolario.
- Integrazione profonda: non “sa solo programmare”; comprende l’ambiente del codice. A quanto si dice, può navigare in un file system, modificare più file contemporaneamente ed eseguire i propri unit test senza script di orchestrazione esterni.
3. Finestre di contesto e output massicce
Per competere con la finestra da un milione di token di Gemini, Garlic sarebbe fornito con una finestra di contesto da 400.000 token. Sebbene più piccola dell’offerta di Google, il differenziatore chiave è la “Memoria perfetta” su quella finestra, grazie a un nuovo meccanismo di attenzione che previene la perdita tipica della “zona centrale del contesto” nei modelli del 2025.
- Limite di output 128k: forse ancora più interessante per gli sviluppatori è l’espansione rumoreggiata del limite di output a 128.000 token. Questo consentirebbe al modello di generare intere librerie software, memorie legali complete o romanzi di lunghezza piena in un singolo passaggio, eliminando la necessità di “chunking”.
4. Allucinazioni drasticamente ridotte
Garlic utilizza una tecnica di reinforcement post-training focalizzata sull’“umiltà epistemica” — il modello è rigorosamente addestrato a sapere ciò che non sa. Test interni mostrano un tasso di allucinazione significativamente inferiore rispetto a GPT-5.0, rendendolo adatto a settori ad alto rischio come biomedicina e diritto.
Come si confronta con concorrenti come Gemini e Claude 4.5?
Il successo di Garlic non sarà misurato in isolamento, ma in confronto diretto ai due titani che attualmente dominano l’arena: Gemini 3 di Google e Claude Opus 4.5 di Anthropic.
GPT-5.3 “Garlic” vs. Google Gemini 3
La battaglia tra scala e densità.
- Gemini 3: attualmente il modello “kitchen sink”. Domina nella comprensione multimodale (video, audio, generazione di immagini nativa) e ha una finestra di contesto praticamente infinita. È il miglior modello per dati reali “disordinati”.
- GPT-5.3 Garlic: non può competere con l’ampiezza multimodale grezza di Gemini. Invece, attacca Gemini sulla Purezza del ragionamento. Per generazione di testo puro, logica di codice e follow-up di istruzioni complesse, Garlic punta a essere più affilato e meno incline a “rifiuti” o divagazioni.
- Verdetto: se devi analizzare un video di 3 ore, usi Gemini. Se devi scrivere il backend per un’app bancaria, usi Garlic.
GPT-5.3 “Garlic” vs. Claude Opus 4.5
La battaglia per l’anima dello sviluppatore.
- Claude Opus 4.5: rilasciato a fine 2025, questo modello ha conquistato gli sviluppatori con la sua “calorosità” e “vibes”. È famoso per scrivere codice pulito, leggibile e per seguire le istruzioni di sistema con precisione militare. Tuttavia, è costoso e lento.
- GPT-5.3 Garlic: questo è il bersaglio diretto. Garlic mira a eguagliare la competenza di coding di Opus 4.5 ma a 2x la velocità e 0,5x il costo. Grazie al “Pre-Training ad alta densità”, OpenAI vuole offrire intelligenza di livello Opus con un budget da Sonnet.
- Verdetto: il "Code Red" è stato attivato specificamente dal dominio di Opus 4.5 nel coding. Il successo di Garlic dipende interamente dalla capacità di convincere gli sviluppatori a tornare a usare le API di OpenAI. Se Garlic sa programmare bene quanto Opus ma gira più veloce, il mercato cambierà da un giorno all’altro.
Sintesi
Build interne preliminari di Garlic già superano Gemini 3 di Google e Opus 4.5 di Anthropic in domini specifici e ad alto valore:
- Competenza di coding: in benchmark “duri” interni (oltre il HumanEval standard), Garlic ha mostrato una minore tendenza a bloccarsi in “loop logici” rispetto a GPT-4.5.
- Densità di ragionamento: il modello richiede meno token di “pensiero” per arrivare a conclusioni corrette, in contrasto diretto con la pesantezza della chain-of-thought della serie o1 (Strawberry).
| Metric | GPT-5.3 (Garlic) | Google Gemini 3 | Claude 4.5 |
|---|---|---|---|
| Reasoning (GDP-Val) | 70.9% | 53.3% | 59.6% |
| Coding (HumanEval+) | 94.2% | 89.1% | 91.5% |
| Context Window | 400K Tokens | 2M Tokens | 200K Tokens |
| Inference Speed | Ultra-Fast | Moderate | Fast |
Conclusione
“Garlic” è un rumor attivo e plausibile: una traccia di ingegneria mirata di OpenAI che dà priorità a densità di ragionamento, efficienza e tooling reale. La sua comparsa va vista nel contesto di una corsa agli armamenti accelerata tra i provider di modelli (OpenAI, Google, Anthropic) — in cui il premio strategico non è solo la capacità grezza, ma la capacità utilizzabile per dollaro e per millisecondo di latenza.
Se ti interessa questo nuovo modello, segui CometAPI. Aggiorna sempre con i migliori e più nuovi modelli di AI a un prezzo accessibile.
Gli sviluppatori possono accedere a GPT-5.2 ,Gemini 3, Claude 4.5 tramite CometAPI ora. Per iniziare, esplora le capacità dei modelli di CometAPI nel Playground e consulta la API guide per istruzioni dettagliate. Prima dell’accesso, assicurati di aver effettuato l’accesso a CometAPI e di aver ottenuto la chiave API. CometAPI offre un prezzo molto inferiore rispetto al prezzo ufficiale per aiutarti nell’integrazione.
Pronto a partire?→ Sign up for CometAPI today !
Se vuoi conoscere più consigli, guide e notizie sull’AI seguici su VK, X e Discord!
