Il nome in codice GPT-5.3“Garlic”, viene descritto in leak e reportage come la prossima release incrementale/iterativa della serie GPT-5.x, pensata per colmare le lacune nel ragionamento, nel coding e nelle prestazioni di prodotto per OpenAI, in risposta alla pressione competitiva di Gemini di Google e Claude di Anthropic.
OpenAI sta sperimentando un’iterazione GPT-5.x più densa ed efficiente, incentrata su un ragionamento più solido, inferenza più rapida e flussi di lavoro a contesto più lungo, piuttosto che su un mero incremento del numero di parametri. Non si tratta di un’altra semplice iterazione della serie Generative Pre-trained Transformer; è una controffensiva strategica. Nata da un “Code Red” interno dichiarato dal CEO Sam Altman nel dicembre 2025, “Garlic” rappresenta un rifiuto del dogma “bigger is better” che ha guidato lo sviluppo degli LLM per mezzo decennio. Invece, punta tutto su un nuovo parametro: la densità cognitiva.
Che cos’è GPT-5.3 “Garlic”?
GPT-5.3 — nome in codice “Garlic” — viene descritto come il prossimo passo iterativo nella famiglia GPT-5 di OpenAI. Le fonti che inquadrano il leak presentano Garlic non come un semplice checkpoint o un ritocco ai token, ma come un affinamento mirato di architettura e training: l’obiettivo è estrarre prestazioni di ragionamento superiori, una pianificazione multi-step migliore e un comportamento ottimizzato sui contesti lunghi da un modello più compatto ed efficiente in inferenza, anziché fare affidamento esclusivamente sulla pura scala. Questo inquadramento è in linea con le tendenze del settore verso design “densi” o “ad alta efficienza”.
Il soprannome “Garlic” — una netta deviazione dai nomi in codice celesti (Orion) o dal sapore botanico-dolce (Strawberry) del passato — è, a quanto pare, una metafora interna deliberata. Proprio come un singolo spicchio d’aglio può insaporire un intero piatto più potentemente di ingredienti più grandi ma insipidi, questo modello è progettato per fornire intelligenza concentrata senza l’enorme overhead computazionale dei giganti del settore.
La genesi del "Code Red"
L’esistenza di Garlic non può essere disgiunta dalla crisi esistenziale che l’ha generata. Alla fine del 2025, per la prima volta dal lancio di ChatGPT, OpenAI si è trovata in una posizione “difensiva”. Gemini 3 di Google aveva conquistato la corona nei benchmark multimodali, e Claude Opus 4.5 di Anthropic era diventato lo standard de facto per il coding complesso e i flussi di lavoro agentici. In risposta, la leadership di OpenAI ha messo in pausa progetti periferici — inclusi esperimenti di ad platform ed espansioni di agent consumer — per concentrarsi interamente su un modello in grado di sferrare un “colpo tattico” ai concorrenti.
Garlic è quel colpo. Non è progettato per essere il modello più grande al mondo; è progettato per essere il più intelligente per parametro. Unifica le linee di ricerca di precedenti progetti interni, in particolare “Shallotpeat”, incorporando bugfix ed efficienze di pre-training che gli consentono di “colpire” ben oltre la propria categoria.
Qual è lo stato attuale delle iterazioni osservate del modello GPT-5.3?
A metà gennaio 2026, GPT-5.3 si trova nelle fasi finali di validazione interna, una fase spesso descritta nella Silicon Valley come “hardening”. Il modello è attualmente visibile nei log interni ed è stato testato “spot” da selezionati partner enterprise sotto stretti accordi di non divulgazione.
Iterazioni osservate e integrazione di "Shallotpeat"
La strada verso Garlic non è stata lineare. Memos interni trapelati del Chief Research Officer Mark Chen suggeriscono che Garlic sia in realtà un composito di due filoni di ricerca distinti. Inizialmente, OpenAI stava sviluppando un modello dal nome in codice “Shallotpeat”, inteso come aggiornamento incrementale diretto. Tuttavia, durante il pre-training di Shallotpeat, i ricercatori hanno scoperto un metodo inedito per “comprimere” i pattern di ragionamento — in sostanza, insegnando al modello a scartare i percorsi neurali ridondanti in una fase più precoce del processo di training.
Questa scoperta ha portato all’abbandono della release standalone di Shallotpeat. La sua architettura è stata fusa con il ramo più sperimentale “Garlic”. Il risultato è un’iterazione ibrida che possiede la stabilità di una variante GPT-5 matura ma l’esplosiva efficienza di ragionamento di una nuova architettura.

Quando possiamo dedurre che avverrà il rilascio?
Prevedere le date di rilascio di OpenAI è notoriamente difficile, ma lo status di “Code Red” accelera le tempistiche standard. Basandoci sulla convergenza di leak, aggiornamenti dei vendor e cicli dei competitor, possiamo triangolare una finestra di rilascio.
Finestra primaria: Q1 2026 (January - March)
Il consenso degli insider è un lancio in Q1 2026. Il “Code Red” è stato dichiarato a dicembre 2025, con la direttiva di rilasciare “il prima possibile”. Considerato che il modello è già in fase di checking/validazione (la fusione con “Shallotpeat” avendo accelerato la timeline), un rilascio tra fine gennaio o inizio febbraio sembra il più plausibile.
Il rollout “Beta”
Potremmo vedere un rilascio scaglionato:
- Fine gennaio 2026: una release “preview” per partner selezionati e utenti ChatGPT Pro (forse sotto l’etichetta “GPT-5.3 (Preview)”).
- Febbraio 2026: disponibilità completa dell’API.
- Marzo 2026: integrazione nel livello gratuito di ChatGPT (query limitate) per contrastare l’accessibilità gratuita di Gemini.
3 caratteristiche distintive di GPT-5.3?
Se le indiscrezioni sono fondate, GPT-5.3 introdurrà una suite di funzionalità che privilegiano l’utilità e l’integrazione rispetto alla pura creatività generativa. Il set di feature assomiglia a una wish list per architetti di sistemi e sviluppatori enterprise.
1. Pre-training ad alta densità (EPTE)
Il fiore all’occhiello di Garlic è la sua Enhanced Pre-Training Efficiency (EPTE).
I modelli tradizionali apprendono esaminando quantità massive di dati e creando una rete ramificata di associazioni. Il processo di training di Garlic prevede, a quanto si dice, una fase di “potatura” in cui il modello condensa attivamente l’informazione.
- Il risultato: un modello fisicamente più piccolo (in termini di requisiti di VRAM) ma che conserva la “Conoscenza del Mondo” di un sistema molto più grande.
- Il vantaggio: velocità di inferenza maggiori e costi API significativamente inferiori, affrontando il rapporto “intelligenza/costo” che ha impedito l’adozione di massa di modelli come Claude Opus.
2. Ragionamento agentico nativo
A differenza dei modelli precedenti che richiedevano “wrapper” o complesso prompt engineering per funzionare come agent, Garlic ha capacità native di chiamata degli strumenti.
Il modello tratta le chiamate API, l’esecuzione di codice e le query ai database come “cittadini di prima classe” nel suo vocabolario.
- Integrazione profonda: non “sa solo programmare”; comprende l’ambiente del codice. A quanto pare è in grado di navigare un file system, modificare più file simultaneamente ed eseguire i propri unit test senza script di orchestrazione esterni.
3. Finestre di contesto e output massicce
Per competere con la finestra da un milione di token di Gemini, si vocifera che Garlic sia fornito con una finestra di contesto da 400,000 token. Sebbene più piccola dell’offerta di Google, il differenziatore chiave è il “Perfect Recall” su quella finestra, che sfrutta un nuovo meccanismo di attenzione in grado di evitare la perdita “a metà contesto” comune nei modelli del 2025.
- Limite di output 128k: forse ancor più interessante per gli sviluppatori è la presunta espansione del limite di output a 128,000 token. Ciò consentirebbe al modello di generare intere librerie software, pareri legali completi o romanzi di lunghezza standard in un’unica passata, eliminando la necessità di “spezzare in chunk”.
4. Allucinazioni drasticamente ridotte
Garlic utilizza una tecnica di rinforzo post-training orientata all’“umiltà epistemica” — il modello è addestrato in modo rigoroso a sapere ciò che non sa. I test interni mostrano un tasso di allucinazioni significativamente inferiore rispetto a GPT-5.0, rendendolo idoneo per settori ad alto rischio come biomedicina e diritto.
Come si confronta con concorrenti come Gemini e Claude 4.5?
Il successo di Garlic non sarà misurato in isolamento, ma in confronto diretto con i due titani che attualmente dominano l’arena: Gemini 3 di Google e Claude Opus 4.5 di Anthropic.
GPT-5.3 “Garlic” vs. Google Gemini 3
La battaglia tra scala e densità.
- Gemini 3: attualmente il modello “tuttofare”. Domina nella comprensione multimodale (video, audio, generazione nativa di immagini) e ha una finestra di contesto praticamente infinita. È il miglior modello per dati “disordinati” del mondo reale.
- GPT-5.3 Garlic: non può competere con l’ampiezza multimodale “bruta” di Gemini. Invece, attacca Gemini sulla Purezza del Ragionamento. Per generazione di testo puro, logica del codice e follow-through di istruzioni complesse, Garlic punta a essere più tagliente e meno incline a “rifiuti” o divagazioni.
- Verdetto: se devi analizzare un video di 3 ore, usi Gemini. Se devi scrivere il backend per un’app bancaria, usi Garlic.
GPT-5.3 “Garlic” vs. Claude Opus 4.5
La battaglia per l’anima dello sviluppatore.
- Claude Opus 4.5: rilasciato a fine 2025, ha conquistato gli sviluppatori con il suo “calore” e le sue “vibes”. È famoso per scrivere codice pulito, leggibile e per seguire le istruzioni di sistema con precisione militare. Tuttavia, è costoso e lento.
- GPT-5.3 Garlic: è il bersaglio diretto. Garlic mira a eguagliare la competenza di Opus 4.5 nel coding ma a 2x la velocità e 0,5x il costo. Con il “Pre-Training ad alta densità”, OpenAI vuole offrire intelligenza a livello Opus con un budget da Sonnet.
- Verdetto: il “Code Red” è stato innescato specificamente dal dominio di Opus 4.5 nel coding. Il successo di Garlic dipende interamente dalla sua capacità di convincere gli sviluppatori a tornare a usare le API di OpenAI. Se Garlic sa programmare bene quanto Opus ma gira più veloce, il mercato cambierà dall’oggi al domani.
Takeaway
Le prime build interne di Garlic superano già Gemini 3 di Google e Opus 4.5 di Anthropic in domini specifici ad alto valore:
- Competenza nel coding: in benchmark “difficili” interni (oltre l’HumanEval standard), Garlic ha mostrato una minore tendenza a incagliarsi in “loop logici” rispetto a GPT-4.5.
- Densità di ragionamento: il modello richiede meno token di “pensiero” per arrivare a conclusioni corrette, in netto contrasto con la pesantezza della “chain-of-thought” della serie o1 (Strawberry).
| Metric | GPT-5.3 (Garlic) | Google Gemini 3 | Claude 4.5 |
|---|---|---|---|
| Reasoning (GDP-Val) | 70.9% | 53.3% | 59.6% |
| Coding (HumanEval+) | 94.2% | 89.1% | 91.5% |
| Context Window | 400K Tokens | 2M Tokens | 200K Tokens |
| Inference Speed | Ultra-Fast | Moderate | Fast |
Conclusione
“Garlic” è una voce attiva e plausibile: una linea ingegneristica mirata di OpenAI che privilegia densità di ragionamento, efficienza e strumenti reali. La sua comparsa va letta nel contesto di una corsa agli armamenti in accelerazione tra i provider di modelli (OpenAI, Google, Anthropic) — una corsa in cui il premio strategico non è solo la capacità grezza ma la capacità utilizzabile per dollaro e per millisecondo di latenza.
Se sei interessato a questo nuovo modello, segui CometAPI. Aggiorna sempre con i modelli di AI più recenti e migliori a un prezzo accessibile.
Gli sviluppatori possono accedere a GPT-5.2 ,Gemini 3, Claude 4.5 tramite CometAPI ora. Per iniziare, esplora le funzionalità dei modelli di CometAPI nel Playground e consulta la Guida API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l’accesso a CometAPI e di aver ottenuto la chiave API. CometAPI offre un prezzo ben inferiore a quello ufficiale per aiutarti nell’integrazione.
Pronti a partire?→ Iscriviti a CometAPI oggi stesso !
Se vuoi scoprire altri suggerimenti, guide e notizie sull’AI seguici su VK, X e Discord!
