Google sta testando silenziosamente una nuova iterazione interna della sua famiglia Gemini — segnalata variamente come “Gemini 3.5” e con l’intrigante nome in codice interno “Snow Bunny.” Con nome in codice "Snow Bunny," questo checkpoint interno avrebbe infranto i benchmark esistenti, dimostrando una capacità senza precedenti di generare intere applicazioni software — fino a 3,000 righe di codice funzionale — in un singolo prompt.
Mentre la Silicon Valley si affretta a verificare i dati, i primi report suggeriscono che Google abbia ottenuto una svolta nel ragionamento "System 2", consentendo a Gemini 3.5 di fermarsi, pensare e progettare sistemi complessi con una competenza che supera gli attuali leader come GPT-5.2 e Claude Opus 4.5.
Che cos'è Gemini 3.5 "Snow Bunny"?
Gemini 3.5, indicato internamente con il nome in codice "Snow Bunny", sembra essere la risposta diretta di Google alla stagnazione delle capacità di ragionamento dei modelli osservata alla fine del 2025. A differenza dei suoi predecessori, focalizzati fortemente sulla comprensione multimodale e sulla dimensione della finestra di contesto, Gemini 3.5 rappresenta un cambio di paradigma verso orizzonti cognitivi estesi e architettura software autonoma.
L’architettura "Snow Bunny"
Il soprannome "Snow Bunny" si riferirebbe a uno specifico checkpoint ad alte prestazioni del modello attualmente sottoposto ad A/B testing sulle piattaforme Vertex AI e AI Studio di Google. La fuga di notizie suggerisce che non si tratti semplicemente di un aggiornamento "Pro" o "Ultra", ma di un potenziamento architetturale fondamentale che integra capacità di "Deep Think".
Varianti di modello specializzate
Le indiscrezioni indicano che "Snow Bunny" potrebbe essere una famiglia di modelli specializzati piuttosto che un unico monolite. Due varianti specifiche sono state identificate nella documentazione trapelata:
- Fierce Falcon: una variante ottimizzata per velocità computazionale grezza e deduzione logica, probabilmente rivolta alla programmazione competitiva e all’analisi rapida dei dati.
- Ghost Falcon: una potenza creativa progettata per il "vibe coding", capace di gestire design UI/UX, generazione di SVG, sintesi audio ed effetti visivi con alta fedeltà.
Ragionamento "System 2": la modalità "Deep Think"
La caratteristica distintiva di Gemini 3.5 è il suo presunto motore di ragionamento "System 2". Ispirandosi alla psicologia cognitiva umana, questo sistema consente al modello di "fermarsi" prima di rispondere a query complesse. Invece di prevedere immediatamente il token successivo, il modello avvia un processo nascosto di chain-of-thought, valutando molteplici percorsi di esecuzione per codice o puzzle logici. Questo interruttore "Deep Think" avrebbe spinto i suoi punteggi di benchmark in territori inesplorati.
Chi ha dato la notizia?
L’esistenza di Gemini 3.5 è emersa attraverso una serie di leak coordinati sulla piattaforma social X (precedentemente Twitter) e su blog tecnici a fine gennaio 2026.
- Fonte primaria: la rivelazione iniziale è arrivata dal blogger tecnologico e insider Pankaj Kumar, che ha condiviso screenshot e log del modello "Snow Bunny" in azione. I suoi post hanno dettagliato la capacità del modello di risolvere "one-shot" compiti ingegneristici complessi.
- Validazione dei benchmark: un utente noto come "Leo", che mantiene il benchmark di ragionamento laterale Hieroglyph, ha corroborato i leak. Ha pubblicato risultati che mostrano una variante "Snow Bunny" raggiungere un tasso di successo dell’80-88% nei compiti di pensiero laterale — un test in cui la maggior parte dei modelli, incluso GPT-5.2, fatica a superare il 55%.
- Conferma tecnica: ulteriore credibilità è stata aggiunta dalla comparsa di variabili "gemini-for-google-3.5" nel backend dei servizi API di Google, suggerendo che l’infrastruttura per un lancio pubblico sia già pronta.

Cosa distinguerebbe 3.5 da 3.0 / 3 Flash?
In base ai report trapelati, i principali elementi di differenziazione sono:
- Sintesi di codice su larga scala a livello di sistema: capacità di mantenere stato globale e architettura attraverso migliaia di righe (non solo generazione di funzioni isolate).
- Generazione unificata di artefatti multimodali: la stessa sessione produce codice, grafica vettoriale e audio nativo in un flusso di lavoro coerente.
- Controlli di ragionamento granulari: interruttori sperimentali (ad es., “Deep Think” / “System2”) per scambiare latenza con una ricerca interna in stile chain-of-thought più profonda.
Questi suonano come avanzamenti ingegneristici iterativi piuttosto che un’architettura radicalmente diversa, ma se validati su larga scala cambierebbero il modo in cui i team prototipano e consegnano artefatti di prodotto.
Come si confrontano funzionalità e prestazioni?
Le metriche trapelate delineano un modello significativamente più capace e veloce rispetto ai contemporanei.
Il miracolo del codice da 3,000 righe
La rivendicazione più virale dal leak è la capacità di Gemini 3.5 di generare 3,000 righe di codice eseguibile da un singolo prompt ad alto livello. L’esempio specifico citato riguardava un utente che chiedeva al modello di costruire un emulatore Nintendo Game Boy.
In un flusso di lavoro standard con GPT-4 o Gemini 1.5, questo compito richiederebbe dozzine di prompt: scomporre l’architettura della CPU, definire la mappa di memoria, gestire il rendering grafico e fare debug in modo iterativo. Gemini 3.5 "Snow Bunny" avrebbe prodotto l’intero codebase — inclusi set di istruzioni della CPU, emulazione della GPU e gestione della memoria — in un unico flusso continuo, richiedendo solo piccole correzioni manuali per avviare ROM reali.
Benchmark di prestazione: Gemini 3.5 vs GPT-5.2 vs Claude Opus 4.5
| Benchmark | Gemini 3.5 "Snow Bunny" | GPT-5.2 (Est.) | Claude Opus 4.5 |
|---|---|---|---|
| Hieroglyph (ragionamento laterale) | 80% - 88% | 55% | ~50% |
| GPQA Diamond (Scienze a livello di PhD) | >90% | ~85% | ~80% |
| Velocità di generazione dei token | ~218 token/sec | ~80 token/sec | ~60 token/sec |
La velocità di 218 token al secondo è particolarmente allarmante per i concorrenti.
Per un modello con tale profondità di ragionamento funzionare a una velocità così elevata implica una massiccia ottimizzazione nell’infrastruttura TPU v6 di Google o una svolta nell’architettura di modelli sparsi.
Esempio di codice: la capacità "One-Shot"
Per illustrare la complessità di ciò che implica "3,000 righe di codice", si consideri che il modello non sta solo scrivendo uno script semplice. Sta progettando un sistema.
Di seguito un frammento concettuale di come Gemini 3.5 potrebbe strutturare la Memory Management Unit (MMU) dell’emulatore Game Boy trapelato in un unico passaggio.
Nota: quanto segue è un estratto rappresentativo del tipo di logica di basso livello generata autonomamente da "Snow Bunny".
python
class GameBoyMMU:
def __init__(self, bios_path):
self.bios = self.load_bios(bios_path)
self.rom = bytearray(0x8000) # 32k Cartridge
self.vram = bytearray(0x2000) # 8k Video RAM
self.wram = bytearray(0x2000) # 8k Working RAM
self.zram = bytearray(0x80) # Zero-page RAM
self.in_bios = True
def load_bios(self, path):
try:
with open(path, 'rb') as f:
return bytearray(f.read())
except FileNotFoundError:
return bytearray(256)
def read_byte(self, address):
# BIOS Mapping
if self.in_bios and address < 0x0100:
return self.bios[address]
elif address == 0x0100:
self.in_bios = False
# Memory Map Routing
if 0x0000 <= address < 0x8000:
return self.rom[address]
elif 0x8000 <= address < 0xA000:
return self.vram[address - 0x8000]
elif 0xC000 <= address < 0xE000:
return self.wram[address - 0xC000]
elif 0xFF80 <= address < 0xFFFF:
return self.zram[address - 0xFF80]
# ... (Extended handling for I/O registers, Interrupts, Echo RAM)
return 0xFF
def write_byte(self, address, value):
# VRAM Write (Block during rendering modes if necessary)
if 0x8000 <= address < 0xA000:
self.vram[address - 0x8000] = value
# DMA Transfer Trigger
elif address == 0xFF46:
self.dma_transfer(value)
# ... (Complex logic for banking, timer controls, audio registers)
def dma_transfer(self, source_high):
# Direct Memory Access implementation simulating 160ms cycle
source_addr = source_high << 8
for i in range(0xA0):
byte = self.read_byte(source_addr + i)
self.write_byte(0xFE00 + i, byte) # Write to OAM
In un’interazione tipica, un utente potrebbe semplicemente chiedere: "Crea un emulatore Game Boy completamente funzionale in Python che gestisca il caricamento del BIOS, il mapping della memoria e gli opcode CPU di base." Gemini 3.5 genera quindi la classe sopra, insieme alla classe CPU, al PPU (Pixel Processing Unit) e al ciclo di esecuzione principale, mantenendo la coerenza su migliaia di righe.
Quando verrà rilasciato?
Sebbene Google non abbia confermato ufficialmente una data di rilascio, la convergenza dei leak suggerisce che un annuncio sia imminente.
- Timeline: variabili di test interne e il checkpoint "Snow Bunny" sembrano essere in fase di validazione avanzata. Le speculazioni puntano a un possibile "shadow drop" o a una presentazione importante a febbraio 2026, forse per anticipare i lanci dei concorrenti.
- Stato attuale: il modello è attualmente in beta privata, accessibile solo a tester fidati e partner enterprise tramite Vertex AI.
Quali sono i dettagli su prezzi e costi?
Il pricing rimane uno degli aspetti più aggressivi della strategia Gemini. Le voci indicano che Google intende sottoprezzare significativamente il mercato, sfruttando la sua integrazione verticale di hardware (TPU) e software.
- Gemini 3.5 Flash: il pricing trapelato suggerisce circa $0.50 per 1 milione di token di input. Questo è approssimativamente il 70% più economico rispetto ai modelli "smart" comparabili dei concorrenti.
- Gemini 3.5 Pro/Ultra: si prevede un prezzo competitivo, con la possibile introduzione di un modello di abbonamento a livelli per le capacità "Deep Think".
- Sovrapprezzo Deep Think: si specula che la modalità di ragionamento "System 2" possa costare di più per token a causa del maggior tempo di calcolo necessario affinché il modello "pensi" prima di generare una risposta.
Conclusione
Se i leak su "Snow Bunny" si rivelassero veri, Google Gemini 3.5 non sarebbe solo un aggiornamento incrementale; sarebbe una dichiarazione di dominio incisiva. Risolvendo il problema del "lazy coding" e abilitando una generazione di codice massiva e coerente, Google potrebbe essere sul punto di trasformare gli sviluppatori da scrittori di codice ad architetti di sistemi. In attesa del keynote ufficiale, una cosa è chiara: la corsa agli armamenti dell’AI è appena accelerata a velocità ipersoniche.
Gli sviluppatori possono accedere a Gemini 3 Flash e Gemini 3 Pro CometAPI, i modelli più recenti elencati sono aggiornati alla data di pubblicazione dell’articolo. Per iniziare, esplora le capacità del modello nel Playground e consulta la Guida API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l’accesso a CometAPI e di aver ottenuto la chiave API. CometAPI offre un prezzo molto inferiore rispetto al prezzo ufficiale per aiutarti nell’integrazione.
Pronti a partire?→ Iscriviti a Gemini 3 oggi !
Se vuoi conoscere altri consigli, guide e novità sull’AI, seguici su VK, X e Discord!
