Google Gemini 3.5 (Snow Bunny) uitgelekt: alles wat je moet weten

CometAPI
AnnaJan 30, 2026
Google Gemini 3.5 (Snow Bunny) uitgelekt: alles wat je moet weten

Google test stilletjes een nieuwe interne iteratie van zijn Gemini-familie — verschillend aangeduid als “Gemini 3.5” en met de intrigerende interne codenaam “Snow Bunny.” Onder de codenaam "Snow Bunny," zou deze interne checkpoint bestaande benchmarks hebben verbrijzeld, met een ongekende capaciteit om volledige softwareapplicaties te genereren—tot wel 3,000 regels functionele code—in één enkele prompt.

Terwijl Silicon Valley zich haast om de gegevens te verifiëren, wijzen vroege rapporten erop dat Google een doorbraak heeft bereikt in "System 2"-redeneren, waardoor Gemini 3.5 kan pauzeren, nadenken en complexe systemen ontwerpen met een vaardigheid die huidige koplopers zoals GPT-5.2 en Claude Opus 4.5 overvleugelt.

Wat is Gemini 3.5 "Snow Bunny"?

Gemini 3.5, intern aangeduid met de codenaam "Snow Bunny", lijkt Googles directe antwoord op de stagnatie van de redeneercapaciteiten van modellen die eind 2025 werd waargenomen. In tegenstelling tot zijn voorgangers, die sterk focusten op multimodale begrip en de grootte van het contextvenster, markeert Gemini 3.5 een paradigmaverschuiving naar uitgebreide cognitieve horizonten en autonome softwarearchitectuur.

De "Snow Bunny"-architectuur

De benaming "Snow Bunny" zou verwijzen naar een specifieke, high-performance checkpoint van het model die momenteel A/B-tests ondergaat op Googles Vertex AI- en AI Studio-platformen. De lekken suggereren dat dit niet louter een "Pro"- of "Ultra"-vernieuwing is, maar een fundamentele architecturale upgrade die "Deep Think"-capaciteiten integreert.

Gespecialiseerde modelvarianten

Lekken wijzen erop dat "Snow Bunny" mogelijk een familie van gespecialiseerde modellen is in plaats van één enkel monoliet. Twee specifieke varianten zijn geïdentificeerd in de gelekte documentatie:

  • Fierce Falcon: een variant geoptimaliseerd voor ruwe rekensnelheid en logische deductie, waarschijnlijk gericht op competitief programmeren en snelle data-analyse.
  • Ghost Falcon: een creatieve krachtpatser ontworpen voor "vibe coding", die UI/UX-design, SVG-generatie, audiosynthese en visuele effecten met hoge getrouwheid aankan.

System 2-redeneren: de "Deep Think"-modus

De onderscheidende eigenschap van Gemini 3.5 is de vermeende "System 2"-redeneermotor. Geïnspireerd door de menselijke cognitieve psychologie laat dit systeem het model "pauzeren" voordat het op complexe vragen reageert. In plaats van onmiddellijk het volgende token te voorspellen, gaat het model een verborgen chain-of-thought-proces aan, waarbij het meerdere uitvoeringspaden voor code of logische puzzels evalueert. Deze "Deep Think"-schakelaar zou zijn benchmarkscores naar onontgonnen terrein hebben gestuwd.


Wie bracht het nieuws naar buiten?

Het bestaan van Gemini 3.5 kwam aan het licht via een reeks gecoördineerde lekken op het sociale mediaplatform X (voorheen Twitter) en technische blogs eind januari 2026.

  • Primaire bron: de eerste bom kwam van techblogger en insider Pankaj Kumar, die screenshots en logs deelde van het "Snow Bunny"-model in actie. Zijn posts beschreven in detail het vermogen van het model om complexe engineeringtaken in één keer te voltooien.
  • Benchmark-validatie: een gebruiker bekend als "Leo", die de Hieroglyph-benchmark voor laterale redenering onderhoudt, bevestigde de lekken. Hij publiceerde resultaten waaruit bleek dat een "Snow Bunny"-variant een succesratio van 80-88% behaalde op lateraal-denktaken—een test waar de meeste modellen, inclusief GPT-5.2, moeite hebben om boven de 55% uit te komen.
  • Technische bevestiging: extra geloofwaardigheid kwam door het verschijnen van "gemini-for-google-3.5"-variabelen in de backendcode van Googles API-services, wat suggereert dat de infrastructuur voor een publieke lancering al klaarstaat.

Google Gemini 3.5 (Snow Bunny) uitgelekt: alles wat je moet weten

Wat onderscheidt 3.5 van 3.0 / 3 Flash?

Op basis van de lekrapportage zijn de belangrijkste onderscheidende punten:

  • Grootschalige code-synthese op systeemniveau: vermogen om globale toestand en architectuur over duizenden regels te behouden (niet slechts geïsoleerde functiegeneratie).
  • Geünificeerde multimodale artefactgeneratie: dezelfde sessie produceert code, vectorgrafiek en native audio in één coherente workflow.
  • Fijnmazige redeneringsbesturing: experimentele schakelaars (bijv. “Deep Think” / “System2”) om latentie in te ruilen voor diepere chain-of-thought-achtige interne zoekprocessen.

Dit klinkt als iteratieve engineeringverbeteringen in plaats van een radicaal andere architectuur, maar als het op schaal wordt gevalideerd, zou het veranderen hoe teams productartefacten prototypen en uitrollen.

Hoe verhouden de functies en prestaties zich?

De gelekte metriek schetst het beeld van een model dat aanzienlijk capabeler en sneller is dan zijn tijdgenoten. 

Het 3,000-regelige codewonder

De meest virale claim uit het lek is het vermogen van Gemini 3.5 om 3,000 regels uitvoerbare code te genereren op basis van één enkele, hoog-niveauprompt. Het specifieke voorbeeld betrof een gebruiker die het model vroeg een Nintendo Game Boy-emulator te bouwen.

In een standaardworkflow met GPT-4 of Gemini 1.5 zou deze taak tientallen prompts vergen: het uitsplitsen van de CPU-architectuur, het definiëren van de geheugenmap, het afhandelen van grafische rendering en iteratief debuggen. Gemini 3.5 "Snow Bunny" zou naar verluidt de volledige codebase hebben uitgegeven—met inbegrip van de CPU-instructieset, GPU-emulatie en geheugenafhandeling—in één continue stroom, waarbij slechts kleine handmatige fixes nodig waren om echte ROM's te booten.

Prestatiebenchmarks: Gemini 3.5 vs GPT-5.2 vs Claude Opus 4.5

BenchmarkGemini 3.5 "Snow Bunny"GPT-5.2 (Est.)Claude Opus 4.5
Hieroglyph (laterale redenering)80% - 88%55%~50%
GPQA Diamond (PhD Science)>90%~85%~80%
Snelheid van tokengeneratie~218 tokens/sec~80 tokens/sec~60 tokens/sec

De snelheid van 218 tokens per seconde is bijzonder verontrustend voor concurrenten. 

 Voor een model met deze redeneer-diepgang dat op zo'n hoge snelheid draait, impliceert dit een enorme optimalisatie in Googles TPU v6-infrastructuur of een doorbraak in sparse-modelarchitectuur.

Codevoorbeeld: de "One-shot"-capaciteit

Om de complexiteit van wat "3,000 regels code" inhoudt te illustreren, moet je bedenken dat het model niet enkel een eenvoudig script schrijft. Het ontwerpt een systeem. 

 Hieronder staat een conceptuele snippet van hoe Gemini 3.5 de Memory Management Unit (MMU) van de gelekte Game Boy-emulator in één keer zou kunnen structureren.

Note: het volgende is een representatief fragment van het type low-levellogica dat "Snow Bunny" autonoom genereert.

python

class GameBoyMMU:
    def __init__(self, bios_path):
        self.bios = self.load_bios(bios_path)
        self.rom = bytearray(0x8000)  # 32k Cartridge
        self.vram = bytearray(0x2000) # 8k Video RAM
        self.wram = bytearray(0x2000) # 8k Working RAM
        self.zram = bytearray(0x80)   # Zero-page RAM
        self.in_bios = True

    def load_bios(self, path):
        try:
            with open(path, 'rb') as f:
                return bytearray(f.read())
        except FileNotFoundError:
            return bytearray(256)

    def read_byte(self, address):
        # BIOS Mapping
        if self.in_bios and address < 0x0100:
            return self.bios[address]
        elif address == 0x0100:
            self.in_bios = False
        
        # Memory Map Routing
        if 0x0000 <= address < 0x8000:
            return self.rom[address]
        elif 0x8000 <= address < 0xA000:
            return self.vram[address - 0x8000]
        elif 0xC000 <= address < 0xE000:
            return self.wram[address - 0xC000]
        elif 0xFF80 <= address < 0xFFFF:
            return self.zram[address - 0xFF80]
        # ... (Extended handling for I/O registers, Interrupts, Echo RAM)
        return 0xFF

    def write_byte(self, address, value):
        # VRAM Write (Block during rendering modes if necessary)
        if 0x8000 <= address < 0xA000:
            self.vram[address - 0x8000] = value
        # DMA Transfer Trigger
        elif address == 0xFF46:
            self.dma_transfer(value)
        # ... (Complex logic for banking, timer controls, audio registers)
        
    def dma_transfer(self, source_high):
        # Direct Memory Access implementation simulating 160ms cycle
        source_addr = source_high << 8
        for i in range(0xA0):
            byte = self.read_byte(source_addr + i)
            self.write_byte(0xFE00 + i, byte) # Write to OAM

In een typische interactie zou een gebruiker eenvoudigweg prompten: "Maak een volledig functionele Game Boy-emulator in Python die BIOS-laden, geheugenmapping en basis-CPU-opcodes afhandelt." Gemini 3.5 genereert vervolgens de bovenstaande klasse, samen met de CPU-klasse, PPU (Pixel Processing Unit) en de hoofd-uitvoerlus, waarbij coherentie over duizenden regels behouden blijft.

Wanneer wordt het uitgebracht?

Hoewel Google officieel geen releasedatum heeft bevestigd, suggereert de samenloop van lekken dat een aankondiging nabij is. 

  • Tijdlijn: interne testvariabelen en de "Snow Bunny"-checkpoint lijken zich in een late validatiefase te bevinden. Er wordt gespeculeerd over een mogelijke "shadow drop" of een grote onthulling in februari 2026, mogelijk om concurrerende releases voor te zijn.
  • Huidige status: het model bevindt zich momenteel in private bèta, alleen toegankelijk voor geselecteerde vertrouwde testers en enterprise-partners via Vertex AI.

Wat zijn de prijs- en kostendetails?

Prijsstelling blijft een van de meest agressieve elementen van de Gemini-strategie. Geruchten geven aan dat Google van plan is de markt aanzienlijk te onderbieden, gebruikmakend van zijn verticale integratie van hardware (TPU's) en software.

  • Gemini 3.5 Flash: gelekte prijzen suggereren roughly $0.50 per 1 miljoen inputtokens. Dit is ongeveer 70% goedkoper dan vergelijkbare "slimme" modellen van concurrenten.
  • Gemini 3.5 Pro/Ultra: de prijsstelling zal naar verwachting competitief zijn, mogelijk met een getrapt abonnementsmodel voor "Deep Think"-capaciteiten.
  • Deep Think-toeslag: er wordt gespeculeerd dat de "System 2"-redeneringsmodus meer per token kan kosten vanwege de verhoogde rekentijd die nodig is voor het model om te "denken" voordat het een antwoord genereert.

Conclusie

Als de "Snow Bunny"-lekken kloppen, is Google Gemini 3.5 niet slechts een incrementele update; het is een krachtige verklaring van dominantie. Door het "lazy coding"-probleem op te lossen en massale, coherente codegeneratie mogelijk te maken, zou Google op het punt kunnen staan ontwikkelaars te transformeren van codechrijvers naar systeemarchitecten. Terwijl we wachten op de officiële keynote, is één ding duidelijk: de AI-wapenwedloop is net versneld tot hypersonische snelheden.

Ontwikkelaars kunnen  Gemini 3 Flash en Gemini 3 Pro CometAPI openen; de laatste modellen die vermeld staan zijn actueel op de publicatiedatum van het artikel. Om te beginnen, verken de mogelijkheden van het model in de Playground en raadpleeg de API-gids voor gedetailleerde instructies. Zorg ervoor dat je vóór toegang bent ingelogd bij CometAPI en een API-sleutel hebt verkregen. CometAPI biedt een prijs die veel lager ligt dan de officiële prijs om je te helpen integreren.

Ready to Go?→ Sign up for Gemini 3 today !

Als je meer tips, gidsen en nieuws over AI wilt weten, volg ons dan op VKX en Discord!

Lees Meer

500+ modellen in één API

Tot 20% korting