Google tester stille og roligt en ny intern iteration af sin Gemini-familie — omtalt forskellige steder som “Gemini 3.5” og med det interessante interne kodenavn “Snow Bunny.” Internt kaldet "Snow Bunny," har dette checkpoint efter sigende slået eksisterende benchmarks og demonstreret en hidtil uset evne til at generere hele softwareapplikationer — op til 3.000 linjer funktionel kode — i én enkelt prompt.
Mens Silicon Valley febrilsk forsøger at verificere dataene, antyder de tidlige rapporter, at Google har opnået et gennembrud i "System 2"-ræsonnering, som gør det muligt for Gemini 3.5 at holde pause, tænke og designe komplekse systemer med en dygtighed, der overstråler nuværende frontløbere som GPT-5.2 og Claude Opus 4.5.
Hvad er Gemini 3.5 "Snow Bunny"?
Gemini 3.5, internt omtalt med kodenavnet "Snow Bunny", ser ud til at være Googles direkte svar på stagnationen i modelleringsræsonnering, der blev observeret i slutningen af 2025. I modsætning til sine forgængere, som lagde stor vægt på multimodal forståelse og kontekstvinduer, repræsenterer Gemini 3.5 et paradigmeskifte mod udvidede kognitive horisonter og autonom softwarearkitektur.
“Snow Bunny”-arkitekturen
Navnet "Snow Bunny" refererer efter sigende til et specifikt, højtydende checkpoint af modellen, som i øjeblikket gennemgår A/B-test på Googles Vertex AI- og AI Studio-platforme. Lækket antyder, at dette ikke blot er en "Pro"- eller "Ultra"-opfriskning, men en grundlæggende arkitektonisk opgradering, der integrerer "Deep Think"-funktioner.
Specialiserede modelvarianter
Læk indikerer, at "Snow Bunny" kan være en familie af specialiserede modeller frem for en enkelt monolit. To specifikke varianter er identificeret i de lækkede dokumenter:
- Fierce Falcon: En variant optimeret til rå beregningshastighed og logisk deduktion, sandsynligvis målrettet konkurrencedygtig programmering og hurtig dataanalyse.
- Ghost Falcon: Et kreativt kraftcenter designet til "vibe coding", der håndterer UI/UX-design, SVG-generering, lydsyntese og visuelle effekter med høj fidelitet.
System 2-resonnering: "Deep Think"-tilstand
Det definerende træk ved Gemini 3.5 er den rygtede "System 2"-ræsonneringsmotor. Med inspiration fra menneskelig kognitiv psykologi gør dette system det muligt for modellen at "holde pause", før den svarer på komplekse forespørgsler. I stedet for straks at forudsige næste token engagerer modellen sig i en skjult chain-of-thought-proces, hvor den evaluerer flere eksekveringsstier for kode eller logiske gåder. Denne "Deep Think"-toggle har efter sigende løftet dens benchmark-scorer til ukendte højder.
Hvem afslørede nyheden?
Eksistensen af Gemini 3.5 blev bragt frem gennem en række koordinerede læk på den sociale platform X (tidligere Twitter) og tekniske blogs i slutningen af januar 2026.
- Primær kilde: Det første brag kom fra tech-bloggeren og insiderren Pankaj Kumar, som delte skærmbilleder og logfiler af "Snow Bunny"-modellen i aktion. Hans opslag beskrev modellens evne til at "one-shotte" komplekse ingeniøropgaver.
- Benchmark-validering: En bruger kendt som "Leo", som vedligeholder Hieroglyph-benchmarket for lateral tænkning, bekræftede lækkene. Han postede resultater, der viste en "Snow Bunny"-variant med en succesrate på 80-88% på laterale tænkningsopgaver — en test, hvor de fleste modeller, inklusive GPT-5.2, kæmper for at komme over 55%.
- Teknisk bekræftelse: Yderligere troværdighed blev tilføjet af, at "gemini-for-google-3.5"-variabler dukkede op i backend-koden til Googles API-tjenester, hvilket antyder, at infrastrukturen til en offentlig lancering allerede er på plads.

Hvad adskiller 3.5 fra 3.0 / 3 Flash?
Baseret på lækrapporteringen er de vigtigste differentieringspunkter:
- Storskala kodesyntese på systemniveau: evnen til at opretholde global tilstand og arkitektur på tværs af tusindvis af linjer (ikke kun generering af isolerede funktioner).
- Samlet multimodal artefaktgenerering: samme session producerer kode, vektorgrafik og native lyd i et enkelt sammenhængende workflow.
- Fingranulære kontroller af ræsonnering: eksperimentelle toggler (f.eks. “Deep Think” / “System2”) for at afveje latenstid mod dybere, kæde-af-tanker-lignende søgning internt.
Dette lyder som iterative ingeniørfremskridt snarere end en radikalt anderledes arkitektur, men hvis det valideres i stor skala, vil det ændre, hvordan teams prototyper og leverer produktartefakter.
Hvordan sammenlignes funktioner og ydeevne?
De lækkede målinger tegner et billede af en model, der er betydeligt mere kapabel og hurtigere end sine samtidige.
Miraklet med 3.000 linjer kode
Det mest virale påstand fra lækket er Gemini 3.5's evne til at generere 3.000 linjer eksekverbar kode ud fra en enkelt, højniveau-prompt. Det specifikke eksempel involverede en bruger, der bad modellen om at bygge en Nintendo Game Boy-emulator.
I et standardworkflow med GPT-4 eller Gemini 1.5 ville denne opgave kræve dusinvis af prompts: opdeling af CPU-arkitekturen, definition af memory map, håndtering af grafisk rendering og iterativ debugging. Gemini 3.5 "Snow Bunny" udskrev efter sigende hele kodebasen — inklusive CPU-instruktionssættet, GPU-emulering og memory-håndtering — i én kontinuerlig strøm, og krævede kun mindre manuelle rettelser for at boote rigtige ROMs.
Performance-benchmarks: Gemini 3.5 vs GPT-5.2 vs Claude Opus 4.5
| Benchmark | Gemini 3.5 "Snow Bunny" | GPT-5.2 (Est.) | Claude Opus 4.5 |
|---|---|---|---|
| Hieroglyph (Lateral Reasoning) | 80% - 88% | 55% | ~50% |
| GPQA Diamond (PhD Science) | >90% | ~85% | ~80% |
| Token Generation Speed | ~218 tokens/sec | ~80 tokens/sec | ~60 tokens/sec |
Hastigheden på 218 tokens per sekund er særligt alarmerende for konkurrenterne.
For at en model med denne dybde i ræsonnering kan køre med så høj hastighed, må det antyde en massiv optimering i Googles TPU v6-infrastruktur eller et gennembrud i sparsom modelarkitektur.
Kodeeksempel: "One-shot"-kapaciteten
For at illustrere kompleksiteten af, hvad "3.000 linjer kode" indebærer, skal man huske, at modellen ikke bare skriver et simpelt script. Den arkitekterer et system.
Nedenfor er et konceptuelt uddrag af, hvordan Gemini 3.5 kunne strukturere Memory Management Unit (MMU) i den lækkede Game Boy-emulator i én omgang.
Bemærk: Følgende er et repræsentativt uddrag af den type lavniveau-logik, "Snow Bunny" genererer autonomt.
python
class GameBoyMMU:
def __init__(self, bios_path):
self.bios = self.load_bios(bios_path)
self.rom = bytearray(0x8000) # 32k Cartridge
self.vram = bytearray(0x2000) # 8k Video RAM
self.wram = bytearray(0x2000) # 8k Working RAM
self.zram = bytearray(0x80) # Zero-page RAM
self.in_bios = True
def load_bios(self, path):
try:
with open(path, 'rb') as f:
return bytearray(f.read())
except FileNotFoundError:
return bytearray(256)
def read_byte(self, address):
# BIOS Mapping
if self.in_bios and address < 0x0100:
return self.bios[address]
elif address == 0x0100:
self.in_bios = False
# Memory Map Routing
if 0x0000 <= address < 0x8000:
return self.rom[address]
elif 0x8000 <= address < 0xA000:
return self.vram[address - 0x8000]
elif 0xC000 <= address < 0xE000:
return self.wram[address - 0xC000]
elif 0xFF80 <= address < 0xFFFF:
return self.zram[address - 0xFF80]
# ... (Extended handling for I/O registers, Interrupts, Echo RAM)
return 0xFF
def write_byte(self, address, value):
# VRAM Write (Block during rendering modes if necessary)
if 0x8000 <= address < 0xA000:
self.vram[address - 0x8000] = value
# DMA Transfer Trigger
elif address == 0xFF46:
self.dma_transfer(value)
# ... (Complex logic for banking, timer controls, audio registers)
def dma_transfer(self, source_high):
# Direct Memory Access implementation simulating 160ms cycle
source_addr = source_high << 8
for i in range(0xA0):
byte = self.read_byte(source_addr + i)
self.write_byte(0xFE00 + i, byte) # Write to OAM
I en typisk interaktion ville en bruger blot prompt’e: "Create a fully functional Game Boy emulator in Python that handles BIOS loading, memory mapping, and basic CPU opcodes." Gemini 3.5 genererer så klassen ovenfor sammen med CPU-klassen, PPU (Pixel Processing Unit) og hoved-eksekveringsloopet og opretholder sammenhæng på tværs af tusindvis af linjer.
Hvornår bliver det lanceret?
Selvom Google ikke officielt har bekræftet en lanceringsdato, antyder konvergensen af læk, at en annoncering er nært forestående.
- Tidslinje: Interne testvariabler og "Snow Bunny"-checkpointet ser ud til at være i validering i sen fase. Der spekuleres i en mulig "shadow drop" eller en større afsløring i februar 2026, muligvis for at foregribe konkurrentlanceringer.
- Nuværende status: Modellen er i øjeblikket i privat beta, kun tilgængelig for udvalgte betatestere og enterprise-partnere via Vertex AI.
Hvad er pris- og omkostningsoplysningerne?
Prissætning er et af de mest aggressive aspekter ved Gemini-strategien. Rygter indikerer, at Google har til hensigt at underbyde markedet betydeligt ved at udnytte sin vertikale integration af hardware (TPU’er) og software.
- Gemini 3.5 Flash: Lækket prissætning antyder omtrent $0.50 pr. 1 million inputtokens. Dette er cirka 70% billigere end sammenlignelige "smarte" modeller fra konkurrenter.
- Gemini 3.5 Pro/Ultra: Priser forventes at være konkurrencedygtige og potentielt introducere en gradueret abonnementsmodel for "Deep Think"-funktioner.
- Deep Think-tillæg: Der spekuleres i, at "System 2"-ræsonneringstilstanden kan koste mere pr. token på grund af den øgede beregningstid, modellen kræver for at "tænke", før den genererer et svar.
Konklusion
Hvis "Snow Bunny"-lækene holder stik, er Google Gemini 3.5 ikke blot en inkrementel opdatering; det er en kraftfuld erklæring om dominans. Ved at løse problemet med "doven kodning" og muliggøre massiv, sammenhængende kodegenerering kan Google være på nippet til at forvandle udviklere fra kodeforfattere til systemarkitekter. Mens vi venter på den officielle keynote, er én ting klar: AI-kapløbet er netop accelereret til hypersonisk hastighed.
Udviklere kan få adgang til Gemini 3 Flash og Gemini 3 Pro via CometAPI, de seneste modeller er opført pr. artiklens udgivelsesdato. For at komme i gang kan du udforske modellens kapabiliteter i Playground og konsultere API-vejledningen for detaljerede instruktioner. Før adgang, sørg for at du er logget ind på CometAPI og har fået din API-nøgle. CometAPI tilbyder en pris langt under den officielle pris for at hjælpe dig med at integrere.
Klar til at gå i gang?→ Tilmeld dig Gemini 3 i dag!
Hvis du vil have flere tips, guider og nyheder om AI, så følg os på VK, X og Discord!
