Google po cichu testuje nową wewnętrzną iterację rodziny Gemini — określaną różnie jako „Gemini 3.5” oraz intrygującą wewnętrzną nazwą kodową „Snow Bunny.” Oznaczony jako „Snow Bunny” ten wewnętrzny punkt kontrolny miał podobno rozbić dotychczasowe benchmarki, demonstrując bezprecedensową zdolność do generowania całych aplikacji — do 3 000 linii funkcjonalnego kodu — na podstawie pojedynczego promptu.
Gdy Silicon Valley gorączkowo weryfikuje dane, wczesne doniesienia sugerują, że Google osiągnął przełom w rozumowaniu typu „System 2”, pozwalając Gemini 3.5 zatrzymać się, pomyśleć i zaprojektować złożone systemy z biegłością, która prześciga obecnych liderów, takich jak GPT-5.2 i Claude Opus 4.5.
Czym jest Gemini 3.5 „Snow Bunny”?
Gemini 3.5, określany wewnętrznie nazwą kodową „Snow Bunny”, wydaje się bezpośrednią odpowiedzią Google na stagnację możliwości rozumowania modeli obserwowaną pod koniec 2025 roku. W przeciwieństwie do swoich poprzedników, które koncentrowały się głównie na multimodalnym rozumieniu i wielkości okna kontekstu, Gemini 3.5 reprezentuje zmianę paradygmatu w kierunku poszerzonych horyzontów poznawczych oraz autonomicznej architektury oprogramowania.
Architektura „Snow Bunny”
Przydomek „Snow Bunny” odnosi się podobno do konkretnego, wysokowydajnego punktu kontrolnego modelu, który przechodzi obecnie testy A/B na platformach Vertex AI i AI Studio Google. Wycieki sugerują, że nie jest to jedynie odświeżenie wersji „Pro” czy „Ultra”, lecz fundamentalna aktualizacja architektoniczna integrująca możliwości „Deep Think”.
Wyspecjalizowane warianty modelu
Wycieki wskazują, że „Snow Bunny” może być rodziną wyspecjalizowanych modeli, a nie pojedynczym monolitem. W wyciekającej dokumentacji zidentyfikowano dwa konkretne warianty:
- Fierce Falcon: wariant zoptymalizowany pod surową szybkość obliczeń i dedukcję logiczną, prawdopodobnie skierowany na programowanie konkursowe oraz szybkie analizy danych.
- Ghost Falcon: twórczy powerhouse zaprojektowany do „vibe coding”, obsługujący projektowanie UI/UX, generowanie SVG, syntezę audio i efekty wizualne z wysoką wiernością.
Rozumowanie Systemu 2: tryb „Deep Think”
Definiującą cechą Gemini 3.5 jest rzekomy silnik rozumowania „System 2”. Czerpiąc inspirację z ludzkiej psychologii poznawczej, system pozwala modelowi „pauzować” przed odpowiedzią na złożone zapytania. Zamiast natychmiast przewidywać kolejny token, model angażuje się w ukryty proces łańcucha rozumowania, oceniając wiele ścieżek wykonania dla kodu lub łamigłówek logicznych. Ten przełącznik „Deep Think” podobno wyniósł jego wyniki w benchmarkach na nieznane terytoria.
Kto ujawnił tę wiadomość?
Istnienie Gemini 3.5 zostało ujawnione poprzez serię skoordynowanych wycieków na platformie społecznościowej X (dawniej Twitter) oraz w blogach technicznych pod koniec stycznia 2026 roku.
- Główne źródło: Początkową bombę zrzucił bloger technologiczny i insider Pankaj Kumar, który udostępnił zrzuty ekranu i logi działania modelu „Snow Bunny”. Jego wpisy opisywały zdolność modelu do „one-shot” złożonych zadań inżynieryjnych.
- Weryfikacja benchmarków: Użytkownik znany jako „Leo”, utrzymujący benchmark rozumowania lateralnego Hieroglyph, potwierdził wycieki. Opublikował wyniki pokazujące, że wariant „Snow Bunny” osiągnął 80–88% skuteczności w zadaniach rozumowania lateralnego — teście, w którym większość modeli, w tym GPT-5.2, ma trudność z przebiciem 55%.
- Potwierdzenie techniczne: Wiarygodność zwiększyło pojawienie się zmiennych „gemini-for-google-3.5” w kodzie zaplecza usług API Google, co sugeruje, że infrastruktura do publicznego uruchomienia jest już przygotowana.

Co odróżnia 3.5 od 3.0 / 3 Flash?
Na podstawie raportów z wycieków główne wyróżniki to:
- Wielkoskalowa, systemowa synteza kodu: zdolność do utrzymania globalnego stanu i architektury na przestrzeni tysięcy linii (nie tylko generowania odizolowanych funkcji).
- Ujednolicone multimodalne generowanie artefaktów: ta sama sesja wytwarza kod, grafikę wektorową oraz natywne audio w jednym spójnym przepływie pracy.
- Precyzyjne sterowanie rozumowaniem: eksperymentalne przełączniki (np. „Deep Think” / „System2”) pozwalające zamieniać opóźnienie na głębsze wewnętrzne przeszukiwanie w stylu łańcucha rozumowania.
Brzmi to jak iteracyjne usprawnienia inżynieryjne, a nie radykalnie odmienna architektura, ale jeśli zostaną zwalidowane na skalę, zmienią sposób, w jaki zespoły prototypują i dostarczają artefakty produktowe.
Jak wypadają funkcje i wydajność w porównaniu?
Wyciekające metryki malują obraz modelu znacząco bardziej kompetentnego i szybszego od współczesnych konkurentów.
Cud 3 000 linii kodu
Najbardziej wirusowym twierdzeniem z wycieku jest zdolność Gemini 3.5 do generowania 3 000 linii wykonywalnego kodu z jednego, wysokopoziomowego promptu. Konkretny przykład dotyczył użytkownika proszącego model o zbudowanie emulatora Nintendo Game Boy.
W standardowym przepływie pracy z GPT-4 czy Gemini 1.5 zadanie wymagałoby dziesiątek promptów: rozbicia architektury CPU, zdefiniowania mapy pamięci, obsługi renderowania grafiki i iteracyjnego debugowania. Gemini 3.5 „Snow Bunny” podobno wypisał całą bazę kodu — w tym zestaw instrukcji CPU, emulację GPU i obsługę pamięci — w jednym ciągłym strumieniu, wymagając jedynie drobnych ręcznych poprawek, aby uruchamiać prawdziwe ROM-y.
Benchmarki wydajności: Gemini 3.5 vs GPT-5.2 vs Claude Opus 4.5
| Benchmark | Gemini 3.5 "Snow Bunny" | GPT-5.2 (szac.) | Claude Opus 4.5 |
|---|---|---|---|
| Hieroglyph (rozumowanie lateralne) | 80% - 88% | 55% | ~50% |
| GPQA Diamond (nauki na poziomie PhD) | >90% | ~85% | ~80% |
| Szybkość generowania tokenów | ~218 tokens/sec | ~80 tokens/sec | ~60 tokens/sec |
Szybkość ~218 tokens/sec jest szczególnie niepokojąca dla konkurentów.
Dla modelu o takiej głębi rozumowania działającego z tak wysoką prędkością implikuje to ogromną optymalizację w infrastrukturze TPU v6 Google lub przełom w architekturze modeli rzadkich (sparse).
Przykład kodu: zdolność „one-shot”
Aby zilustrować złożoność tego, co oznacza „3 000 linii kodu”, pamiętaj, że model nie pisze wyłącznie prostego skryptu. On projektuje system.
Poniżej znajduje się koncepcyjny fragment pokazujący, jak Gemini 3.5 mógłby w jednym przebiegu ustrukturyzować Memory Management Unit (MMU) wyciekującego emulatora Game Boya.
Uwaga: Poniżej znajduje się reprezentatywny fragment typu niskopoziomowej logiki, który „Snow Bunny” generuje autonomicznie.
python
class GameBoyMMU:
def __init__(self, bios_path):
self.bios = self.load_bios(bios_path)
self.rom = bytearray(0x8000) # 32k – kartridż
self.vram = bytearray(0x2000) # 8k pamięć wideo (VRAM)
self.wram = bytearray(0x2000) # 8k pamięć robocza (WRAM)
self.zram = bytearray(0x80) # RAM zerowej strony
self.in_bios = True
def load_bios(self, path):
try:
with open(path, 'rb') as f:
return bytearray(f.read())
except FileNotFoundError:
return bytearray(256)
def read_byte(self, address):
# Mapowanie BIOS-u
if self.in_bios and address < 0x0100:
return self.bios[address]
elif address == 0x0100:
self.in_bios = False
# Kierowanie mapą pamięci
if 0x0000 <= address < 0x8000:
return self.rom[address]
elif 0x8000 <= address < 0xA000:
return self.vram[address - 0x8000]
elif 0xC000 <= address < 0xE000:
return self.wram[address - 0xC000]
elif 0xFF80 <= address < 0xFFFF:
return self.zram[address - 0xFF80]
# ... (Rozszerzona obsługa rejestrów I/O, przerwań, Echo RAM)
return 0xFF
def write_byte(self, address, value):
# Zapis do VRAM (blokuj podczas trybów renderowania, jeśli to konieczne)
if 0x8000 <= address < 0xA000:
self.vram[address - 0x8000] = value
# Wyzwolenie transferu DMA
elif address == 0xFF46:
self.dma_transfer(value)
# ... (Złożona logika bankowania, sterowania timerem, rejestrów audio)
def dma_transfer(self, source_high):
# Implementacja DMA symulująca cykl 160 ms
source_addr = source_high << 8
for i in range(0xA0):
byte = self.read_byte(source_addr + i)
self.write_byte(0xFE00 + i, byte) # Zapis do OAM
W typowej interakcji użytkownik po prostu promptowałby: „Stwórz w pełni funkcjonalny emulator Game Boya w Pythonie, który obsługuje ładowanie BIOS-u, mapowanie pamięci i podstawowe opkody CPU.” Gemini 3.5 generuje następnie powyższą klasę wraz z klasą CPU, PPU (Pixel Processing Unit) i główną pętlą wykonawczą, utrzymując spójność na przestrzeni tysięcy linii.
Kiedy zostanie wydany?
Choć Google oficjalnie nie potwierdził daty premiery, zbieżność wycieków sugeruje, że ogłoszenie jest nieuchronne.
- Oś czasu: Zmienne testowe i punkt kontrolny „Snow Bunny” wydają się być na etapie późnej walidacji. Spekulacje wskazują na potencjalny „shadow drop” lub duże ujawnienie w lutym 2026, możliwe w celu uprzedzenia premier konkurencji.
- Aktualny status: Model jest obecnie w prywatnej becie, dostępny tylko dla wybranych zaufanych testerów i partnerów korporacyjnych za pośrednictwem Vertex AI.
Jakie są szczegóły cenowe i kosztowe?
Ceny pozostają jednym z najbardziej agresywnych aspektów strategii Gemini. Plotki wskazują, że Google zamierza znacząco podciąć rynek, wykorzystując pionową integrację sprzętu (TPU) i oprogramowania.
- Gemini 3.5 Flash: Wyciek sugeruje około $0.50 za 1 milion tokenów wejściowych. To około 70% taniej niż porównywalne „inteligentne” modele konkurencji.
- Gemini 3.5 Pro/Ultra: Ceny mają być konkurencyjne, potencjalnie wprowadzając warstwowy model subskrypcji dla możliwości „Deep Think”.
- Dodatkowa opłata za „Deep Think”: Spekuluje się, że tryb rozumowania „System 2” może kosztować więcej za token ze względu na zwiększony czas obliczeń wymagany do „myślenia” przed generowaniem odpowiedzi.
Podsumowanie
Jeśli wycieki „Snow Bunny” się potwierdzą, Google Gemini 3.5 nie jest tylko inkrementalną aktualizacją; to stanowcza deklaracja dominacji. Rozwiązując problem „leniwego kodowania” i umożliwiając masowe, spójne generowanie kodu, Google może być o krok od przekształcenia deweloperów z piszących kod w architektów systemów. Czekając na oficjalny keynote, jedno jest jasne: wyścig zbrojeń w AI właśnie przyspieszył do prędkości hipersonicznych.
Deweloperzy mogą uzyskać dostęp do Gemini 3 Flash oraz Gemini 3 Pro na CometAPI, najświeższe modele są wymienione na dzień publikacji artykułu. Aby rozpocząć, poznaj możliwości modelu w Playground i zapoznaj się z przewodnikiem API po szczegółowe instrukcje. Przed dostępem upewnij się, że zalogujesz się do CometAPI i uzyskasz klucz API. CometAPI oferuje cenę znacznie niższą od oficjalnej, aby ułatwić integrację.
Gotowi do startu?→ Zarejestruj się w Gemini 3 już dziś !
Jeśli chcesz poznawać więcej wskazówek, porad i nowości o AI, śledź nas na VK, X i Discord!
