O Google está testando discretamente uma nova iteração interna de sua família Gemini — relatada de várias formas como “Gemini 3.5” e pelo intrigante codinome interno “Snow Bunny.” Com o codinome "Snow Bunny," este checkpoint interno teria quebrado benchmarks existentes, demonstrando uma capacidade sem precedentes de gerar aplicações de software completas — até 3,000 linhas de código funcional — em um único prompt.
Enquanto o Vale do Silício se apressa para verificar os dados, relatos iniciais sugerem que o Google alcançou um avanço em raciocínio "System 2", permitindo que o Gemini 3.5 pause, pense e arquitete sistemas complexos com uma proficiência que eclipsa líderes atuais como GPT-5.2 e Claude Opus 4.5.
O que é o Gemini 3.5 "Snow Bunny"?
O Gemini 3.5, referido internamente pelo codinome "Snow Bunny", parece ser a resposta direta do Google à estagnação das capacidades de raciocínio de modelos observada no fim de 2025. Diferentemente de seus predecessores, que focavam fortemente em compreensão multimodal e tamanho da janela de contexto, o Gemini 3.5 representa uma mudança de paradigma rumo a horizontes cognitivos estendidos e arquitetura de software autônoma.
A arquitetura "Snow Bunny"
O apelido "Snow Bunny" refere-se, segundo relatos, a um checkpoint específico e de alto desempenho do modelo, atualmente passando por testes A/B nas plataformas Vertex AI e AI Studio do Google. O vazamento sugere que isso não é meramente uma atualização "Pro" ou "Ultra", mas um upgrade arquitetural fundamental que integra capacidades de "Deep Think".
Variantes especializadas do modelo
Os vazamentos indicam que "Snow Bunny" pode ser uma família de modelos especializados, em vez de um monólito único. Duas variantes específicas foram identificadas na documentação vazada:
- Fierce Falcon: Uma variante otimizada para velocidade computacional bruta e dedução lógica, provavelmente voltada a programação competitiva e análise rápida de dados.
- Ghost Falcon: Uma potência criativa projetada para "vibe coding", lidando com design de UI/UX, geração de SVG, síntese de áudio e efeitos visuais com alta fidelidade.
Raciocínio System 2: o modo "Deep Think"
O recurso definidor do Gemini 3.5 é seu suposto motor de raciocínio "System 2". Inspirado pela psicologia cognitiva humana, esse sistema permite que o modelo "pause" antes de responder a consultas complexas. Em vez de prever o próximo token imediatamente, o modelo engaja um processo oculto de chain-of-thought, avaliando múltiplos caminhos de execução para código ou quebra-cabeças lógicos. Esse toggle "Deep Think" teria impulsionado suas pontuações de benchmark a territórios inexplorados.
Quem deu o furo?
A existência do Gemini 3.5 veio à tona por meio de uma série de vazamentos coordenados na plataforma social X (anteriormente Twitter) e em blogs técnicos no fim de janeiro de 2026.
- Fonte primária: A bomba inicial veio do blogueiro de tecnologia e insider Pankaj Kumar, que compartilhou capturas de tela e logs do modelo "Snow Bunny" em ação. Seus posts detalharam a capacidade do modelo de realizar tarefas de engenharia complexas em "one-shot".
- Validação de benchmark: Um usuário conhecido como "Leo", que mantém o benchmark de raciocínio lateral Hieroglyph, corroborou os vazamentos. Ele publicou resultados mostrando uma variante "Snow Bunny" alcançando uma taxa de sucesso de 80-88% em tarefas de pensamento lateral — um teste em que a maioria dos modelos, incluindo o GPT-5.2, luta para ultrapassar 55%.
- Confirmação técnica: Foi adicionada mais credibilidade com o aparecimento de variáveis "gemini-for-google-3.5" no código de backend dos serviços de API do Google, sugerindo que a infraestrutura para um lançamento público já está pronta.

O que diferenciaria 3.5 de 3.0 / 3 Flash?
Com base nos relatos dos vazamentos, os principais diferenciais são:
- Síntese de código em grande escala, em nível de sistemas: capacidade de manter estado global e arquitetura ao longo de milhares de linhas (não apenas geração de funções isoladas).
- Geração unificada de artefatos multimodais: a mesma sessão produz código, gráficos vetoriais e áudio nativo em um fluxo de trabalho coerente.
- Controles granulares de raciocínio: toggles experimentais (por exemplo, “Deep Think” / “System2”) para trocar latência por uma busca interna mais profunda no estilo de cadeia de raciocínio.
Isso soa como avanços de engenharia iterativos em vez de uma arquitetura radicalmente diferente, mas, se validado em escala, mudaria a forma como equipes fazem protótipos e entregam artefatos de produto.
Como os recursos e o desempenho se comparam?
As métricas vazadas pintam um quadro de um modelo significativamente mais capaz e mais rápido do que seus contemporâneos.
O milagre das 3,000 linhas de código
A alegação mais viral do vazamento é a capacidade do Gemini 3.5 de gerar 3,000 linhas de código executável a partir de um único prompt de alto nível. O exemplo específico citado envolveu um usuário pedindo ao modelo para construir um emulador do Nintendo Game Boy.
Em um fluxo de trabalho padrão com GPT-4 ou Gemini 1.5, essa tarefa exigiria dezenas de prompts: detalhar a arquitetura da CPU, definir o mapa de memória, lidar com renderização gráfica e depurar iterativamente. O Gemini 3.5 "Snow Bunny" teria produzido toda a base de código — incluindo o conjunto de instruções da CPU, a emulação da GPU e o tratamento de memória — em uma única sequência contínua, exigindo apenas pequenas correções manuais para inicializar ROMs reais.
Benchmarks de desempenho: Gemini 3.5 vs GPT-5.2 vs Claude Opus 4.5
| Benchmark | Gemini 3.5 "Snow Bunny" | GPT-5.2 (Est.) | Claude Opus 4.5 |
|---|---|---|---|
| Hieroglyph (Raciocínio lateral) | 80% - 88% | 55% | ~50% |
| GPQA Diamond (Ciência em nível de PhD) | >90% | ~85% | ~80% |
| Velocidade de geração de tokens | ~218 tokens/sec | ~80 tokens/sec | ~60 tokens/sec |
A velocidade de 218 tokens por segundo é particularmente alarmante para os concorrentes.
Para um modelo com essa profundidade de raciocínio operar em tal alta velocidade, isso implica uma otimização maciça na infraestrutura TPU v6 do Google ou um avanço em arquitetura de modelos esparsos.
Exemplo de código: a capacidade "One-Shot"
Para ilustrar a complexidade do que "3,000 linhas de código" significa, considere que o modelo não está apenas escrevendo um script simples. Ele está arquitetando um sistema.
Abaixo está um trecho conceitual de como o Gemini 3.5 poderia estruturar a Unidade de Gerenciamento de Memória (MMU) do emulador de Game Boy vazado em uma única passada.
Nota: O que segue é um trecho representativo do tipo de lógica de baixo nível que o "Snow Bunny" gera autonomamente.
python
class GameBoyMMU:
def __init__(self, bios_path):
self.bios = self.load_bios(bios_path)
self.rom = bytearray(0x8000) # 32k Cartridge
self.vram = bytearray(0x2000) # 8k Video RAM
self.wram = bytearray(0x2000) # 8k Working RAM
self.zram = bytearray(0x80) # Zero-page RAM
self.in_bios = True
def load_bios(self, path):
try:
with open(path, 'rb') as f:
return bytearray(f.read())
except FileNotFoundError:
return bytearray(256)
def read_byte(self, address):
# BIOS Mapping
if self.in_bios and address < 0x0100:
return self.bios[address]
elif address == 0x0100:
self.in_bios = False
# Memory Map Routing
if 0x0000 <= address < 0x8000:
return self.rom[address]
elif 0x8000 <= address < 0xA000:
return self.vram[address - 0x8000]
elif 0xC000 <= address < 0xE000:
return self.wram[address - 0xC000]
elif 0xFF80 <= address < 0xFFFF:
return self.zram[address - 0xFF80]
# ... (Extended handling for I/O registers, Interrupts, Echo RAM)
return 0xFF
def write_byte(self, address, value):
# VRAM Write (Block during rendering modes if necessary)
if 0x8000 <= address < 0xA000:
self.vram[address - 0x8000] = value
# DMA Transfer Trigger
elif address == 0xFF46:
self.dma_transfer(value)
# ... (Complex logic for banking, timer controls, audio registers)
def dma_transfer(self, source_high):
# Direct Memory Access implementation simulating 160ms cycle
source_addr = source_high << 8
for i in range(0xA0):
byte = self.read_byte(source_addr + i)
self.write_byte(0xFE00 + i, byte) # Write to OAM
Em uma interação típica, o usuário simplesmente pediria: "Crie um emulador de Game Boy totalmente funcional em Python que lide com carregamento de BIOS, mapeamento de memória e opcodes básicos da CPU." O Gemini 3.5 então gera a classe acima, juntamente com a classe da CPU, a PPU (Unidade de Processamento de Pixels) e o loop principal de execução, mantendo a coerência ao longo de milhares de linhas.
Quando será lançado?
Embora o Google não tenha confirmado oficialmente uma data de lançamento, a convergência dos vazamentos sugere que um anúncio é iminente.
- Cronograma: Variáveis de testes internos e o checkpoint "Snow Bunny" parecem estar em validação de estágio avançado. A especulação aponta para um possível "shadow drop" ou uma grande revelação em fevereiro de 2026, possivelmente para antecipar lançamentos de concorrentes.
- Status atual: O modelo está em beta privado, acessível apenas a testadores confiáveis e parceiros empresariais via Vertex AI.
Quais são os detalhes de preços e custos?
A precificação permanece como um dos aspectos mais agressivos da estratégia Gemini. Rumores indicam que o Google pretende subcotar significativamente o mercado, alavancando sua integração vertical de hardware (TPUs) e software.
- Gemini 3.5 Flash: Preços vazados sugerem aproximadamente $0.50 por 1 milhão de tokens de entrada. Isso é cerca de 70% mais barato do que modelos "inteligentes" comparáveis de concorrentes.
- Gemini 3.5 Pro/Ultra: Espera-se que a precificação seja competitiva, potencialmente introduzindo um modelo de assinatura em camadas para capacidades "Deep Think".
- Sobretaxa do Deep Think: Há especulação de que o modo de raciocínio "System 2" pode custar mais por token devido ao tempo de computação adicional necessário para o modelo "pensar" antes de gerar uma resposta.
Conclusão
Se os vazamentos de "Snow Bunny" se confirmarem, o Google Gemini 3.5 não é apenas uma atualização incremental; é uma declaração contundente de dominância. Ao resolver o problema de "coding preguiçoso" e habilitar geração massiva e coerente de código, o Google pode estar prestes a transformar desenvolvedores de escritores de código em arquitetos de sistemas. Enquanto aguardamos o keynote oficial, uma coisa é clara: a corrida armamentista de IA acabou de acelerar para velocidades hipersônicas.
Desenvolvedores podem acessar Gemini 3 Flash e Gemini 3 Pro CometAPI, os modelos mais recentes listados estão conforme a data de publicação do artigo. Para começar, explore as capacidades do modelo no Playground e consulte o API guide para instruções detalhadas. Antes de acessar, certifique-se de ter feito login no CometAPI e obtido a chave de API. A CometAPI oferece um preço muito inferior ao preço oficial para ajudar na integração.
Pronto para começar?→ Inscreva-se no Gemini 3 hoje !
Se quiser saber mais dicas, guias e notícias sobre IA, siga-nos no VK, X e Discord!
