Google Gemini 3.5(Snow Bunny)泄露:你需要了解的一切

CometAPI
AnnaJan 30, 2026
Google Gemini 3.5(Snow Bunny)泄露:你需要了解的一切

Google 正在低调测试其 Gemini 系列的一次全新内部迭代——外界分别称其为**“Gemini 3.5”,以及颇为耐人寻味的内部代号“Snow Bunny”。代号为“Snow Bunny”**的这一内部检查点据称已打破现有基准测试记录,展现出前所未有的能力:在单次提示下即可生成完整的软件应用——多达 3,000 行的可运行代码。

当硅谷忙于核实相关数据之际,早期报告显示,Google 在“System 2”推理方面取得突破,使 Gemini 3.5 能够暂停、思考,并以超越当前领跑者(如 GPT-5.2 与 Claude Opus 4.5)的熟练度来设计复杂系统。

什么是 Gemini 3.5 “Snow Bunny”?

Gemini 3.5 在内部被称为“Snow Bunny”,看起来是 Google 对 2025 年末模型推理能力停滞现象的直接回应。不同于前代着重于多模态理解与上下文窗口大小,Gemini 3.5 代表了一种范式转移,面向延展的认知视野自主软件架构

“Snow Bunny” 架构

“Snow Bunny”这一称谓据称指代一个正在 Google Vertex AI 与 AI Studio 平台进行 A/B 测试的高性能检查点。泄露信息表明,这不仅仅是一次“Pro”或“Ultra”的刷新,而是一次在架构层面的根本升级,集成了**“Deep Think”**能力。

专用模型变体

泄露信息显示,“Snow Bunny”可能是一组专用模型家族,而非单一巨型模型。泄露文档中识别出两个具体变体:

  • **Fierce Falcon:**面向原始计算速度与逻辑推导优化,可能瞄准竞赛编程与快速数据分析。
  • **Ghost Falcon:**专为“vibe coding”而生的创意强者,能以高保真处理 UI/UX 设计、SVG 生成、音频合成与视觉特效。

System 2 推理:“Deep Think” 模式

Gemini 3.5 的决定性特征据称是其**“System 2”**推理引擎。受人类认知心理学启发,该系统允许模型在应对复杂问题前“暂停”。模型并非立刻预测下一个 token,而是进入隐式的思维链过程,为代码或逻辑难题评估多条执行路径。据称,这一“Deep Think”开关已将其基准分数推向未知高地。


谁爆出了这条消息?

Gemini 3.5 的存在通过 2026 年 1 月下旬 X(前身为 Twitter)与技术博客上的一系列协同泄露被曝光。

  • **主要来源:**来自科技博主与内部人士 Pankaj Kumar 的首波重磅爆料,他分享了“Snow Bunny”模型的截图与日志。他的帖子详述了该模型“一击式”(“one-shot”)解决复杂工程任务的能力。
  • **基准验证:**维护 Hieroglyph 横向推理基准的用户“Leo”证实了这些泄露。他发布的结果显示,“Snow Bunny”变体在横向思维任务上取得了 80%-88% 的成功率——而大多数模型(包括 GPT-5.2)很难突破 55%。
  • **技术层面确认:**Google API 服务后端代码中出现“gemini-for-google-3.5”变量的进一步证据,暗示面向公众发布的基础设施已就位。

Google Gemini 3.5(Snow Bunny)泄露:你需要了解的一切

3.5 与 3.0 / 3 Flash 的区别是什么?

据泄露报道,主要差异在于:

  • **大规模、系统级代码合成:**能够在数千行范围内维持全局状态与架构(一体化生成,而非仅限于孤立函数)。
  • **统一的多模态工件生成:**同一会话在一个连贯的工作流中生成代码、矢量图形与原生音频。
  • **细粒度推理控制:**实验性开关(如“Deep Think”/“System2”),以延迟换取更深入的类思维链式内部搜索。

这些听起来更像是工程层面的迭代进步,而非完全不同的架构;但若能在规模上得到验证,将改变团队原型设计与交付产品工件的方式。

功能与性能如何对比?

泄露的指标描绘出一个比同代产品更强大且更快速的模型图景。

3,000 行编码奇迹

最为病毒式传播的说法是,Gemini 3.5 能够仅通过一次高层提示生成3,000 行可执行代码。被点名的示例是用户要求模型构建一个Nintendo Game Boy 模拟器。

在使用 GPT-4 或 Gemini 1.5 的标准流程中,这个任务通常需要几十次提示:拆解 CPU 架构、定义内存映射、处理图形渲染并进行迭代调试。据称,Gemini 3.5 “Snow Bunny”一次性输出了完整代码库——包括 CPU 指令集、GPU 仿真与内存处理——仅需少量手动修复即可启动真实 ROM。

性能基准:Gemini 3.5 vs GPT-5.2 vs Claude Opus 4.5

BenchmarkGemini 3.5 "Snow Bunny"GPT-5.2 (Est.)Claude Opus 4.5
Hieroglyph (Lateral Reasoning)80% - 88%55%~50%
GPQA Diamond (PhD Science)>90%~85%~80%
Token Generation Speed~218 tokens/sec~80 tokens/sec~60 tokens/sec

~218 tokens/sec 的速度对竞争对手而言尤其“警觉”。

对于一个具备如此推理深度的模型而言,却能以如此高的速度运行,这意味着 Google 的 TPU v6 基础设施实现了大幅优化,或在稀疏模型架构上取得了突破。

代码示例:“一击式(One-Shot)”能力

为了说明“3,000 行代码”的复杂性,须认识到模型并非只是在写一个简单脚本,它在构建一个系统

下面是 Gemini 3.5 可能在一次生成中构建的 Memory Management Unit (MMU)(内存管理单元)的概念性片段。

注:以下是“Snow Bunny”可自主生成的这类低层逻辑的代表性摘录。

python

class GameBoyMMU:
    def __init__(self, bios_path):
        self.bios = self.load_bios(bios_path)
        self.rom = bytearray(0x8000)  # 32k 卡带
        self.vram = bytearray(0x2000) # 8k 视频 RAM
        self.wram = bytearray(0x2000) # 8k 工作 RAM
        self.zram = bytearray(0x80)   # 零页 RAM
        self.in_bios = True

    def load_bios(self, path):
        try:
            with open(path, 'rb') as f:
                return bytearray(f.read())
        except FileNotFoundError:
            return bytearray(256)

    def read_byte(self, address):
        # BIOS 映射
        if self.in_bios and address < 0x0100:
            return self.bios[address]
        elif address == 0x0100:
            self.in_bios = False
        
        # 内存映射路由
        if 0x0000 <= address < 0x8000:
            return self.rom[address]
        elif 0x8000 <= address < 0xA000:
            return self.vram[address - 0x8000]
        elif 0xC000 <= address < 0xE000:
            return self.wram[address - 0xC000]
        elif 0xFF80 <= address < 0xFFFF:
            return self.zram[address - 0xFF80]
        # ...(I/O 寄存器、中断、Echo RAM 的扩展处理)
        return 0xFF

    def write_byte(self, address, value):
        # VRAM 写入(如有必要在渲染模式期间阻塞)
        if 0x8000 <= address < 0xA000:
            self.vram[address - 0x8000] = value
        # DMA 传输触发
        elif address == 0xFF46:
            self.dma_transfer(value)
        # ...(用于内存银行切换、计时器控制、音频寄存器的复杂逻辑)
        
    def dma_transfer(self, source_high):
        # 直接内存访问实现,模拟 160ms 周期
        source_addr = source_high << 8
        for i in range(0xA0):
            byte = self.read_byte(source_addr + i)
            self.write_byte(0xFE00 + i, byte) # 写入 OAM

在一个典型交互中,用户只需提示:“在 Python 中创建一个能够处理 BIOS 加载、内存映射和基本 CPU 操作码的、功能完备的 Game Boy 模拟器。”随后,Gemini 3.5 会生成上述类,以及 CPU 类、PPU(Pixel Processing Unit,像素处理单元)与主执行循环,并在数千行范围内保持一致性。

何时发布?

尽管 Google 尚未正式确认发布日期,但各类泄露信息的汇合表明,发布在即。

  • 时间线:内部测试变量与“Snow Bunny”检查点似乎处于验证的后期阶段。坊间猜测可能会在2026 年 2 月进行“shadow drop”或重大发布,意在抢在竞争对手之前。
  • 当前状态:该模型目前处于私有测试版,仅通过 Vertex AI 向少数受信任的测试者与企业合作伙伴开放。

定价与成本细节是什么?

定价仍是 Gemini 策略中最具进攻性的一环。有传言称,Google 计划凭借软硬件(TPU)垂直整合以显著压低市场价。

  • Gemini 3.5 Flash:泄露价格约为每 100 万输入 token 0.50 美元。这比同档“智能”模型低约 70%。
  • **Gemini 3.5 Pro/Ultra:**预计价格将具备竞争力,可能为“Deep Think”能力引入分层订阅模式。
  • **Deep Think 附加费:**据称由于模型在生成答案前需要更多计算时间进行“思考”,“System 2”推理模式可能会按 token 收取更高费用。

结论

如果“Snow Bunny”的泄露属实,Google Gemini 3.5 并非一次小幅更新;它是在强势宣示主导地位。通过解决“懒惰编码”问题并实现大规模、连贯的代码生成,Google 或将把开发者从代码书写者转变为系统架构师。随着官方发布临近,有一点很明确:AI 军备竞赛正加速至高超音速。

开发者可通过  Gemini 3 FlashGemini 3 Pro CometAPI 获取访问权限,以上为文章发表时列出的最新模型。开始之前,请在 Playground 探索模型能力,并查阅 API 指南 获取详细说明。访问前,请务必登录 CometAPI 并获取 API 密钥。CometAPI 提供远低于官方的价格,助你快速集成。

准备好开始了吗?→ 立即注册 Gemini 3!

如果你想了解更多技巧、指南与 AI 动态,欢迎关注我们的 VKXDiscord!

阅读更多

一个 API 中超 500 个模型

最高 20% 折扣