Google Gemini 3.5(Snow Bunny)外洩:你需要了解的一切

CometAPI
AnnaJan 30, 2026
Google Gemini 3.5(Snow Bunny)外洩:你需要了解的一切

Google 正在低調測試其 Gemini 系列的一個全新內部迭代——外界分別稱其為 “Gemini 3.5”,以及引人好奇的內部代號 “Snow Bunny”。代號為 "Snow Bunny" 的這個內部檢查點據稱已打破既有基準,展現出前所未見的能力:只需一條提示即可生成整個軟體應用程式——多達 3,000 行可運行的程式碼。

當矽谷正忙於驗證這些數據時,早期報導顯示 Google 在「System 2」推理方面取得突破,使 Gemini 3.5 能夠在回應前暫停、思考並規劃複雜系統,其熟練度超越了當前領先者如 GPT-5.2 與 Claude Opus 4.5。

What Is Gemini 3.5 "Snow Bunny"?

Gemini 3.5,在內部被稱為 "Snow Bunny",似乎是 Google 對 2025 年末模型推理能力停滯的直接回應。不同於其前代著重於多模態理解與上下文視窗大小,Gemini 3.5 代表著一種範式轉變,轉向 延展的認知視野自主軟體架構

The "Snow Bunny" Architecture

據稱,「Snow Bunny」這一稱號指向的是當前在 Google 的 Vertex AI 與 AI Studio 平台上進行 A/B 測試的某個高性能檢查點。洩漏資訊顯示,這不僅僅是一次「Pro」或「Ultra」的刷新,而是整體架構層面的升級,整合了 "Deep Think" 能力。

Specialized Model Variants

洩漏指出,「Snow Bunny」可能是一個專用模型家族,而非單一巨石式模型。在洩漏文件中確認了兩個具體變體:

  • Fierce Falcon: 針對原始計算速度與邏輯推導進行優化,可能面向競賽程式設計與快速資料分析。
  • Ghost Falcon: 為「vibe coding」而設計的創意引擎,可高保真處理 UI/UX 設計、SVG 生成、音訊合成與視覺效果。

System 2 Reasoning: The "Deep Think" Mode

Gemini 3.5 的決定性特徵是其傳聞中的 「System 2」推理引擎。汲取人類認知心理學的靈感,該系統允許模型在回應複雜查詢前「暫停」。模型不再立即預測下一個 token,而是進入隱性的思維鏈過程,為程式碼或邏輯謎題評估多個執行路徑。這個「Deep Think」切換據稱將其基準測試分數推向了未知的新領域。


Who Broke the News?

Gemini 3.5 的存在,於 2026 年 1 月下旬通過 X(原 Twitter)與技術部落格上的一系列協調洩漏而曝光。

  • Primary Source: 首波重磅消息來自科技部落客與內線人士 Pankaj Kumar,他分享了「Snow Bunny」模型實際運行的截圖與日誌。其貼文詳述了模型「一發完成」複雜工程任務的能力。
  • Benchmark Validation: 維護 Hieroglyph 橫向推理基準的用戶「Leo」對洩漏予以驗證。他發布的結果顯示,「Snow Bunny」變體在橫向思維任務上達到 80%–88% 的成功率——在該測試中,多數模型(包括 GPT-5.2)難以突破 55%。
  • Technical Confirmation: 進一步的可信度來自 Google API 服務後端代碼中出現的「gemini-for-google-3.5」變數,暗示公共發佈的基礎設施已到位。

Google Gemini 3.5(Snow Bunny)外洩:你需要了解的一切

What would distinguish 3.5 from 3.0 / 3 Flash?

根據洩漏報導,主要差異化點包括:

  • 大規模、系統級程式碼合成: 能夠在數千行範圍內維持全局狀態與架構(不僅是孤立函式的生成)。
  • 統一的多模態產物生成: 同一工作階段內以一致流程產出程式碼、向量圖形與原生音訊。
  • 細粒度推理控制: 實驗性切換(例如「Deep Think」/「System2」)在延遲與更深層的思維鏈式內部搜尋之間做權衡。

這些聽起來像是迭代性的工程進步,而非徹底不同的架構;但若能在大規模上得到驗證,將改變團隊原型設計與產品產物交付的方式。

How Does the Features and Performance Compare?

洩漏的指標描繪出一個明顯比同儕更有能力且更高速的模型。 

The 3,000-Line Coding Miracle

此次洩漏中最具病毒式傳播的說法是,Gemini 3.5 能從一條高層級提示生成 3,000 行可執行程式碼。具體案例是使用者要求模型打造一個 Nintendo Game Boy 模擬器

在使用 GPT-4 或 Gemini 1.5 的標準流程中,此任務通常需要數十條提示:拆解 CPU 架構、定義記憶體映射、處理圖形渲染並反覆除錯。據稱,Gemini 3.5「Snow Bunny」一次性輸出完整代碼庫——包含 CPU 指令集、GPU 模擬與記憶體處理——僅需少量手動修正即可啟動實際 ROM。

Performance Benchmarks: Gemini 3.5 vs GPT-5.2 vs Claude Opus 4.5

BenchmarkGemini 3.5 "Snow Bunny"GPT-5.2 (Est.)Claude Opus 4.5
Hieroglyph (Lateral Reasoning)80% - 88%55%~50%
GPQA Diamond (PhD Science)>90%~85%~80%
Token Generation Speed~218 tokens/sec~80 tokens/sec~60 tokens/sec

218 tokens per second 的速度尤其令競爭者震驚。 

對於具有此等推理深度的模型而言,能以如此高速運行,意味著 Google 在 TPU v6 基礎設施上的巨大優化,或是在稀疏模型架構上的突破。

Code Example: The "One-Shot" Capability

為了說明「3,000 行程式碼」所涵蓋的複雜度,請考慮模型並非只是在撰寫一個簡單腳本,而是在規劃一個系統。 

以下是一段概念性片段,展示 Gemini 3.5 可能如何在一次生成中結構化洩漏 Game Boy 模擬器的 記憶體管理單元(MMU)

Note: The following is a representative excerpt of the type of low-level logic "Snow Bunny" generates autonomously.

python

class GameBoyMMU:
    def __init__(self, bios_path):
        self.bios = self.load_bios(bios_path)
        self.rom = bytearray(0x8000)  # 32k Cartridge
        self.vram = bytearray(0x2000) # 8k Video RAM
        self.wram = bytearray(0x2000) # 8k Working RAM
        self.zram = bytearray(0x80)   # Zero-page RAM
        self.in_bios = True

    def load_bios(self, path):
        try:
            with open(path, 'rb') as f:
                return bytearray(f.read())
        except FileNotFoundError:
            return bytearray(256)

    def read_byte(self, address):
        # BIOS Mapping
        if self.in_bios and address < 0x0100:
            return self.bios[address]
        elif address == 0x0100:
            self.in_bios = False
        
        # Memory Map Routing
        if 0x0000 <= address < 0x8000:
            return self.rom[address]
        elif 0x8000 <= address < 0xA000:
            return self.vram[address - 0x8000]
        elif 0xC000 <= address < 0xE000:
            return self.wram[address - 0xC000]
        elif 0xFF80 <= address < 0xFFFF:
            return self.zram[address - 0xFF80]
        # ... (Extended handling for I/O registers, Interrupts, Echo RAM)
        return 0xFF

    def write_byte(self, address, value):
        # VRAM Write (Block during rendering modes if necessary)
        if 0x8000 <= address < 0xA000:
            self.vram[address - 0x8000] = value
        # DMA Transfer Trigger
        elif address == 0xFF46:
            self.dma_transfer(value)
        # ... (Complex logic for banking, timer controls, audio registers)
        
    def dma_transfer(self, source_high):
        # Direct Memory Access implementation simulating 160ms cycle
        source_addr = source_high << 8
        for i in range(0xA0):
            byte = self.read_byte(source_addr + i)
            self.write_byte(0xFE00 + i, byte) # Write to OAM

在典型互動中,使用者只需提示:"Create a fully functional Game Boy emulator in Python that handles BIOS loading, memory mapping, and basic CPU opcodes." 然後 Gemini 3.5 會生成上述類別,連同 CPU 類別、PPU(Pixel Processing Unit)與主執行迴圈,並在數千行範圍內維持一致性。

When Will It Be Released?

雖然 Google 尚未正式確認發佈日期,但多方洩漏的匯聚顯示公告在即。 

  • Timeline: 內部測試變數與「Snow Bunny」檢查點似乎處於驗證的後期階段。外界推測可能在 2026 年 2 月 進行「突襲發布」或重大揭幕,以搶在競爭對手之前。
  • Current Status: 該模型目前處於 private beta,僅透過 Vertex AI 向特定受信任的測試者與企業合作夥伴開放。

What Are the Pricing and Cost Details?

定價仍是 Gemini 策略中最具攻勢的一環。傳聞指出,Google 打算大幅壓低市場價格,藉由其硬體(TPU)與軟體的垂直整合優勢。

  • Gemini 3.5 Flash: 洩漏的定價約為 每 100 萬個輸入 tokens 0.50 美元。這比同級「智慧」模型便宜約 70%。
  • Gemini 3.5 Pro/Ultra: 預計將保持競爭力,並可能引入針對「Deep Think」能力的分級訂閱模式。
  • Deep Think Surcharge: 有傳聞稱「System 2」推理模式可能因模型在生成答案前需「思考」而增加計算時間,故每個 token 成本更高。

Conclusion

如果「Snow Bunny」的洩漏屬實,Google Gemini 3.5 並非僅是一次漸進式更新;它是一次強力的主導宣言。透過解決「懶惰編碼」問題並實現大規模、連貫的代碼生成,Google 或將把開發者從代碼撰寫者解放為系統架構師。在我們等待官方主題演講之際,有一點是明確的:AI 軍備競賽正加速進入高超音速。

開發者可透過  Gemini 3 FlashGemini 3 ProCometAPI,取得截至本文發佈日期的最新模型。開始使用前,請在 Playground 中探索模型能力,並參考 API guide 取得詳細說明。存取前請先登入 CometAPI 並取得 API 金鑰。CometAPI 提供遠低於官方的價格,助你完成整合。

Ready to Go?→ Sign up for Gemini 3 today !

若想獲得更多 AI 技巧、指南與新聞,請關注我們在 VKXDiscord

閱讀更多

一個 API 中超過 500 個模型

最高 20% 折扣