Google は、自社の Gemini ファミリーの新しい社内イテレーションを静かにテストしており、さまざまに “Gemini 3.5”、そして興味深い社内コードネーム “Snow Bunny” として報じられている。コードネーム "Snow Bunny" のこの内部チェックポイントは、既存のベンチマークを打ち砕き、単一のプロンプトで機能するコードを最大 3,000 行まで生成し、ソフトウェアアプリケーション全体を構築する前例のない能力を示したとされる。
シリコンバレーがそのデータ検証に奔走するなか、初期報告では、Google が「System 2」推論でブレークスルーを達成し、Gemini 3.5 が一時停止して考え、複雑なシステムを設計できるようになったと示唆されている。これは現行のリーダーである GPT-5.2 や Claude Opus 4.5 を凌駕する熟達ぶりだという。
Gemini 3.5 "Snow Bunny" とは?
社内で「Snow Bunny」のコードネームで呼ばれる Gemini 3.5 は、2025 年後半に見られたモデル推論能力の停滞に対する Google の直接的な回答のように見える。マルチモーダル理解やコンテキストウィンドウの大きさに重点を置いた従来機とは異なり、Gemini 3.5 は 拡張された認知の地平 と 自律的なソフトウェアアーキテクチャ に向けたパラダイムシフトを体現している。
「Snow Bunny」アーキテクチャ
「Snow Bunny」という呼称は、現在 Google の Vertex AI および AI Studio プラットフォームで A/B テストされている、高性能な特定チェックポイントを指すとされる。これは単なる「Pro」や「Ultra」の刷新ではなく、"Deep Think" 機能を統合した根本的なアーキテクチャアップグレードだというリークだ。
特化型バリアント
リークによれば、「Snow Bunny」は単一の巨大モデルではなく、特化モデル群である可能性がある。リーク文書では次の 2 つのバリアントが特定されている。
- Fierce Falcon: 生の計算速度と論理的推論に最適化されたバリアントで、競技プログラミングや高速データ分析を狙ったもの。
- Ghost Falcon: 「バイブコーディング」に長けたクリエイティブ特化型で、UI/UX デザイン、SVG 生成、オーディオ合成、視覚効果を高い忠実度で扱う。
System 2 推論:「Deep Think」モード
Gemini 3.5 を特徴づけるのは、噂される 「System 2」推論エンジン である。人間の認知心理学に着想を得たこの仕組みにより、モデルは複雑な問いに対して応答する前に「一時停止」できる。次のトークンを即座に予測するのではなく、モデルは不可視の連鎖的思考プロセスに入り、コードやロジックパズルの複数の実行経路を評価する。この「Deep Think」トグルにより、ベンチマークスコアは未知の領域へと押し上げられたとされる。
誰が最初に報じたのか?
Gemini 3.5 の存在は、2026 年 1 月下旬に X(旧 Twitter)と技術ブログでの一連の協調的なリークによって明らかになった。
- Primary Source: 技術ブロガーでインサイダーの Pankaj Kumar が最初に特大級のスクープを投稿し、「Snow Bunny」モデルが動作する様子のスクリーンショットとログを共有した。彼の投稿は、モデルが複雑なエンジニアリングタスクを「ワンショット」でこなす能力を詳述している。
- Benchmark Validation: Hieroglyph(ラテラル推論)ベンチマークを運用する「Leo」と名乗るユーザーがリークを裏付けた。彼は「Snow Bunny」バリアントが横断的思考タスクで 80〜88% の成功率を達成した結果を投稿しており、ほとんどのモデル(GPT-5.2 を含む)が 55% の壁を越えるのに苦戦するテストである。
- Technical Confirmation: Google の API サービスのバックエンドコードに「gemini-for-google-3.5」変数が出現していることがさらなる信憑性を与えており、公開ローンチのためのインフラがすでに整備されていることを示唆する。

3.5 は 3.0 / 3 Flash と何が異なる?
リーク報告によれば、主な差別化要因は次のとおりである。
- 大規模かつシステムレベルのコード合成:数千行にわたってグローバルな状態とアーキテクチャを維持できる(単発の関数生成にとどまらない)。
- 統合型マルチモーダル成果物生成:同一セッション内でコード、ベクターグラフィックス、ネイティブ音声を一貫したワークフローで生成。
- きめ細かな推論制御:レイテンシと内部の連鎖的思考スタイル探索をトレードオフする実験的トグル(例:「Deep Think」/「System2」)。
これらは根本的に異なるアーキテクチャというより反復的な工学改良に聞こえるが、規模で検証されれば、チームがプロダクト成果物をプロトタイプし出荷する方法を変えうるだろう。
機能と性能はどう比較できる?
リークされた指標は、同時代モデルより大幅に高性能かつ高速であることを示している。
3,000 行コーディングの「奇跡」
最も拡散した主張は、Gemini 3.5 が単一の高レベルプロンプトから 3,000 行の実行可能コード を生成できるというものだ。具体例として、ユーザーがモデルに Nintendo Game Boy エミュレータ を構築するよう求めたケースが挙げられている。
GPT-4 や Gemini 1.5 の標準的なワークフローでは、このタスクは CPU アーキテクチャの分解、メモリマップの定義、グラフィックスレンダリングの処理、段階的なデバッグなど、数十回のプロンプトを要する。Gemini 3.5「Snow Bunny」は、CPU の命令セット、GPU エミュレーション、メモリ処理を含むコードベース全体を一続きで出力し、実機 ROM を起動するために必要だった手作業の修正はごくわずかだったとされる。
パフォーマンスベンチマーク:Gemini 3.5 vs GPT-5.2 vs Claude Opus 4.5
| Benchmark | Gemini 3.5 "Snow Bunny" | GPT-5.2 (Est.) | Claude Opus 4.5 |
|---|---|---|---|
| Hieroglyph (Lateral Reasoning) | 80% - 88% | 55% | ~50% |
| GPQA Diamond (PhD Science) | >90% | ~85% | ~80% |
| Token Generation Speed | ~218 tokens/sec | ~80 tokens/sec | ~60 tokens/sec |
218 tokens/sec という速度は、とりわけ競合にとって警戒すべき水準だ。
この推論深度のモデルがこれほどの高速度で動作するということは、Google の TPU v6 インフラにおける大規模な最適化、もしくはスパースモデルアーキテクチャでのブレークスルーを意味している。
コード例:「ワンショット」能力
「3,000 行のコード」が含意する複雑さを示すために、モデルが単なるスクリプトではなくシステムを設計している点を考えてみよう。
以下は、リークされた Game Boy エミュレータの Memory Management Unit (MMU) を Gemini 3.5 が単一パスでどのように構成するかの概念的スニペットである。
注: 以下は、"Snow Bunny" が自律的に生成する低レベルロジックの代表的な抜粋である。
python
class GameBoyMMU:
def __init__(self, bios_path):
self.bios = self.load_bios(bios_path)
self.rom = bytearray(0x8000) # 32k カートリッジ
self.vram = bytearray(0x2000) # 8k ビデオ RAM
self.wram = bytearray(0x2000) # 8k ワーキング RAM
self.zram = bytearray(0x80) # ゼロページ RAM
self.in_bios = True
def load_bios(self, path):
try:
with open(path, 'rb') as f:
return bytearray(f.read())
except FileNotFoundError:
return bytearray(256)
def read_byte(self, address):
# BIOS マッピング
if self.in_bios and address < 0x0100:
return self.bios[address]
elif address == 0x0100:
self.in_bios = False
# メモリマップのルーティング
if 0x0000 <= address < 0x8000:
return self.rom[address]
elif 0x8000 <= address < 0xA000:
return self.vram[address - 0x8000]
elif 0xC000 <= address < 0xE000:
return self.wram[address - 0xC000]
elif 0xFF80 <= address < 0xFFFF:
return self.zram[address - 0xFF80]
# ... (I/O レジスタ、割り込み、エコー RAM の拡張ハンドリング)
return 0xFF
def write_byte(self, address, value):
# VRAM 書き込み(必要に応じてレンダリングモード中はブロック)
if 0x8000 <= address < 0xA000:
self.vram[address - 0x8000] = value
# DMA 転送トリガ
elif address == 0xFF46:
self.dma_transfer(value)
# ... (バンキング、タイマ制御、オーディオレジスタの複雑なロジック)
def dma_transfer(self, source_high):
# 160ms サイクルを模擬する Direct Memory Access の実装
source_addr = source_high << 8
for i in range(0xA0):
byte = self.read_byte(source_addr + i)
self.write_byte(0xFE00 + i, byte) # OAM に書き込み
典型的な対話では、ユーザーは単にこう促すだけでよい:"Create a fully functional Game Boy emulator in Python that handles BIOS loading, memory mapping, and basic CPU opcodes." その結果、Gemini 3.5 は上記のクラスに加えて、CPU クラス、PPU(Pixel Processing Unit)、メイン実行ループを生成し、数千行にわたる一貫性を維持する。
リリース時期はいつ?
Google はリリース日を公式には確認していないものの、複数のリークが重なっていることから、発表は差し迫っていると見られる。
- Timeline: 内部テスト用変数と「Snow Bunny」チェックポイントは最終段階の検証にあるようだ。2026 年 2 月 の「シャドウドロップ」または大規模発表が、競合のリリースに先んじて行われるとの観測がある。
- Current Status: モデルは現在 プライベートベータ 段階にあり、Vertex AI を通じて選ばれた信頼できるテスターとエンタープライズパートナーのみがアクセスできる。
価格とコストの詳細は?
価格は Gemini 戦略の中でも特に攻めた要素の 1 つであり、Google はハードウェア(TPU)とソフトウェアの垂直統合を生かして、市場価格を大幅に下回る設定を狙っていると噂される。
- Gemini 3.5 Flash: リークされた価格は 入力トークン 100 万あたり $0.50 前後。これは競合する「スマート」モデルと比べて約 70% 低価格。
- Gemini 3.5 Pro/Ultra: 競争力のある価格設定が見込まれ、「Deep Think」機能向けに階層型サブスクリプションモデルが導入される可能性がある。
- Deep Think Surcharge: モデルが応答生成前に「思考」するために必要な計算時間が増えるため、「System 2」推論モードはトークン単価が高くなるとの観測がある。
結論
もし「Snow Bunny」のリークが真実であれば、Google Gemini 3.5 は単なる漸進的アップデートではなく、強力な優位性の宣言だ。「怠惰なコーディング」問題を解消し、大規模で首尾一貫したコード生成を可能にすることで、Google は開発者をコード記述者からシステムアーキテクトへと変貌させる瀬戸際にあるのかもしれない。公式キーノートを待つ間、1 つだけはっきりしていることがある:AI 兵器競争は極超音速で加速したということだ。
開発者は、記事の公開日時点で最新のモデルである Gemini 3 Flash と Gemini 3 Pro を CometAPI で利用できる。まずは Playground でモデルの機能を試し、詳細は API guide を参照してほしい。アクセス前に、CometAPI にログインし API キーを取得していることを確認のこと。CometAPI は統合を支援するため、公式価格を大きく下回る価格を提供している。
Ready to Go?→ Sign up for Gemini 3 today !
