如何获取 Gemini 3.1 Deep Think

CometAPI
AnnaMar 13, 2026
如何获取 Gemini 3.1 Deep Think

人工智能已进入以推理为中心的模型新阶段,而这一领域最重要的发布之一是由 Google DeepMind 开发、具备先进 Deep Think 模式Gemini 3.1 Pro。该系统于 2026 年初推出,在推理性能、多模态理解以及基于 Agent 的任务执行方面实现了实质性飞跃。

与以往的 Gemini 代际相比,Gemini 3.1 引入了更长的上下文窗口、更强的工具使用能力,以及在推理、编码与科学任务上的更高基准分数。该模型迅速成为寻求先进 AI 能力的开发者、研究者和企业的首选之一。

与此同时,获得 Gemini 3.1 Deep Think 的访问权限并非总是那么直接。部分能力仅向特定订阅层级、区域或企业 API 开放。对于开发者与组织,诸如 CometAPI 等第三方平台正成为将该模型集成到应用中的实用路径。

什么是 Gemini 3.1 Deep Think?

Gemini 3.1 Deep Think 是建立在 Gemini AI 模型架构之上的专用推理模式。与标准对话模型追求快速响应不同,Deep Think 会投入额外的计算资源来分析复杂任务、验证中间结果,并生成更准确的结论。

使用名为 Aletheia 的 Deep Think 驱动 Agent 的研究实验显示,其在 FirstProof 挑战中的 10 个高级数学研究问题中解决了 6 个,体现了 AI 辅助科学发现的潜力。

关键能力(新增内容)

  • 可配置的思考层级 — 对浅层/快速回复与高深度 Deep Think 模式进行分层控制(显式“思考”原语)。
  • 超长上下文窗口 — 部分变体支持最多约 ~1,048,576 个输入 tokens,并可输出最多 65,536 个 tokens,使得在单次会话中即可对超大文档或代码库进行推理。
  • 多模态输入 — 在单次会话中同时处理文本 + 图像 + 视频/PDF,支持跨模态推理(取决于可用性)。
  • Agent 化/工具使用 — 结构化函数调用、自定义工具端点以及代码执行钩子,以支持 Agent 工作流。

Gemini 3.1 Deep Think 如何工作?

理解 Deep Think 模式

Gemini Deep Think 是为通过多步分析、验证与迭代推理来解决复杂问题而设计的高级推理模式。

与立即给出单一响应不同,Deep Think 模型遵循结构化的推理管线:

  1. 问题解读
  2. 假设生成
  3. 候选解构建
  4. 验证与校验
  5. 迭代改进

这种架构使模型的行为更像一个研究助理或问题求解 Agent,能够分析困难的科学、数学与工程挑战。

Google DeepMind 的最新研究展示了 Deep Think 如何驱动 Aletheia 这一研究 Agent,在返回最终答案之前先生成解答并进行验证。

Deep Think 推理工作流

Problem   │   ▼Generator → Candidate Solution   │   ▼Verifier ├── Correct → Final Answer ├── Minor Error → Reviser → Candidate └── Critical Error → Generator

与单次生成相比,这一推理循环有助于提升可靠性。

Gemini 3.1 Deep Think 的关键特性

1. 多步推理

Deep Think 擅长需要结构化推理的问题:

  • 数学证明
  • 科学假设检验
  • 算法设计
  • 复杂调试

不同于标准 LLM 输出,该模型会在给出答案前对每一步进行系统化分析。

2. 高级科研支持

Deep Think 专为辅助解决物理、数学与计算机科学领域的研究级问题而设计。

示例包括:

  • 数学定理探索
  • 数据分析流程
  • 仿真逻辑生成

3. 长上下文理解

Gemini 3.1 模型在特定配置下支持极大的上下文窗口(高达 1 million tokens),可处理完整研究论文、大型代码库或长数据集。

这显著提升了在以下任务中的表现:

  • 整体代码库分析
  • 企业文档推理
  • 大规模知识综合

4. 可调节的思考强度

Gemini 3.1 引入了三档推理强度,允许用户控制模型为解决问题投入的计算力度。

常见层级包括:

  • 快速推理(基础响应)
  • 中等推理(结构化分析)
  • Deep Think(最大推理深度)

5. 多模态智能

Gemini 3.1 支持多种数据类型:

  • 文本
  • 图像
  • 音频
  • 视频
  • 代码

这使得 Deep Think 能分析诸如软件代码库 + 文档 + 图表相结合的复杂工作流。

Gemini 3.1 Deep Think 的性能基准

基准概览

Gemini 3.1 Pro 在多项推理基准上取得了业界领先的成绩

关键指标

基准得分
ARC-AGI-277.1%
Expert Science94.3%
LiveCodeBench Pro2887 Elo
Financial Spreadsheet QA82.4%

与 Gemini 3 Pro 相比,该模型在 ARC-AGI-2 上的得分提升超过一倍

ARC-AGI-2 推理基准

ARC-AGI-2 测试类似于人类问题求解的抽象推理能力。

Gemini 3.1 结果:

  • Gemini 3.1 Pro → 77.1%
  • Claude Opus 4.6 → 68.8%
  • GPT-5.2 Codex → 52.9%

这些分数展示了 Gemini 在抽象推理方面的显著优势。

科研基准

在科学推理基准上,Gemini 3.1 Pro 在 Expert Science 上取得了 94.3% 的成绩,表明其在研究生级别的 STEM 任务中表现强劲。

此外,Deep Think 系统在国际科学奥赛级别问题上取得了金牌水平的表现。

编程表现

Gemini 3.1 Pro 展示了强大的编码能力:

  • LiveCodeBench Elo:2887
  • 在算法任务上优于众多竞品模型

这使其适用于高级软件开发工作流。

Gemini 3.1 与 Deep Think:如何理解差异

许多用户容易将 Gemini 3.1 ProDeep Think 混淆。

特性Gemini 3.1 ProGemini Deep Think
模型类型基础模型推理模式
速度快速较慢但更深入
目的通用任务复杂推理
典型用途聊天、写作、编码研究、工程

Deep Think 本质上是叠加于 Gemini 模型之上的高算力推理层,而非完全独立的模型。

如何获取 Gemini 3.1 Deep Think

由于运行推理引擎需要高昂的计算成本,当前对 Gemini Deep Think 的访问仍较为有限。根据你是个人用户、开发者/研究者,还是企业用户,有三条主要路径可供选择:

1) 消费者/重度用户(Gemini app 与 Google AI Ultra)

  • Gemini app:作为面向消费者的推出,Deep Think 模式已向 Google AI Ultra 订阅用户开放。若你是付费个人订阅者,请在应用的模型设置与“思考层级”控制中启用 Deep Think 模式。

2) 研究人员与开发者(Gemini API / Google AI Studio)

  • 表达兴趣/申请早期访问:Google 在 Deep Think 公告中邀请研究人员与企业表达 API 访问兴趣;开发者也可使用 Google AI Studio 中的 Gemini API 及相关开发工具(Gemini CLI、Antigravity),其中发布了 gemini-3.1-pro-preview 端点。若你所在机构为研究院或研发组织,请遵循 Google 的早期访问流程与 AI Studio 入驻步骤。
  • 使用文档中的预览模型 id:开发者文档列出了 gemini-3.1-pro-preview-customtools 变体以供自定义工具集成。你可以在 CometAPI 平台访问 Gemini 3.1 Pro API。对于希望通过单一 API 网关连接多模型并获得更低定价的团队,CometAPI 常是简化集成的务实选择。

1. 订阅 Google AI Ultra

获取 Deep Think 的最直接方式是订阅 Google AI Ultra,即 Gemini 服务的最高层级。

主要权益包括:

  • 访问 Deep Think 模式
  • 更高的 AI 使用配额
  • 实验性功能
  • 新模型的优先体验

该层级还包含诸如视频生成与扩展存储集成等高级能力。

主要面向:

  • 研究人员
  • 企业开发者
  • 专业 AI 用户

2. 使用 Gemini App

Gemini app 通过 Google 的消费者 AI 平台提供对高级模型的访问。

使用步骤:

  1. 创建或登录 Google 账号
  2. 升级至符合条件的 Gemini 订阅
  3. 启用高级推理功能
  4. 选择 Deep Think 或高级推理模式

Gemini 助手也在向 Chrome 与移动设备 扩展,可对网页进行摘要、管理任务并与 Google 服务集成。

3. 通过 Gemini API 访问(开发者)

开发者可通过 Gemini API 访问高级 Gemini 模型。

典型步骤:

  1. 在 Google AI Studio 中创建项目
  2. 启用 Gemini API
  3. 申请 Deep Think 的早期访问
  4. 使用 API 将 AI 推理集成到应用中

该方式非常适合:

  • AI 初创公司
  • SaaS 平台
  • 研究实验室

如何通过 CometAPI 访问 Gemini 3.1 Pro(分步)

CometAPI 是统一的 API 市场,通过 OpenAI 兼容网关或 Gemini 格式提供 Gemini 3.1 Pro 及相关变体。对于希望快速试验、无需管理原生 Google 凭据,或希望构建多模型工作流(用一个 API 密钥在多家提供商间切换)的团队,这是常见的最快路径。

为什么使用 CometAPI?

  • 一个 API 密钥访问多模型 — CometAPI 提供 OpenAI 风格的兼容层,你可以用熟悉的 SDK 调用 Gemini 模型。
  • Playground 与模型目录 — 在网页 Playground 中快速测试以确认行为与成本。
  • 成本画像 — CometAPI 声称相较官方牌价提供折扣(例如文档中的公开定价在上线时显示每百万 token 的成本更低)。将市场价视为促销,需在你的账户中复核。

快速 CometAPI 入门(具体)

  1. 注册 cometapi.com 并创建账户。打开 Comet 控制台生成 API 令牌(妥善保存)。
  2. 在 Comet 的目录中确认模型 id(如 gemini-3.1-pro)。
  3. 使用 OpenAI 兼容的基址 URL https://api.cometapi.com/v1(Comet 文档展示了 OpenAI 风格的 chat/completions 端点)。将 YOUR_API_KEY 替换为你的令牌。

示例:Curl 与 Python(可直接复制粘贴)

Curl(CometAPI OpenAI 兼容):

curl https://api.cometapi.com/v1/chat/completions \  -H "Authorization: Bearer YOUR_API_KEY" \  -H "Content-Type: application/json" \  -d '{    "model": "gemini-3.1-pro-preview",    "messages": [      {"role":"system","content":"You are a concise programming assistant."},      {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."}    ],    "max_tokens": 800  }'

Python(Gemini SDK 模式):

from google import genai
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

(这些示例遵循 CometAPI 文档,可直接复制粘贴。)

定价快照(示例,需在你的账户中核实)

CometAPI 的定价(示意)显示相较官方牌价有折扣:例如,Comet 输入 $1.6 / M tokens 对比官方 $2 / MComet 输出 $9.6 / M 对比官方 $12 / M(约 –20% 上线折扣)。

使用 Gemini 3.1 Deep Think 的最佳实践

提示工程与任务框定

  • 系统 + 思维链提示:使用明确的系统消息设定角色、保真度、所需输出与允许的数据来源。对 Deep Think 任务,将提示链成子任务,并要求证据引用或步骤编号,以鼓励可追溯推理。
  • 迭代改进:将大问题拆分成更小且可验证的步骤。要求模型生成中间产物(如符号化数学步骤、代码框架、实验计划),并在继续之前验证每一步。这可降低长任务中的级联错误。

深度推理模型在结构化提示下表现最佳。示例:

Problem:Explain why the algorithm fails.Steps:1. Identify the bug2. Suggest fixes3. Provide optimized code

2. 策略性地调整思考层级

使用:

层级使用场景
聊天机器人
分析
科学研究

高推理模式会提升准确性,但也会增加时延。

3. 高效使用长上下文

由于 Gemini 支持 1M token 上下文,可用于分析大型数据集。

示例:

  • 完整代码库
  • 研究论文
  • 财务模型

4. 结合工具与 Agent

当与工具集成时,Deep Think 表现最佳:

  • 代码执行
  • 搜索 API
  • 向量数据库

示例架构:

User Query
   │
   ▼
Gemini 3.1 Pro
   │
   ├── Search Tool
   ├── Code Interpreter
   └── Database

Gemini 3.1 Deep Think 的局限

尽管功能强大,Deep Think 仍存在局限。

1. 高计算成本

深度推理相较标准 AI 响应需要显著更多的计算资源。

2. 可用性受限

当前仅向以下对象开放:

  • 高级订阅
  • 开发者预览

3. 时延

复杂推理会增加响应时间。由于内部推理过程,推理模型可能需要约 29 秒才开始输出。

结论——如何看待当下的 Gemini 3.1 Deep Think

Gemini 3.1 Pro 及其 Deep Think 模式体现了行业从短文本生成向稳健的多步推理与 Agent 工作流转变的明确趋势。Google 与 DeepMind 发布的基准显示其在推理任务(ARC-AGI-2、编程/竞赛基准以及专项科研测试)上取得了有意义的提升;同时,像 CometAPI 这样的市场为希望快速试验的团队提供了务实、低摩擦的访问路径。需要注意的是,该模型家族较为复杂且因变体而异;在投产前务必进行严格的沙盒测试、token 预算管理、验证与治理。

开发者可通过 CometAPI 访问 Gemini 3.1 pro。开始之前,请在 Playground 中探索模型能力,并查阅 API 指南获取详细说明。访问前,请确保你已登录 CometAPI 并获取 API 密钥。CometAPI 提供远低于官方的价格,助你完成集成——准备好了吗?

以低成本 获取顶级模型

阅读更多