模型支持企业博客
500+ AI 模型 API,一次搞定,就在 CometAPI
模型 API
开发者
快速入门文档API 仪表板
资源
AI 模型博客企业更新日志关于
2025 CometAPI。保留所有权利。隐私政策服务条款
Home/Models/OpenAI/O3 Pro
O

O3 Pro

输入:$16/M
输出:$64/M
上下文:200K
最大输出:100K
OpenAI o3‑pro is a “pro” variant of the o3 reasoning model engineered to think longer and deliver the most dependable responses by employing private chain‑of‑thought reinforcement learning and setting new state‑of‑the‑art benchmarks across domains like science, programming, and business—while autonomously integrating tools such as web search, file analysis, Python execution, and visual reasoning within API.
新
商用
概览
功能亮点
定价
API
版本

基本信息与功能

  • 模型类别:o3-Pro 属于 OpenAI 的“推理模型”,旨在逐步思考而非立即生成回应。
  • 可用性:截至 2025 年 6 月 10 日,可通过 ChatGPT Pro/Team 界面和 OpenAI 开发者 API 访问。
  • 访问层级:取代先前的 o1-Pro 版本;Enterprise 和 Edu 用户将在上线后一周内接入。

技术细节

  • 架构:基于 o3 主干架构构建,并增强了私有思维链,在推理时实现多步推理。
  • 分词:支持与前代相同的 token 架构——100 万输入 token ≈ 750,000 个词。
  • 扩展能力:包括网页搜索、Python 代码执行、文件分析和视觉推理;本版本仍不支持图像生成。

基准测试表现

  • 数学与科学:在 AIME 2024 竞赛中超越了 Google Gemini 2.5 Pro,展示了在高等数学问题求解方面的优异表现。
  • 博士级科学:在 GPQA Diamond 基准上优于 Anthropic 的 Claude 4 Opus,表明其在科学领域具备扎实能力。
  • 企业使用:内部测试显示,在编码、STEM 与商业推理任务上持续优于前代模型。

技术指标

  • 延迟:响应时间高于 o1-Pro——反映了更深的推理链——平均为先前延迟的1.5×。
  • 吞吐量:在突发模式下,持续的 token 生成吞吐量可达10 tokens/sec。

凭借增强的推理链、扩展的功能集与领先的基准表现,o3-Pro 在可靠、高精度的 AI 方面迈出了重要一步。

如何访问 o3-pro API

步骤 1:注册获取 API 密钥

登录 cometapi.com。如果您尚未成为我们的用户,请先注册。登录您的 CometAPI console。获取接口的访问凭证 API 密钥。在个人中心的 API token 处点击“Add Token”,获取令牌密钥:sk-xxxxx 并提交。

步骤 2:向 o3-pro API 发送请求

选择“\**o3-pro\**”端点发送 API 请求并设置请求体。请求方法和请求体可从我们网站的 API 文档获取。我们的网站也提供 Apifox 测试以便您使用。将 <YOUR_API_KEY> 替换为您账户中的实际 CometAPI key。

将您的问题或请求插入 content 字段——模型将对其作出响应。处理 API 响应以获取生成的答案。

步骤 3:获取并验证结果

处理 API 响应以获取生成的答案。处理完成后,API 会返回任务状态和输出数据。

O3 Pro 的功能

了解 O3 Pro 的核心能力,帮助提升性能与可用性,并改善整体体验。

O3 Pro 的定价

查看 O3 Pro 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
输入:$16/M
输出:$64/M
输入:$20/M
输出:$80/M
-20%

O3 Pro 的示例代码与 API

o3-Pro API 是一个 RESTful ChatCompletion 端点,使开发者能够通过可配置参数(model="o3-pro"、messages、temperature、max_tokens、streaming 等)调用 OpenAI 的高级思维链推理、代码执行和数据分析能力,从而无缝集成到复杂工作流中。

O3 Pro 的版本

O3 Pro 可能存在多个快照,原因包括:更新后保持一致性需要保留旧版、给开发者留出迁移窗口,以及全球/区域端点提供的优化差异。具体差异请参考官方文档。
version
o3-pro
o3-pro-2025-06-10

更多模型

O

o4-mini-deep-research

O

o4-mini-deep-research

输入:$1.6/M
输出:$6.4/M
O4-Mini-Deep-Research is OpenAI’s latest agentic reasoning model, combining the lightweight o4-mini backbone with the advanced Deep Research framework. Designed to deliver fast, cost-efficient deep information synthesis, it enables developers and researchers to perform automated web searches, data analysis, and chain-of-thought reasoning within a single API call.
L

Llama-4-Scout

L

Llama-4-Scout

输入:$0.216/M
输出:$1.152/M
Llama-4-Scout is a general-purpose language model for assistant-style interaction and automation. It handles instruction following, reasoning, summarization, and transformation tasks, and can support light code-related assistance. Typical uses include chat orchestration, knowledge-augmented QA, and structured content generation. Technical highlights include compatibility with tool/function calling patterns, retrieval-augmented prompting, and schema-constrained outputs for integration into product workflows.
L

Llama-4-Maverick

L

Llama-4-Maverick

输入:$0.48/M
输出:$1.44/M
Llama-4-Maverick is a general-purpose language model for text understanding and generation. It supports conversational QA, summarization, structured drafting, and basic coding assistance, with options for structured outputs. Common applications include product assistants, knowledge retrieval front-ends, and workflow automation that require consistent formatting. Technical details such as parameter count, context window, modality, and tool or function calling vary by distribution; integrate according to the deployment’s documented capabilities.
M

Kimi-K2

M

Kimi-K2

输入:$0.48/M
输出:$1.92/M
- **kimi-k2-250905**: Moonshot AI's Kimi K2 series 0905 version, supporting ultra-long context (up to 256k tokens, frontend and Tool calls). - 🧠 Enhanced Tool Calling: 100% accuracy, seamless integration, suitable for complex tasks and integration optimization. - ⚡️ More Efficient Performance: TPS up to 60-100 (standard API), up to 600-100 in Turbo mode, providing faster response and improved Inference capabilities, knowledge cutoff up to mid-2025.
X

Grok 3 Reasoner

X

Grok 3 Reasoner

输入:$2.4/M
输出:$12/M
Grok-3 推理模型,具备链式思维,埃隆·马斯克的 R1 竞品。该模型支持的最大上下文长度为 100,000 个 token。
X

Grok 3 Mini

X

Grok 3 Mini

输入:$0.24/M
输出:$0.4/M
一种轻量级模型,先思考后回答。快速、智能,非常适合不需要深厚领域知识的逻辑类任务。原始思维轨迹可访问。该模型支持最多 100,000 个 token 的上下文长度。

相关博客

全新 Veo3.1:更高的一致性、更多样的输出与更丰富
Jan 14, 2026
veo-3-1

全新 Veo3.1:更高的一致性、更多样的输出与更丰富

Google 的 Veo 3.1 于 1 月更新,带来了多项有针对性的改进,使图像转视频工作流程更接近制作级质量。此次发布强调图像转视频保真度、更佳的时间一致性和角色一致性、面向移动平台的原生竖屏输出,以及通过改进的 1080p 画质和 4K 升级路径实现的更高分辨率输出。对于一直在为社交平台竖屏格式采用“先裁剪再编辑”工作流程的创作者和开发者来说,Veo 3.1 的原生 9:16 输出和改进的升级能力有望减少流程阻力,并交付更精致、更适合平台直接使用的视频片段。