模型支援企業部落格
500+ AI 模型 API,全部整合在一個 API 中。就在 CometAPI
模型 API
開發者
快速入門說明文件API 儀表板
資源
AI模型部落格企業更新日誌關於
2025 CometAPI. 保留所有權利。隱私政策服務條款
Home/Models/OpenAI/O3 Pro
O

O3 Pro

輸入:$16/M
輸出:$64/M
上下文:200K
最大輸出:100K
OpenAI o3‑pro 是 o3 推理模型的「pro」變體,經過工程化設計,以進行更長程的思考並輸出最可靠的回應,藉由採用私有思維鏈強化學習,並在科學、程式設計與商業等領域樹立全新的最先進基準——同時可在 API 中自主整合如網路搜尋、檔案分析、Python 執行與視覺推理等工具。
新
商業用途
概覽
功能
定價
API
版本

基本資訊與功能特性

  • 模型類別:o3-Pro 是 OpenAI「推理模型」的一部分,旨在逐步思考,而不是立即生成回應。
  • 可用性:截至 2025 年 6 月 10 日,可透過 ChatGPT Pro/Team 介面與 OpenAI 開發者 API 存取。
  • 存取層級:取代先前的 o1-Pro 版本;Enterprise 與 Edu 使用者將在發佈後的一週內完成上線。

技術細節

  • 架構:基於 o3 骨幹打造,並增強了私有思維鏈,可在推理時進行多步驟推理。
  • 分詞機制:支援與前代相同的 token 架構——100 萬輸入 token ≈ 75 萬字。
  • 擴展能力:包含網頁搜尋、Python 程式碼執行、檔案分析與視覺推理;本次發佈仍不支援圖像生成。

基準測試表現

  • 數學與科學:在 AIME 2024 競賽中超越 Google Gemini 2.5 Pro,展現出在高等數學中的卓越解題能力。
  • 博士級科學:在 GPQA Diamond 基準測試中優於 Anthropic 的 Claude 4 Opus,顯示其在科學領域具備強大專業能力。
  • 企業用途:內部測試顯示,與前代模型相比,其在程式設計、STEM 與商業推理任務中持續勝出。

技術指標

  • 延遲:回應時間高於 o1-Pro——反映出更深層的推理鏈——平均約為前代延遲的 1.5×。
  • 吞吐量:在突發模式下,可持續維持最高 10 tokens/sec 的 token 生成吞吐量。

憑藉其增強的推理鏈、擴展的功能集,以及領先的基準測試表現,o3-Pro 代表了可靠、高精度 AI 的重要進步。

如何存取 o3-pro API

步驟 1:註冊 API Key

登入 cometapi.com。如果您尚未成為我們的使用者,請先註冊。登入您的 CometAPI 控制台。取得該介面的存取憑證 API key。在個人中心的 API token 處點擊「Add Token」,取得 token key:sk-xxxxx 並提交。

步驟 2:向 o3-pro API 發送請求

選擇「\**o3-pro\**」端點來發送 API 請求,並設定請求主體。請求方法與請求主體可從我們網站的 API 文件中取得。我們的網站也提供 Apifox 測試,方便您使用。將 <YOUR_API_KEY> 替換為您帳戶中的實際 CometAPI key。

將您的問題或請求插入 content 欄位中——這就是模型將回應的內容。處理 API 回應以取得生成的答案。

步驟 3:擷取並驗證結果

處理 API 回應以取得生成的答案。處理完成後,API 會回傳任務狀態與輸出資料。

O3 Pro 的功能

探索 O3 Pro 的核心功能,專為提升效能和可用性而設計。了解這些功能如何為您的專案帶來效益並改善使用者體驗。

O3 Pro 的定價

探索 O3 Pro 的競爭性定價,專為滿足各種預算和使用需求而設計。我們靈活的方案確保您只需為實際使用量付費,讓您能夠隨著需求增長輕鬆擴展。了解 O3 Pro 如何在保持成本可控的同時提升您的專案效果。
彗星價格 (USD / M Tokens)官方價格 (USD / M Tokens)折扣
輸入:$16/M
輸出:$64/M
輸入:$20/M
輸出:$80/M
-20%

O3 Pro 的範例程式碼和 API

o3-Pro API 是一個 RESTful 的 ChatCompletion 端點,使開發者能透過可設定參數(model="o3-pro", messages, temperature, max_tokens, streaming 等)調用 OpenAI 的先進鏈式思維推理、程式碼執行與資料分析能力,從而無縫整合到複雜的工作流程中。

O3 Pro的版本

O3 Pro擁有多個快照的原因可能包括:更新後輸出結果存在差異需保留舊版快照以確保一致性、為開發者提供適應與遷移的過渡期,以及不同快照對應全球或區域端點以優化使用者體驗等潛在因素。各版本間的具體差異請參閱官方文件說明。
version
o3-pro-2025-06-10
o3-pro

更多模型

O

o4-mini-deep-research

O

o4-mini-deep-research

輸入:$1.6/M
輸出:$6.4/M
O4-Mini-Deep-Research 是 OpenAI 的最新代理式推理模型,結合輕量級的 o4-mini 骨幹模型與先進的 Deep Research 框架。旨在提供快速且具成本效益的深度資訊整合,使開發者與研究人員能在單一 API 呼叫中執行自動化網路搜尋、資料分析與思維鏈推理。
L

Llama-4-Scout

L

Llama-4-Scout

輸入:$0.216/M
輸出:$1.152/M
Llama-4-Scout 是一款用於助理式互動與自動化的通用型語言模型。它能處理遵循指令、推理、摘要與轉換等任務,並可支援輕量的程式碼相關協助。典型用例包括對話編排、知識增強的 QA,以及結構化內容生成。技術亮點包括與工具/函式呼叫模式的相容性、檢索增強的提示,以及受模式約束的輸出,便於整合至產品工作流程。
L

Llama-4-Maverick

L

Llama-4-Maverick

輸入:$0.48/M
輸出:$1.44/M
Llama-4-Maverick 是一款用於文字理解與生成的通用型語言模型。它支援對話式問答、摘要、結構化撰寫與基礎程式碼協助,並提供結構化輸出選項。常見應用包括產品助理、知識檢索前端,以及需要一致格式的工作流程自動化。參數量、上下文視窗、模態以及工具或函式呼叫等技術細節會因發行版本而異;請依部署的文件所載能力進行整合。
M

Kimi-K2

M

Kimi-K2

輸入:$0.48/M
輸出:$1.92/M
- **kimi-k2-250905**: Moonshot AI 的 Kimi K2 系列 0905 版本,支援超長上下文 (最多 256k tokens, 前端與工具呼叫)。 - 🧠 增強的工具呼叫:100% 準確率,無縫整合,適用於複雜任務與整合優化。 - ⚡️ 更高效的效能:TPS 可達 60-100 (標準 API),在 Turbo 模式下可達 600-100,提供更快的回應與更強的推理能力,知識截止時間可至 2025 年年中。
X

Grok 3 Reasoner

X

Grok 3 Reasoner

輸入:$2.4/M
輸出:$12/M
Grok-3 推理模型,具備思維鏈,是 Elon Musk 的 R1 競爭對手。此模型支援的最大上下文長度為 100,000 個標記。
X

Grok 3 Mini

X

Grok 3 Mini

輸入:$0.24/M
輸出:$0.4/M
在回應前先思考的輕量模型。快速、聰明,特別適合不需深厚領域知識的邏輯型任務。可存取原始思考歷程。此模型支援最長 100,000 個 token 的上下文長度。

相關部落格

全新 Veo3.1:一致性更高、輸出更多樣、更加豐富
Jan 14, 2026
veo-3-1

全新 Veo3.1:一致性更高、輸出更多樣、更加豐富

Google 的 Veo 3.1 於一月更新,帶來針對性的改進,使圖像轉影片的工作流程更接近製作級品質。此版本著重於提升圖像轉影片的保真度、改進時序與角色一致性、提供行動平台原生縱向輸出,並透過改良的 1080p 品質與 4K 超解析度放大路徑,提供更高畫質輸出。對於一直以「先裁切再編輯」工作流程來應對社群縱向格式的創作者與開發者,Veo 3.1 的原生 9:16 輸出與強化的超解析度放大,有望降低摩擦,帶來更精緻、可直接上架的平台就緒短片。