模型支援企業部落格
500+ AI 模型 API,全部整合在一個 API 中。就在 CometAPI
模型 API
開發者
快速入門說明文件API 儀表板
資源
AI模型部落格企業更新日誌關於
2025 CometAPI. 保留所有權利。隱私政策服務條款
Home/Models/OpenAI/GPT-5.2 Pro
O

GPT-5.2 Pro

輸入:$16.8/M
輸出:$134.4/M
上下文:400,000
最大輸出:128,000
gpt-5.2-pro 是 OpenAI 的 GPT-5.2 系列中能力最強、面向生產環境的成員,透過 Responses API 對外提供,用於需要最高保真度、多步推理、廣泛的工具使用,以及 OpenAI 所提供的最大上下文/吞吐量配額的工作負載。
新
商業用途
Playground
概覽
功能
定價
API

什麼是 GPT-5.2-Pro

GPT-5.2-Pro 是 OpenAI 的 GPT-5.2 家族中的「Pro」層級,面向最棘手的問題 — 多步推理、複雜程式碼、大型文件綜整,以及專業知識型工作。它通過 Responses API 提供,以支援多輪互動與進階 API 功能(工具、推理模式、壓縮等)。Pro 變體以吞吐量與成本換取最大化的答案品質,以及在困難領域更強的安全性/一致性。

主要特性(gpt-5.2-pro 為應用帶來的能力)

  • 最高保真度的推理: Pro 支援 OpenAI 的最高級推理設定(包含 xhigh),以延遲與計算換取更深入的內部推理迭代與更佳的鏈式思維風格解法優化。
  • 大上下文、長文檔能力: 經過設計可在超長上下文中維持準確性(OpenAI 對家族變體的測試覆蓋至 256k+ tokens),使該層級適用於法律/技術文件審閱、企業知識庫與長時運行的代理狀態。
  • 更強的工具與代理執行: 設計為可可靠呼叫工具集(允許的工具清單、稽核掛鉤與更豐富的工具整合),並可作為「mega-agent」協調多個子工具與多步工作流程。
  • 更佳的事實性與安全緩解: OpenAI 報告顯示,與先前模型相比,GPT-5.2 在內部安全指標上對幻覺與不當回應有顯著降低,並由系統卡更新與針對性的安全訓練支撐。

技術能力與規格(面向開發者)

  • API 端點與可用性: 建議使用 Responses API 來整合 Pro 級工作流程;開發者可將 reasoning.effort 設為 none|medium|high|xhigh,以調整用於推理的內部計算量。Pro 開放最高的 xhigh 保真度。
  • 推理投入等級: none | medium | high | xhigh(Pro 與 Thinking 支援 xhigh 以優先品質的執行)。此參數可在成本/延遲與品質之間取捨。
  • 壓縮與上下文管理: 新的壓縮功能可讓 API 管理模型「記住」的內容,並在保留相關上下文的同時降低 token 使用量 — 對長對話與文件工作流程特別有用。
  • 工具與自定義工具: 模型可呼叫自定義工具(在約束模型輸出的同時,將原始文字發送給工具);5.2 中更強的工具呼叫與代理模式降低了對繁複系統提示的需求。

基準表現

以下為 GPT-5.2 Pro 最相關且可重現的重點數據(OpenAI 驗證/內部結果):

  • GDPval(專業工作基準): GPT-5.2 Pro — 74.1%(勝/平)於 GDPval 組合上 — 相較 GPT-5.1 有明顯提升。該指標旨在估計多種職業中實際經濟任務的價值。
  • ARC-AGI-1(通用推理): GPT-5.2 Pro — 90.5%(Verified);據報 Pro 是首個在此基準上突破 90% 的模型。
  • 程式設計與軟體工程(SWE-Bench): 多步程式碼推理有顯著提升;例如,SWE-Bench Pro public 與 SWE-Lancer(IC Diamond)相較 GPT-5.1 均有實質改善 — 家族具代表性的數據:SWE-Bench Pro public ~55.6%(Thinking;Pro 結果在內部執行中據報更高)。
  • 長上下文事實性(MRCRv2): GPT-5.2 家族在 4k–256k 範圍內展現高檢索與尋針得分(例如:MRCRv2 在 16k–32k 的 8 needles:GPT-5.2 Thinking 為 95.3%;Pro 在更大視窗下亦維持高準確度)。這些表現展現了家族對長上下文任務的韌性,也是 Pro 的賣點。

gpt-5.2-pro 與同儕及其他 GPT-5.2 層級的比較

  • vs GPT-5.2 Thinking / Instant:: gpt-5.2-pro 相較延遲/成本,更優先保真度與最大化推理(xhigh)。gpt-5.2(Thinking)位於適合深入工作的中間檔位,gpt-5.2-chat-latest(Instant)則針對低延遲對話調校。對於最高價值、計算密集的任務,選擇 Pro。
  • 與 Google Gemini 3 及其他前沿模型相比: GPT-5.2(家族)是 OpenAI 對 Gemini 3 的競爭回應。排行榜顯示勝負取決於任務 — 在部分研究生級科學與專業基準上,GPT-5.2 Pro 與 Gemini 3 接近;在狹義編碼或專門領域,結果可能有所不同。
  • 相較 GPT-5.1 / GPT-5: 與 GPT-5.1 相比,Pro 在 GDPval、ARC-AGI、編碼基準與長上下文指標上有實質提升,並新增 API 控制項(xhigh 推理、壓縮)。過渡期間 OpenAI 會保留較早的變體可用。

實際用例與建議模式

適合選用 Pro 的高價值用例

  • 複雜財務建模、大型試算表彙整與分析,重視準確度與多步推理(OpenAI 報告投行試算表任務分數有所提升)。
  • 長篇法律或科學綜整,400k token 上下文可保留完整報告、附錄與引文鏈。
  • 企業代碼庫中的高品質程式碼生成與跨多檔案重構(Pro 的更高 xhigh 推理有助於多步程式轉換)。
  • 策略規劃、多階段專案編排,以及使用自定義工具且需要穩健工具呼叫的代理式工作流程。

何時改選 Thinking 或 Instant

  • 將 Instant 用於快速、低成本的對話任務與編輯器整合。
  • 將 Thinking 用於更深入但對延遲敏感、成本受限且仍重視品質的工作。

如何存取並使用 GPT-5.2 pro API

第 1 步:註冊取得 API Key

登入 cometapi.com。若您尚非我們的用戶,請先註冊。登入您的CometAPI 控制台。取得介面的存取憑證 API key。在個人中心的 API token 處點擊「Add Token」,取得 token 金鑰:sk-xxxxx 並提交。

第 2 步:向 GPT-5.2 pro API 發送請求

選擇「gpt-5.2-pro」端點發送 API 請求並設定 request body。請求方法與 request body 可從我們網站的 API 文檔取得。我們的網站亦提供 Apifox 測試以便您使用。將 <YOUR_API_KEY> 替換為您帳戶中實際的 CometAPI key。呼叫位置: Responses-style APIs。

將您的問題或請求填入 content 欄位 — 這是模型將回應的內容。處理 API 回應以獲取生成的答案。

第 3 步:擷取並驗證結果

處理 API 回應以取得生成的答案。處理完成後,API 會回傳任務狀態與輸出數據。

另請參閱 Gemini 3 Pro Preview API

常見問題

Why does GPT-5.2 Pro only work with the Responses API?

GPT-5.2 Pro 僅能透過 Responses API 使用,以便在回應 API 請求之前進行多輪次模型互動,並支援需要持久狀態管理的進階工作流程,例如工具鏈式串接與延伸的推理會話。

What reasoning effort levels does GPT-5.2 Pro support?

GPT-5.2 Pro 支援三種推理強度等級:medium、high、xhigh—使開發者在面對複雜問題求解任務時,能在回應品質與延遲之間取得平衡。

How does GPT-5.2 Pro handle long-running requests?

由於模型的深度推理過程,一些 GPT-5.2 Pro 請求可能需要數分鐘才能完成。OpenAI 建議使用 background mode,以避免在特別具挑戰性的任務上發生逾時。

What tools can GPT-5.2 Pro access through the Responses API?

GPT-5.2 Pro 支援 web search、file search、image generation 與 MCP (Model Context Protocol),但值得注意的是不支援 code interpreter 或 computer use 工具。

When should I choose GPT-5.2 Pro over standard GPT-5.2?

當你的工作負載需要最高保真度、多步推理或廣泛的工具編排時,請選擇 GPT-5.2 Pro—它專為需要 OpenAI 所能提供的最大上下文與吞吐量預算的生產環境而設計。

GPT-5.2 Pro 的功能

探索 GPT-5.2 Pro 的核心功能,專為提升效能和可用性而設計。了解這些功能如何為您的專案帶來效益並改善使用者體驗。

GPT-5.2 Pro 的定價

探索 GPT-5.2 Pro 的競爭性定價,專為滿足各種預算和使用需求而設計。我們靈活的方案確保您只需為實際使用量付費,讓您能夠隨著需求增長輕鬆擴展。了解 GPT-5.2 Pro 如何在保持成本可控的同時提升您的專案效果。
彗星價格 (USD / M Tokens)官方價格 (USD / M Tokens)折扣
輸入:$16.8/M
輸出:$134.4/M
輸入:$21/M
輸出:$168/M
-20%

GPT-5.2 Pro 的範例程式碼和 API

GPT-5.2-Pro 是 OpenAI 的 GPT-5.2 系列中品質最高的變體,專為最艱難、最高價值的知識與技術任務而設計。
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

async function main() {
  const response = await client.responses.create({
    model: "gpt-5.2-pro",
    input: "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning: {
    effort: "high"
  }
  });

  console.log(response.output_text);
}

main();

Curl Code Example

curl https://api.cometapi.com/v1/responses \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "gpt-5.2-pro",
    "input": "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    "reasoning": {
        "effort": "high"
    }
}'

更多模型

A

Claude Opus 4.6

輸入:$4/M
輸出:$20/M
Claude Opus 4.6 是 Anthropic 的「Opus」級大型語言模型,於 2026 年 2 月發布。它被定位為知識工作與研究工作流程的主力,著重提升長上下文推理、多步規劃、工具使用(包括代理型軟體工作流程),以及電腦操作任務,例如自動化製作投影片與試算表。
A

Claude Sonnet 4.6

輸入:$2.4/M
輸出:$12/M
Claude Sonnet 4.6 是我們迄今為止最強大的 Sonnet 模型。它對模型在程式設計、電腦操作、長上下文推理、代理規劃、知識工作與設計等方面的能力進行了全面升級。Sonnet 4.6 亦提供 1M 詞元的上下文視窗,目前處於 Beta 階段。
O

GPT-5.4 nano

輸入:$0.16/M
輸出:$1/M
GPT-5.4 nano 專為速度與成本最為關鍵的任務而設計,例如分類、資料擷取、排序與子智能體。
O

GPT-5.4 mini

輸入:$0.6/M
輸出:$3.6/M
GPT-5.4 mini 將 GPT-5.4 的優勢帶入一個更快速、更高效、專為大量工作負載設計的模型。
A

Claude Mythos Preview

A

Claude Mythos Preview

即將推出
輸入:$60/M
輸出:$240/M
Claude Mythos Preview 是我們迄今最強大的前沿模型,與我們先前的前沿模型 Claude Opus 4.6 相比,在多項評測基準上的分數呈現出 顯著躍升。
X

mimo-v2-pro

輸入:$0.8/M
輸出:$2.4/M
MiMo-V2-Pro 是 Xiaomi 的旗艦級基礎模型,具備超過 1T 的總參數與 1M 的上下文長度,並針對 Agent 化場景進行了深度優化。它可高度適配 OpenClaw 等通用 Agent 框架。在標準的 PinchBench 與 ClawBench 基準測試中名列全球頂尖,其感知表現接近 Opus 4.6。MiMo-V2-Pro 旨在作為 Agent 系統的大腦,編排複雜工作流程、推動生產級工程任務,並可靠地交付結果。

相關部落格

ChatGPT 可以製作 PowerPoint 簡報嗎?
Mar 26, 2026
chat-gpt

ChatGPT 可以製作 PowerPoint 簡報嗎?

過去兩年,AI 工具已從「幫我撰寫投影片文字」進展到「組裝並匯出完整的 .pptx」,OpenAI 和 Microsoft 也加入了讓一鍵或近乎一鍵建立 PowerPoint 簡報成為可能的功能。問題不再是「AI 能幫我工作嗎?」而是「AI 能替我完成多少工作?」最受需求的任務之一就是製作簡報——這是商務溝通的通用貨幣。多年來,使用者一直夢想有一個簡單的指令:「Hey ChatGPT,幫我做一份簡報。」到了 2026 年,這個夢想比以往更加接近現實,但其中的細節與差異是每位專業人士都必須理解的。
Cursor vs Claude Code vs Codex:在 2026 年,哪一個更適合 Vibe Coding?
Feb 2, 2026

Cursor vs Claude Code vs Codex:在 2026 年,哪一個更適合 Vibe Coding?

在快速演進的 Vibe Code 開發世界中,開發者正在討論哪些工具能帶來最高生產力、最直覺且最可靠的工作流程。今天的比較將三大領先代理 — Cursor、Claude Code、以及 OpenAI Codex — 正面交鋒,聚焦於新興的「vibe coding」範式、定價、功能、運作、使用與實際表現。
如何在不使用 API 的情況下在本地 LLMs 上運行 openClaw (Moltbot/ Clawdbot )?
Feb 1, 2026
clawdbot
openclaw

如何在不使用 API 的情況下在本地 LLMs 上運行 openClaw (Moltbot/ Clawdbot )?

OpenClaw — 這個開源 AI 助理最初以 Clawdbot(並短暫稱為 Moltbot)為名 — 憑藉其持久記憶、深度本機存取以及廣泛的訊息整合而迅速引起廣泛關注。這樣的受歡迎程度也帶來了關於如何在不依賴雲端 API 的情況下運行該系統的疑問。解決方案在於透過 ollama 或其他,在本機大型語言模型(LLMs)上運行 OpenClaw,完全不需要網際網路連線或訂閱費用。
Openclaw(Moltbot /Clawdbot) : 設定指南+ API 託管教學
Jan 29, 2026
clawdbot

Openclaw(Moltbot /Clawdbot) : 設定指南+ API 託管教學

Moltbot — 先前在網路上被稱為 Clawdbot — 於 2026 年 1 月下旬在各大社群平台的時間線上爆紅,作為一款自助式、具自主能力的個人助理,能實際代你執行各項任務:清理收件匣、執行指令、搜尋本地檔案,並透過你偏好的聊天應用程式(Telegram、WhatsApp、Discord、iMessage 等)回覆。
初學者如何以「Vibe Coding」方式開發一個小型行動應用程式
Jan 28, 2026
vibe-coding

初學者如何以「Vibe Coding」方式開發一個小型行動應用程式

作為初學者,用 Vibe Coding 方式開發一個微型行動 App 的核心在於動力與手感:從一個非常小的點子開始(例如計數器或簡單的待辦清單 App),選擇容易上手的框架或工具(Codex、Cursor 等),先盡快做出能跑起來的東西,不必擔心程式碼是否整潔,然後在手機上測試的同時,憑感覺微調 UI 與互動。當你卡住時,搜尋或詢問 AI,而不是過度思考;一旦它能運作且感覺良好,就停下來並發布。目標是心流與自信,而非完美。