模型定價企業
500+ AI 模型 API,全部整合在一個 API 中。就在 CometAPI
模型 API
開發者
快速入門說明文件API 儀表板
公司
關於我們企業
資源
AI模型部落格更新日誌支援
服務條款隱私政策
© 2026 CometAPI · All rights reserved
Home/Models/OpenAI/GPT-5.4 pro
O

GPT-5.4 pro

輸入:$24/M
輸出:$144/M
上下文:1,050,000
最大輸出:128,000
能生成更智慧、更精準回應的 GPT-5.4 版本
新
商業用途
Playground
概覽
功能
定價
API
版本

GPT-5.4-Pro 的技術規格

項目GPT-5.4-Pro
供應商OpenAI
模型家族GPT-5.4
模型層級Pro(高算力推理變體)
輸入類型文字、圖片
輸出類型文字
上下文視窗1,050,000 tokens
最大輸出 tokens128,000 tokens
知識截止日期2025 年 8 月 31 日
推理層級medium、high、xhigh
工具支援網頁搜尋、檔案搜尋、程式碼直譯器、圖像生成
API 支援Responses API(建議)
發布時間2026 年 3 月

什麼是 GPT-5.4-Pro?

GPT-5.4-Pro 是 GPT-5.4 模型家族中能力最高的 API 變體,專為極其複雜的推理、研究、程式設計與企業自動化任務而設計。

與標準 GPT-5.4 模型相比,GPT-5.4-Pro 在產生回應前會使用顯著更多的內部算力來「更深入思考」,因此在處理困難問題時能提供更準確且更可靠的輸出。

該模型針對金融分析、軟體工程、科學研究及大規模文件推理等專業工作負載進行了最佳化。


GPT-5.4-Pro 的主要特性

  • 極致推理效能: 使用額外算力,在複雜任務上產生更精確的答案。
  • 1.05M token 上下文視窗: 可分析極大規模的文件、資料集或整個程式碼儲存庫。
  • 可配置的推理深度: 開發者可控制推理投入等級(medium、high、xhigh)。
  • 進階工具協同: 可透過 Responses API 搭配網頁搜尋、檔案擷取及其他工具使用。
  • 支援長時間推理: 由於分配了更深度的算力,複雜任務可能需要數分鐘才能完成。
  • 企業級可靠性: 專為需要最高答案準確性的高風險工作流程而設計。

基準效能

OpenAI 表示,GPT-5.4 模型在專業推理基準測試上有顯著提升:

基準測試GPT-5.4GPT-5.2
GDPval(知識工作)83.0%70.9%
OfficeQA68.1%63.1%
Investment Banking Modeling87.3%71.7%

這些提升突顯了 GPT-5.4 在複雜專業知識任務與分析推理工作流程上的更強表現。

GPT-5.4-Pro 則透過分配比標準 GPT-5.4 模型更多的推理算力,進一步提升了可靠性。


GPT-5.4-Pro 與可比較模型

模型上下文視窗主要優勢
GPT-5.4-Pro1.05M tokens最高推理準確性
GPT-5.41.05M tokens速度與能力的平衡
o3-pro較小高效率推理
Gemini 3 Pro~1M tokens強大的多模態能力

重點結論:
當最大化推理準確性比延遲或成本更重要時,請使用 GPT-5.4-Pro。

限制

  • 因更深度的推理算力而導致較高延遲
  • 比標準 GPT-5.4 更昂貴
  • 不支援音訊或影片生成
  • 某些長任務可能需要數分鐘才能完成

如何存取 GPT-5.4 pro API

步驟 1:註冊 API Key

登入 cometapi.com。如果您尚未成為我們的使用者,請先註冊。登入您的 CometAPI console。取得該介面的存取憑證 API key。在個人中心的 API token 中點擊「Add Token」,取得 token key:sk-xxxxx 並提交。

cometapi-key

步驟 2:向 GPT-5.4 pro API 發送請求

選擇「gpt-5.4-pro」端點以發送 API 請求,並設定請求主體。請求方法與請求主體可從我們網站的 API 文件取得。我們的網站也提供 Apifox 測試以方便您使用。請將 <YOUR_API_KEY> 替換為您帳戶中的實際 CometAPI key。base url 為 Responses。

將您的問題或請求插入 content 欄位中——這就是模型將回應的內容。處理 API 回應以取得生成的答案。

步驟 3:擷取並驗證結果

處理 API 回應以取得生成的答案。處理完成後,API 會回傳任務狀態與輸出資料。

常見問題

What makes GPT-5.4 Pro different from the standard GPT-5.4 API model?

GPT-5.4 Pro 會分配顯著更多的內部運算資源用於推理,因此在複雜任務上能比標準 GPT-5.4 模型產生更準確且更可靠的答案。

What is the context window of GPT-5.4 Pro in the OpenAI API?

在 OpenAI API 中,GPT-5.4 Pro 支援約 1,050,000 個 token 的上下文視窗,且每次請求最多可輸出 128,000 個 token。

Why is GPT-5.4 Pro only available through the Responses API?

GPT-5.4 Pro 是為進階多輪推理工作流程與工具協同調度而設計,而 Responses API 相較於較舊的端點能更有效地支援這些需求。

What reasoning effort levels are supported by GPT-5.4 Pro?

GPT-5.4 Pro 支援 medium、high 與 xhigh 的推理強度設定,用以控制模型使用多少內部運算資源。

Can GPT-5.4 Pro analyze images through the API?

可以。GPT-5.4 Pro 接受影像輸入,讓它能搭配文字提示分析螢幕截圖、圖表、統計圖或照片。

When should developers choose GPT-5.4 Pro instead of GPT-5.4?

對於需要最高推理準確性的關鍵任務,例如財務建模、複雜程式設計或研究自動化,開發者應選擇 GPT-5.4 Pro。

How long can GPT-5.4 Pro take to complete complex requests?

由於 GPT-5.4 Pro 會進行更深入的推理,某些複雜請求可能需要數分鐘才能完成,具體時間取決於推理強度等級。

What knowledge cutoff does the GPT-5.4 Pro model use?

GPT-5.4 Pro 的訓練知識截止日期為 2025 年 8 月 31 日。

GPT-5.4 pro 的功能

探索 GPT-5.4 pro 的核心功能,專為提升效能和可用性而設計。了解這些功能如何為您的專案帶來效益並改善使用者體驗。

GPT-5.4 pro 的定價

探索 GPT-5.4 pro 的競爭性定價,專為滿足各種預算和使用需求而設計。我們靈活的方案確保您只需為實際使用量付費,讓您能夠隨著需求增長輕鬆擴展。了解 GPT-5.4 pro 如何在保持成本可控的同時提升您的專案效果。
彗星價格 (USD / M Tokens)官方價格 (USD / M Tokens)折扣
輸入:$24/M
輸出:$144/M
輸入:$30/M
輸出:$180/M
-20%

GPT-5.4 pro 的範例程式碼和 API

存取完整的範例程式碼和 API 資源,以簡化您的 GPT-5.4 pro 整合流程。我們詳盡的文件提供逐步指引,協助您在專案中充分發揮 GPT-5.4 pro 的潛力。
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.4-pro-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.4-pro-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
    apiKey: COMETAPI_KEY,
    baseURL: BASE_URL,
});

async function main() {
    const response = await client.responses.create({
        model: "gpt-5.4-pro-2026-03-05",
        input: "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
        reasoning: {
            effort: "high",
        },
    });

    console.log(response.output_text);
}

main();

Curl Code Example

curl https://api.cometapi.com/v1/responses \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "gpt-5.4-pro-2026-03-05",
    "input": "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    "reasoning": {
        "effort": "high"
    }
}'

GPT-5.4 pro的版本

GPT-5.4 pro擁有多個快照的原因可能包括:更新後輸出結果存在差異需保留舊版快照以確保一致性、為開發者提供適應與遷移的過渡期,以及不同快照對應全球或區域端點以優化使用者體驗等潛在因素。各版本間的具體差異請參閱官方文件說明。
模型 ID描述可用性請求
gpt-5.4-pro-2026-03-05推薦,指向最新模型✅回應
gpt-5.4-pro官方預覽✅回應

更多模型

C

Claude Opus 4.7

輸入:$3/M
輸出:$15/M
用於智能體與程式設計的最智能模型
A

Claude Sonnet 4.6

輸入:$2.4/M
輸出:$12/M
Claude Sonnet 4.6 是我們迄今為止最強大的 Sonnet 模型。它對模型在程式設計、電腦操作、長上下文推理、代理規劃、知識工作與設計等方面的能力進行了全面升級。Sonnet 4.6 亦提供 1M 詞元的上下文視窗,目前處於 Beta 階段。
O

GPT-5.4 nano

輸入:$0.16/M
輸出:$1/M
GPT-5.4 nano 專為速度與成本最為關鍵的任務而設計,例如分類、資料擷取、排序與子智能體。
O

GPT-5.4 mini

輸入:$0.6/M
輸出:$3.6/M
GPT-5.4 mini 將 GPT-5.4 的優勢帶入一個更快速、更高效、專為大量工作負載設計的模型。
X

Grok 4.20

輸入:$1.6/M
輸出:$4.8/M
Grok 4.20 版本引入了多代理架構(多個專門化代理在即時協調下協同運作)、擴充的上下文模式,並在指令遵循、降低幻覺,以及結構化/工具化輸出方面進行了重點改進。
Q

Qwen3.6-Plus

輸入:$0.32/M
輸出:$1.92/M
Qwen 3.6-Plus 現已推出,具備增強的程式開發能力與在多模態辨識與推理方面更高的效率,進一步提升 Vibe Coding 的體驗。

相關部落格

您是想使用 Anthropic 的 Claude 3 Opus(例如模型 ID:claude-3-opus-20240229)嗎?「Claude Opus 4.7」並非標準型號名稱。若有特定版本請告知,下列以 Anthropic Messages API 舉例說明通用用法(把 model 替換成您實際要用的模型 ID,如最新的 Opus/Sonnet/Haiku)。

- 準備
  - 申請並保存 API Key(Anthropic 帳號)
  - 選擇模型 ID(例如:claude-3-opus-20240229)
  - 決定使用純 HTTP 還是官方 SDK(Node/Python)

- HTTP 請求要點
  - Endpoint: https://api.anthropic.com/v1/messages
  - 方法: POST
  - Headers:
    - Authorization: Bearer YOUR_API_KEY
    - Content-Type: application/json
    - anthropic-version: 2023-06-01
  - Request JSON(最小示例):
    {
      "model": "claude-3-opus-20240229",
      "max_tokens": 1024,
      "temperature": 0.7,
      "messages": [
        {"role": "user", "content": "請用三點說明如何開始使用 Claude API"}
      ]
    }

- cURL 範例
  curl https://api.anthropic.com/v1/messages \
    -H "x-api-key: YOUR_API_KEY" \
    -H "anthropic-version: 2023-06-01" \
    -H "content-type: application/json" \
    -d '{
      "model": "claude-3-opus-20240229",
      "max_tokens": 512,
      "messages": [{"role": "user", "content": "Hello, Claude!"}]
    }'

- Node.js(官方 SDK)
  安裝:npm install @anthropic-ai/sdk
  使用:
  const Anthropic = require("@anthropic-ai/sdk");
  const client = new Anthropic({ apiKey: process.env.ANTHROPIC_API_KEY });
  const msg = await client.messages.create({
    model: "claude-3-opus-20240229",
    max_tokens: 1024,
    temperature: 0.7,
    messages: [{ role: "user", content: "給我一個行銷標語" }]
  });
  console.log(msg.content[0].text);

- Python(官方 SDK)
  安裝:pip install anthropic
  使用:
  from anthropic import Anthropic
  client = Anthropic(api_key="YOUR_API_KEY")
  msg = client.messages.create(
    model="claude-3-opus-20240229",
    max_tokens=1024,
    temperature=0.7,
    messages=[{"role": "user", "content": "請列出三個產品優勢"}]
  )
  print(msg.content[0].text)

- 流式輸出(SSE)
  - 在請求中加入 "stream": true(cURL 加 -N),伺服器會以事件流回傳分段內容,適合即時顯示。
  - cURL:
    curl -N https://api.anthropic.com/v1/messages \
      -H "x-api-key: YOUR_API_KEY" \
      -H "anthropic-version: 2023-06-01" \
      -H "content-type: application/json" \
      -d '{
        "model": "claude-3-opus-20240229",
        "max_tokens": 512,
        "stream": true,
        "messages": [{"role": "user", "content": "請即時輸出"}]
      }'

- 常用參數
  - max_tokens:限制回應長度(必填)
  - temperature:取值 0–1,越高越有創意
  - system:系統提示(例如角色/風格設定),用法同 messages 的 content
  - stop_sequences:指定停止序列
  - metadata:自定義標註
  - messages 結構:[{ role: "user"|"assistant"|"system", content: "文字或內容塊" }]

- 多模態與工具(進階)
  - 多模態(文字+圖片):在 content 中加入圖片內容塊(base64 或 URL)
  - 工具調用(function calling):定義 tools 與 tool_choice,讓模型產出結構化參數(需對應當前版本文檔)

- 錯誤與限制
  - 401/403:API Key 或權限問題
  - 429:速率限制,實作退避重試
  - 529/5xx:服務端暫時性錯誤,建議重試
  - 請勿把 API Key 置於前端或公開倉庫;設置請求超時與重試策略

如您確定實際欲用的模型名稱(例如您所稱的「Claude Opus 4.7」對應哪個正式模型 ID),請告訴我,我可以據此給出精確的請求範例與最佳化參數建議。
Apr 18, 2026
claude-opus-4-7

您是想使用 Anthropic 的 Claude 3 Opus(例如模型 ID:claude-3-opus-20240229)嗎?「Claude Opus 4.7」並非標準型號名稱。若有特定版本請告知,下列以 Anthropic Messages API 舉例說明通用用法(把 model 替換成您實際要用的模型 ID,如最新的 Opus/Sonnet/Haiku)。 - 準備 - 申請並保存 API Key(Anthropic 帳號) - 選擇模型 ID(例如:claude-3-opus-20240229) - 決定使用純 HTTP 還是官方 SDK(Node/Python) - HTTP 請求要點 - Endpoint: https://api.anthropic.com/v1/messages - 方法: POST - Headers: - Authorization: Bearer YOUR_API_KEY - Content-Type: application/json - anthropic-version: 2023-06-01 - Request JSON(最小示例): { "model": "claude-3-opus-20240229", "max_tokens": 1024, "temperature": 0.7, "messages": [ {"role": "user", "content": "請用三點說明如何開始使用 Claude API"} ] } - cURL 範例 curl https://api.anthropic.com/v1/messages \ -H "x-api-key: YOUR_API_KEY" \ -H "anthropic-version: 2023-06-01" \ -H "content-type: application/json" \ -d '{ "model": "claude-3-opus-20240229", "max_tokens": 512, "messages": [{"role": "user", "content": "Hello, Claude!"}] }' - Node.js(官方 SDK) 安裝:npm install @anthropic-ai/sdk 使用: const Anthropic = require("@anthropic-ai/sdk"); const client = new Anthropic({ apiKey: process.env.ANTHROPIC_API_KEY }); const msg = await client.messages.create({ model: "claude-3-opus-20240229", max_tokens: 1024, temperature: 0.7, messages: [{ role: "user", content: "給我一個行銷標語" }] }); console.log(msg.content[0].text); - Python(官方 SDK) 安裝:pip install anthropic 使用: from anthropic import Anthropic client = Anthropic(api_key="YOUR_API_KEY") msg = client.messages.create( model="claude-3-opus-20240229", max_tokens=1024, temperature=0.7, messages=[{"role": "user", "content": "請列出三個產品優勢"}] ) print(msg.content[0].text) - 流式輸出(SSE) - 在請求中加入 "stream": true(cURL 加 -N),伺服器會以事件流回傳分段內容,適合即時顯示。 - cURL: curl -N https://api.anthropic.com/v1/messages \ -H "x-api-key: YOUR_API_KEY" \ -H "anthropic-version: 2023-06-01" \ -H "content-type: application/json" \ -d '{ "model": "claude-3-opus-20240229", "max_tokens": 512, "stream": true, "messages": [{"role": "user", "content": "請即時輸出"}] }' - 常用參數 - max_tokens:限制回應長度(必填) - temperature:取值 0–1,越高越有創意 - system:系統提示(例如角色/風格設定),用法同 messages 的 content - stop_sequences:指定停止序列 - metadata:自定義標註 - messages 結構:[{ role: "user"|"assistant"|"system", content: "文字或內容塊" }] - 多模態與工具(進階) - 多模態(文字+圖片):在 content 中加入圖片內容塊(base64 或 URL) - 工具調用(function calling):定義 tools 與 tool_choice,讓模型產出結構化參數(需對應當前版本文檔) - 錯誤與限制 - 401/403:API Key 或權限問題 - 429:速率限制,實作退避重試 - 529/5xx:服務端暫時性錯誤,建議重試 - 請勿把 API Key 置於前端或公開倉庫;設置請求超時與重試策略 如您確定實際欲用的模型名稱(例如您所稱的「Claude Opus 4.7」對應哪個正式模型 ID),請告訴我,我可以據此給出精確的請求範例與最佳化參數建議。

Claude Opus 4.7(模型 ID:`claude-opus-4-7`)是 Anthropic 最強大的公開可用模型,於 2026 年 4 月 16 日發布。它在代理式編碼、高解析度多模態視覺(最高至 3.75MP)、自適應思考與長時間運行的工作流程方面帶來躍進式提升,同時將每百萬輸入/輸出 tokens 的費率維持在 $5/$25。透過 CometAPI 使用,可享有 20-40% 更低的定價、單一金鑰與即時模型切換—無供應商鎖定。
Claude Opus 4.7 是什麼?它可在 CometAPI 中使用。
Apr 16, 2026
claude-opus-4-7

Claude Opus 4.7 是什麼?它可在 CometAPI 中使用。

Claude Opus 4.7 由 Anthropic 於 2026 年 4 月 16 日發佈,是 Claude 4 系列中最新的旗艦混合推理模型。相較於 Opus 4.6,它在包含 93 項任務的程式設計基準測試上提升了 13%,支援 1M token 的上下文視窗、更高解析度的視覺能力(最高達 2,576 像素),以及針對複雜代理式工作流程的適應性思考。它在生產可用的程式開發、長時間運行的任務與專業知識型工作方面表現出色,同時保持與前代相同的定價(官方為每百萬 tokens $5/$25)。對於希望降低成本並透過統一 API 存取 500+ 模型的開發者,CometAPI 以每百萬 tokens 僅 $4(輸入)/$20(輸出)提供 Claude Opus 4.7 — 節省 20% — 並為新用戶提供免費 API 金鑰與 1M 免費 tokens。
GPT-6 揭曉:GPT-6 何時發布?
Apr 7, 2026
gpt-6

GPT-6 揭曉:GPT-6 何時發布?

GPT-6 最早將於 2026 年 4 月推出*—距離 3 月 24 日在 Abilene, Texas 的 OpenAI 的 Stargate supercluster 完成預訓練僅數週時間。內部代號為「Spud」,這一下一代前沿模型在過去約兩年間秘密研發,有望在推理、多模態以及現實世界實用性方面帶來巨大的飛躍。
2026 年最適合數學的 Chatgpt 模型
Apr 7, 2026
chat-gpt

2026 年最適合數學的 Chatgpt 模型

2026 年最適合數學的 ChatGPT 模型是 **GPT-5.4 Pro**(high/xhigh reasoning mode)。它在 AIME 2025 取得 100%、在 MATH Level 5 取得 98.1%、在 FrontierMath 取得 50%——領先 Claude Opus 4.6(40.7% FrontierMath)與 Gemini 3.1 Pro(95.1% MATH,但在競賽數學上落後)。對開發者而言,可透過 CometAPI pay-as-you-go 以最低成本存取。
GPT 5.4 Mini 和 Nano 現已於 CometAPI 提供:它們帶來什麼?
Mar 18, 2026

GPT 5.4 Mini 和 Nano 現已於 CometAPI 提供:它們帶來什麼?

GPT-5.4 Mini 和 GPT-5.4 Nano 是 OpenAI 的 GPT-5.4 前沿系列中的全新緊湊版本:Mini 旨在為程式設計、多模態 UI 任務與子代理工作負載提供同級最佳的效能/延遲取捨;Nano 則以超低成本與延遲為目標,支援分類、抽取、排序與大規模並行子代理。Mini 在許多開發者基準測試上提供接近前沿的準確度,同時執行速度比先前的 Mini 版本快 >2×;Nano 的每個 token 成本顯著更低,並且非常適合最重視吞吐量與回應速度的場景。這些模型已在 API 上線(GPT 5.4 Mini 與 Nano 可在 CometAPI 使用)。