模型定价企业
500+ AI 模型 API,一次搞定,就在 CometAPI
模型 API
开发者
快速入门文档API 仪表板
公司
关于我们企业
资源
AI 模型博客更新日志支持
服务条款隐私政策
© 2026 CometAPI · All rights reserved
Home/Models/OpenAI/GPT-5.4 pro
O

GPT-5.4 pro

输入:$24/M
输出:$144/M
上下文:1,050,000
最大输出:128,000
可生成更智能、更精准回复的 GPT-5.4 版本。
新
商用
Playground
概览
功能亮点
定价
API
版本

GPT-5.4-Pro 的技术规格

项目GPT-5.4-Pro
提供方OpenAI
模型家族GPT-5.4
模型层级Pro(高算力推理变体)
输入类型文本、图像
输出类型文本
上下文窗口1,050,000 tokens
最大输出 tokens128,000 tokens
知识截止日期2025 年 8 月 31 日
推理级别medium、high、xhigh
工具支持Web 搜索、文件搜索、代码解释器、图像生成
API 支持Responses API(推荐)
发布日期2026 年 3 月

什么是 GPT-5.4-Pro?

GPT-5.4-Pro 是 GPT-5.4 模型家族中能力最强的 API 变体,专为极其复杂的推理、研究、编程和企业自动化任务而设计。

与标准版 GPT-5.4 模型相比,GPT-5.4-Pro 在生成响应前会使用 显著更多的内部算力进行“更深入思考”,因此在处理困难问题时能够提供更准确、更可靠的输出。

该模型针对金融分析、软件工程、科学研究以及大规模文档推理等专业工作负载进行了优化。


GPT-5.4-Pro 的主要特性

  • 极强的推理性能: 使用额外算力,在复杂任务上生成更精确的答案。
  • 105 万 token 上下文窗口: 可分析超大文档、数据集或整个代码仓库。
  • 可配置的推理深度: 开发者可控制推理强度级别(medium、high、xhigh)。
  • 高级工具编排: 可通过 Responses API 与 Web 搜索、文件检索及其他工具协同工作。
  • 支持长时间推理: 由于分配了更深层次的计算资源,复杂任务可能需要数分钟才能完成。
  • 企业级可靠性: 面向要求最高答案准确性的高风险工作流而设计。

基准测试表现

OpenAI 报告称,GPT-5.4 模型在专业推理基准测试中取得了显著提升:

基准测试GPT-5.4GPT-5.2
GDPval(知识工作)83.0%70.9%
OfficeQA68.1%63.1%
Investment Banking Modeling87.3%71.7%

这些提升表明,GPT-5.4 在 复杂专业知识任务和分析型推理工作流 上具有更强表现。

GPT-5.4-Pro 则通过分配比标准版 GPT-5.4 更多的推理算力,进一步提升了可靠性。


GPT-5.4-Pro 与同类模型对比

模型上下文窗口主要优势
GPT-5.4-Pro1.05M tokens最高推理准确性
GPT-5.41.05M tokens速度与能力的平衡
o3-pro更小高效推理
Gemini 3 Pro~1M tokens强大的多模态能力

关键结论:
当最高推理准确性比延迟或成本更重要时,请使用 GPT-5.4-Pro。

局限性

  • 由于更深层推理计算,延迟更高
  • 比标准版 GPT-5.4 更昂贵
  • 不支持音频或视频生成
  • 某些长任务可能需要数分钟才能完成

如何访问 GPT-5.4 pro API

步骤 1:注册并获取 API Key

登录 cometapi.com。如果您还不是我们的用户,请先注册。登录您的 CometAPI 控制台。获取接口访问凭证 API key。在个人中心的 API token 页面点击“Add Token”,获取 token key:sk-xxxxx 并提交。

cometapi-key

步骤 2:向 GPT-5.4 pro API 发送请求

选择 “gpt-5.4-pro” 端点发送 API 请求,并设置请求体。请求方法和请求体可从我们网站的 API 文档中获取。我们的网站还提供 Apifox 测试以方便您使用。将 <YOUR_API_KEY> 替换为您账户中的实际 CometAPI key。base url 为 Responses。

将您的问题或请求插入到 content 字段中——这是模型将要响应的内容。处理 API 响应以获取生成的答案。

步骤 3:获取并验证结果

处理 API 响应以获取生成的答案。处理完成后,API 将返回任务状态和输出数据。

常见问题

What makes GPT-5.4 Pro different from the standard GPT-5.4 API model?

GPT-5.4 Pro 为推理分配了显著更多的内部算力,相较于标准版 GPT-5.4 模型,在处理复杂任务时能够生成更准确、更可靠的答案。

What is the context window of GPT-5.4 Pro in the OpenAI API?

GPT-5.4 Pro 支持约 1,050,000 个 tokens 的上下文窗口,并且每次请求最多可输出 128,000 个 tokens。

Why is GPT-5.4 Pro only available through the Responses API?

GPT-5.4 Pro 专为高级多轮推理工作流与工具编排而设计,而 Responses API 相较于较旧的端点能更有效地支持这些能力。

What reasoning effort levels are supported by GPT-5.4 Pro?

GPT-5.4 Pro 支持将推理力度设为 medium、high 和 xhigh,以控制模型使用的内部算力。

Can GPT-5.4 Pro analyze images through the API?

可以。GPT-5.4 Pro 支持图像输入,能够在文本提示之外同时分析截图、示意图、图表或照片。

When should developers choose GPT-5.4 Pro instead of GPT-5.4?

对于需要最高推理准确性的关键任务,例如金融建模、复杂编码或研究自动化,开发者应选择 GPT-5.4 Pro。

How long can GPT-5.4 Pro take to complete complex requests?

由于 GPT-5.4 Pro 会进行更深入的推理,取决于推理力度级别,一些复杂请求可能需要数分钟才能完成。

What knowledge cutoff does the GPT-5.4 Pro model use?

GPT-5.4 Pro 的训练知识截止日期为 2025 年 8 月 31 日。

GPT-5.4 pro 的功能

了解 GPT-5.4 pro 的核心能力,帮助提升性能与可用性,并改善整体体验。

GPT-5.4 pro 的定价

查看 GPT-5.4 pro 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
输入:$24/M
输出:$144/M
输入:$30/M
输出:$180/M
-20%

GPT-5.4 pro 的示例代码与 API

获取完整示例代码与 API 资源,简化 GPT-5.4 pro 的集成流程,我们提供逐步指导,助你发挥模型潜能。
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.4-pro-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.4-pro-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
    apiKey: COMETAPI_KEY,
    baseURL: BASE_URL,
});

async function main() {
    const response = await client.responses.create({
        model: "gpt-5.4-pro-2026-03-05",
        input: "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
        reasoning: {
            effort: "high",
        },
    });

    console.log(response.output_text);
}

main();

Curl Code Example

curl https://api.cometapi.com/v1/responses \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "gpt-5.4-pro-2026-03-05",
    "input": "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    "reasoning": {
        "effort": "high"
    }
}'

GPT-5.4 pro 的版本

GPT-5.4 pro 可能存在多个快照,原因包括:更新后保持一致性需要保留旧版、给开发者留出迁移窗口,以及全球/区域端点提供的优化差异。具体差异请参考官方文档。
模型 ID描述可用性请求
gpt-5.4-pro-2026-03-05推荐,指向最新模型✅响应
gpt-5.4-pro官方预览✅响应

更多模型

C

Claude Opus 4.7

输入:$3/M
输出:$15/M
用于智能体和编程的最智能模型
A

Claude Sonnet 4.6

输入:$2.4/M
输出:$12/M
Claude Sonnet 4.6 是迄今为止我们最强大的 Sonnet 模型。它对模型在编码、计算机使用、长上下文推理、智能体规划、知识工作和设计等方面的能力进行了全面升级。Sonnet 4.6 还在 beta 阶段提供 1M token 上下文窗口。
O

GPT-5.4 nano

输入:$0.16/M
输出:$1/M
GPT-5.4 nano 专为速度和成本最为关键的任务而设计,例如分类、数据提取、排序以及子智能体。
O

GPT-5.4 mini

输入:$0.6/M
输出:$3.6/M
GPT-5.4 mini 将 GPT-5.4 的优势融入到一款更快速、更高效、专为大规模工作负载设计的模型中。
X

Grok 4.20

输入:$1.6/M
输出:$4.8/M
Grok 4.20 版本引入了多智能体架构(多个专业化智能体的实时协同)、扩展的上下文模式,以及在指令遵循、幻觉减少和结构化/工具化输出方面的针对性改进。
Q

Qwen3.6-Plus

输入:$0.32/M
输出:$1.92/M
Qwen 3.6-Plus 现已发布,具备更强的代码开发能力,并在多模态识别与推理方面效率更高,使 Vibe Coding 体验更佳。

相关博客

看起来您可能指的是 Anthropic 的 “Claude 3 Opus”。截至我所知,官方未公布名为“Claude Opus 4.7”的型号。下面以 Claude 3 Opus 为例,演示如何通过 Anthropic Messages API 调用;请将模型名替换为您账户可用的最新型号(如 claude-3-opus-20240229 或 claude-3-opus-latest),并以实际可用清单为准。

基本步骤
- 获取 API Key:在 Anthropic 控制台创建并保存到环境变量 ANTHROPIC_API_KEY。
- 选择模型:确认账户可用的模型 ID(Opus/Sonnet/Haiku 等)。
- 发起请求:调用 /v1/messages,设置必要头与参数。

HTTP 调用示例(cURL)
POST https://api.anthropic.com/v1/messages
Headers:
  x-api-key: $ANTHROPIC_API_KEY
  anthropic-version: 2023-06-01
  content-type: application/json

Body:
{
  "model": "claude-3-opus-20240229",
  "max_tokens": 512,
  "temperature": 0.7,
  "system": "You are a helpful assistant.",
  "messages": [
    {
      "role": "user",
      "content": [
        { "type": "text", "text": "Write a short introduction about quantum computing." }
      ]
    }
  ]
}

Python 示例(官方 SDK)
from anthropic import Anthropic

client = Anthropic()  # 从环境变量 ANTHROPIC_API_KEY 读取密钥

msg = client.messages.create(
    model="claude-3-opus-20240229",
    max_tokens=512,
    temperature=0.7,
    system="You are a helpful assistant.",
    messages=[
        {"role": "user", "content": "Summarize the key features of your API."}
    ],
)

print(msg.content[0].text)

Node.js 示例(官方 SDK)
import Anthropic from "@anthropic-ai/sdk";

const client = new Anthropic({ apiKey: process.env.ANTHROPIC_API_KEY });

const resp = await client.messages.create({
  model: "claude-3-opus-20240229",
  max_tokens: 512,
  temperature: 0.7,
  system: "You are a helpful assistant.",
  messages: [
    { role: "user", content: "Give me three tips for improving code readability." }
  ],
});

console.log(resp.content[0].text);

使用要点
- 必填参数:model、max_tokens;temperature 可按需调整(0–1)。
- system 用于设置全局角色或约束。
- content 支持多模态输入(type 可为 text 或 image);仅文本时可直接传字符串(SDK 会处理)。
- 如果需要流式返回,使用 SDK 的流式方法或在 HTTP 中开启流式选项(SDK 更便捷)。
- 不同账号/区域可用模型可能不同,请在控制台或文档中确认当前可用的模型 ID。

如您确实指的是某个名为“Claude Opus 4.7”的特定版本,请提供精确的模型 ID 或链接,我可以据此给出对应的调用示例。否则,建议使用最新的 Claude 3 Opus 型号(如 claude-3-opus-20240229 或 claude-3-opus-latest)。
Apr 18, 2026
claude-opus-4-7

看起来您可能指的是 Anthropic 的 “Claude 3 Opus”。截至我所知,官方未公布名为“Claude Opus 4.7”的型号。下面以 Claude 3 Opus 为例,演示如何通过 Anthropic Messages API 调用;请将模型名替换为您账户可用的最新型号(如 claude-3-opus-20240229 或 claude-3-opus-latest),并以实际可用清单为准。 基本步骤 - 获取 API Key:在 Anthropic 控制台创建并保存到环境变量 ANTHROPIC_API_KEY。 - 选择模型:确认账户可用的模型 ID(Opus/Sonnet/Haiku 等)。 - 发起请求:调用 /v1/messages,设置必要头与参数。 HTTP 调用示例(cURL) POST https://api.anthropic.com/v1/messages Headers: x-api-key: $ANTHROPIC_API_KEY anthropic-version: 2023-06-01 content-type: application/json Body: { "model": "claude-3-opus-20240229", "max_tokens": 512, "temperature": 0.7, "system": "You are a helpful assistant.", "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Write a short introduction about quantum computing." } ] } ] } Python 示例(官方 SDK) from anthropic import Anthropic client = Anthropic() # 从环境变量 ANTHROPIC_API_KEY 读取密钥 msg = client.messages.create( model="claude-3-opus-20240229", max_tokens=512, temperature=0.7, system="You are a helpful assistant.", messages=[ {"role": "user", "content": "Summarize the key features of your API."} ], ) print(msg.content[0].text) Node.js 示例(官方 SDK) import Anthropic from "@anthropic-ai/sdk"; const client = new Anthropic({ apiKey: process.env.ANTHROPIC_API_KEY }); const resp = await client.messages.create({ model: "claude-3-opus-20240229", max_tokens: 512, temperature: 0.7, system: "You are a helpful assistant.", messages: [ { role: "user", content: "Give me three tips for improving code readability." } ], }); console.log(resp.content[0].text); 使用要点 - 必填参数:model、max_tokens;temperature 可按需调整(0–1)。 - system 用于设置全局角色或约束。 - content 支持多模态输入(type 可为 text 或 image);仅文本时可直接传字符串(SDK 会处理)。 - 如果需要流式返回,使用 SDK 的流式方法或在 HTTP 中开启流式选项(SDK 更便捷)。 - 不同账号/区域可用模型可能不同,请在控制台或文档中确认当前可用的模型 ID。 如您确实指的是某个名为“Claude Opus 4.7”的特定版本,请提供精确的模型 ID 或链接,我可以据此给出对应的调用示例。否则,建议使用最新的 Claude 3 Opus 型号(如 claude-3-opus-20240229 或 claude-3-opus-latest)。

Claude Opus 4.7(模型 ID:`claude-opus-4-7`)是 Anthropic 面向公众可用的最强大模型,于 2026 年 4 月 16 日发布。它在代理型编码、高分辨率多模态视觉(最高 3.75MP)、自适应思维和长时间运行的工作流方面实现跨越式提升,同时将每百万输入/输出 token 的价格维持在 $5/$25。通过 CometAPI 使用可享受 20-40% 更低的价格、统一密钥和即时模型切换——无供应商锁定。
“Claude Opus”是 Anthropic 在 Claude 3 系列中的旗舰模型,侧重高难度推理、长文本处理与高精度指令执行,通常比 Sonnet/Haiku 更强但更慢、成本更高。

CometAPI 中出现的“Claude Opus 4.7”大概率是 CometAPI 自己的版本标签或别名,用来标记其对接的底层 Claude Opus 检查点/兼容层,并非 Anthropic 官方的大版本命名。Anthropic 官方通常使用诸如“Claude 3 Opus”(有时带日期或修订号)的命名。

你可以通过以下方式确认:
- 在 CometAPI 的模型目录或“列出模型”接口查看该模型 ID 的底层提供方、上下文上限、发布日期与别名说明。
- 向 CometAPI 支持确认“4.7”具体映射到哪一版 Claude Opus(例如某个带日期的官方构建)。

使用建议:
- 追求最高质量与复杂推理选 Opus;更注重速度/成本可选 Sonnet 或 Haiku。
- 注意 CometAPI 针对不同版本的上下文长度、速率限制与定价差异,并留意可能的版本弃用/迁移公告。

如果你提供 CometAPI 中的具体模型 ID 或文档链接,我可以帮你核对对应的官方版本。
Apr 16, 2026
claude-opus-4-7

“Claude Opus”是 Anthropic 在 Claude 3 系列中的旗舰模型,侧重高难度推理、长文本处理与高精度指令执行,通常比 Sonnet/Haiku 更强但更慢、成本更高。 CometAPI 中出现的“Claude Opus 4.7”大概率是 CometAPI 自己的版本标签或别名,用来标记其对接的底层 Claude Opus 检查点/兼容层,并非 Anthropic 官方的大版本命名。Anthropic 官方通常使用诸如“Claude 3 Opus”(有时带日期或修订号)的命名。 你可以通过以下方式确认: - 在 CometAPI 的模型目录或“列出模型”接口查看该模型 ID 的底层提供方、上下文上限、发布日期与别名说明。 - 向 CometAPI 支持确认“4.7”具体映射到哪一版 Claude Opus(例如某个带日期的官方构建)。 使用建议: - 追求最高质量与复杂推理选 Opus;更注重速度/成本可选 Sonnet 或 Haiku。 - 注意 CometAPI 针对不同版本的上下文长度、速率限制与定价差异,并留意可能的版本弃用/迁移公告。 如果你提供 CometAPI 中的具体模型 ID 或文档链接,我可以帮你核对对应的官方版本。

Claude Opus 4.7 由 Anthropic 于 2026 年 4 月 16 日发布,是 Claude 4 系列中最新的旗舰混合推理模型。与 Opus 4.6 相比,它在包含 93 项任务的编码基准上提升了 13%,支持 1M token 上下文窗口、更高分辨率的视觉能力(最高 2,576 像素),以及面向复杂代理型工作流的自适应思维。在生产就绪的编码、长时间运行的任务和专业知识型工作方面表现出色,同时保持与其前代相同的定价(官方每百万 token $5/$25)。对于希望降低成本并通过统一 API 访问 500+ 模型的开发者,CometAPI 提供的 Claude Opus 4.7 仅需每百万 token 输入 $4 / 输出 $20——节省 20%——并向新用户提供免费 API 密钥和 1M 免费 token。
GPT-6 揭晓:GPT-6 何时发布?
Apr 7, 2026
gpt-6

GPT-6 揭晓:GPT-6 何时发布?

GPT-6 最早将于 2026 年 4 月推出*—距离 3 月 24 日在德克萨斯州阿比林的 OpenAI 的 Stargate 超级集群完成预训练仅数周之后。内部代号为“Spud”,这款下一代前沿模型秘密研发了约两年,有望在推理、多模态和现实世界实用性方面实现巨大飞跃。
2026 年最佳用于数学的 Chatgpt 模型
Apr 7, 2026
chat-gpt

2026 年最佳用于数学的 Chatgpt 模型

2026 年最适合数学的 ChatGPT 模型是 **GPT-5.4 Pro**(高/超高推理模式)。它在 AIME 2025 上达到 100%,在 MATH Level 5 上达到 98.1%,在 FrontierMath 上达到 50% — 领先于 Claude Opus 4.6(FrontierMath 40.7%)和 Gemini 3.1 Pro(MATH 95.1%,但在竞赛数学上略逊一筹)。对于开发者,最便宜的获取方式是通过 CometAPI 的按需付费。
GPT 5.4 Mini 和 Nano 已在 CometAPI 中可用:它们带来了什么?
Mar 18, 2026

GPT 5.4 Mini 和 Nano 已在 CometAPI 中可用:它们带来了什么?

GPT-5.4 Mini 和 GPT-5.4 Nano 是 OpenAI GPT-5.4 前沿模型家族的新型紧凑变体:Mini 面向编码、多模态 UI 任务和子代理工作负载,在性能与延迟之间提供同类最佳的权衡;Nano 面向分类、提取、排序以及大规模并行子代理,提供超低成本和超低延迟。Mini 在许多开发者基准测试中提供接近前沿模型的准确性,同时运行速度比之前的 mini 模型快 >2×;Nano 的单 token 成本显著更低,非常适合吞吐量和响应速度最重要的场景。这些模型现已在 API 中上线(GPT 5.4 Mini 和 Nano 已在 CometAPI 中可用)。