模型定价企业
500+ AI 模型 API,一次搞定,就在 CometAPI
模型 API
开发者
快速入门文档API 仪表板
公司
关于我们企业
资源
AI 模型博客更新日志支持
服务条款隐私政策
© 2026 CometAPI · All rights reserved
Home/Models/OpenAI/GPT-5.4
O

GPT-5.4

输入:$2/M
输出:$12/M
上下文:1,050,000
最大输出:128,000
GPT-5.4 是面向复杂专业工作的前沿模型。Reasoning.effort 支持:none(默认)、low、medium、high 和 xhigh。
新
商用
Playground
概览
功能亮点
定价
API
版本

GPT-5.4-2026-03-05 的技术规格

项目GPT-5.4-2026-03-05
模型系列GPT-5
提供方OpenAI
发布日期2026 年 3 月 5 日
上下文窗口1,050,000 tokens
最大输出 tokens128,000
输入类型Text, Image
输出类型Text
音频Not supported
推理控制none, low, medium, high, xhigh
工具支持Web search, File search, Code interpreter, Image generation
知识截止日期2025 年 8 月 31 日
快照稳定性Locked model behavior

什么是 GPT-5.4?

GPT-5.4 是一次融合式的前沿版本,将近期在推理与编码方向的改进(包括 GPT-5.3-Codex 工作)合并为面向专业知识工作的单一模型。其定位为用于更深入、可引导推理的“Thinking”模型,以及面向最高性能/吞吐的客户的“Pro”变体。此版本的关键主题包括:(1)更长的上下文与文档级理解,(2)改进的工具与“电脑操作”能力(控制应用、电子表格/演示文稿编辑),以及(3)降低事实性错误与更强的多步规划。

GPT-5.4 的主要特性

  • 强大的长上下文能力(1M+ tokens 实验版):GPT-5.4 支持实验性的 1.05M token 会话(有相应定价/限制),可实现整本书/整套代码库级推理与多文档综合。在普遍可用范围内,标准窗口仍为约 ≈272K tokens。
  • 改进的多步工具使用与原生“电脑操作”:针对代理式工作流具备更好的桌面/浏览器控制(通过电脑操作接口的键盘/鼠标),提供可跨轮次持久化的网页搜索,以及新的 Tool Search 机制以高效发现连接器/工具。OpenAI 报告在多项电脑操作与网页代理基准上达到了 SOTA 水平。
  • 电子表格、文档与演示文稿的生成/编辑:针对办公工作流进行专项调优;内部基准显示在电子表格建模与演示质量上有显著提升。OpenAI 还在发布时推出了 ChatGPT for Excel 插件。
  • 可引导性与推理模式:“Thinking” 模式会为长任务生成显式计划/前言,并支持在生成过程中进行中途引导(在输出中途调整指令)。推理投入等级允许在延迟与更深的链式推理之间进行权衡。
  • 增强的多模态理解:对高分辨率图像与图表(图像输入)有更好的解读能力,可用于文档理解与演示制作。
  • 安全姿态:OpenAI 将 GPT-5.4 视为具备高网络能力的模型,并部署了类似 GPT-5.3-Codex 的强化安全防护。

基准测试表现

GPT-5.4GPT-5.3-CodexGPT-5.2
GDPval(胜或平)83.0%70.9%70.9%
SWE-Bench Pro(公开)57.7%56.8%55.6%
OSWorld-Verified75.0%74.0%*47.3%
Toolathlon54.6%51.9%46.3%
BrowseComp82.7%77.3%65.8%

GPT-5.4 与同类模型对比

模型上下文窗口关键优势
GPT-5.4-2026-03-051,050,000 tokens前沿推理 + 代理式工作流
GPT-5.3 InstantSmaller更快的日常任务处理
Claude Opus / Sonnet~200k tokens长篇推理
Gemini 3 Pro~1M tokens多模态推理

关键差异:GPT-5.4 重点面向专业生产力工作流与代理能力,尤其是在与外部工具集成时。

代表性的生产用例

  1. 企业文档与合规工作流:处理长合同、提取义务,并在多文档语料中撰写评注(受益于单会话综合的 272K→1M 上下文选项)。
  2. 电子表格自动化与财务建模:生成公式、从自然语言规格构建多表模型、对账输入等——OpenAI 报告称在类似初级投行任务上有大幅提升。
  3. 代理式自动化与“电脑操作”:自动化的浏览器/桌面工作流(安装、QA、工具编排)以及多步工具链(提及 Zapier 为合作伙伴)。
  4. 软件工程与代码维护:代码生成、重构,以及终端/CLI 代理任务(报告在 Terminal-Bench 上有提升)。对于大型代码库,长上下文有所助益,但需基于任务启发式进行验证。
  5. 知识工作者增强:研究综合(BrowseComp 改进)、幻灯片生成与演示视觉设计。

如何访问 GPT-5.4 API

步骤 1:注册获取 API Key

登录 cometapi.com。如果您尚未成为我们的用户,请先注册。登录您的 CometAPI console。获取接口的访问凭证 API Key。在个人中心的 API token 处点击 “Add Token”,获取令牌密钥:sk-xxxxx 并提交。

cometapi-key

步骤 2:向 GPT-5.4 API 发送请求

选择 “gpt-5.4” 端点发送 API 请求,并设置请求体。请求方法与请求体可从我们网站的 API 文档获取。我们的网站也提供 Apifox 测试以便您使用。将 <YOUR_API_KEY> 替换为您账户中的实际 CometAPI 密钥。base url is Chat Completions and Responses。

将您的问题或请求插入到 content 字段——模型将对其进行响应。处理 API 响应以获取生成的答案。

步骤 3:检索并验证结果

处理 API 响应以获取生成的答案。处理完成后,API 会返回任务状态与输出数据。

常见问题

What is the difference between gpt-5.4 and gpt-5.4-2026-03-05 in the OpenAI API?

gpt-5.4 是一个会随着模型改进而更新的动态别名,而 gpt-5.4-2026-03-05 是一个快照版本,可在生产环境中保证行为稳定并具有可复现的结果。

What is the context window size of the GPT-5.4 API model?

GPT-5.4 支持约 1,050,000 个 token 的上下文窗口,输出最多可达 128,000 个 token。

Does GPT-5.4 support tool calling and external integrations?

是的。GPT-5.4 通过 Responses API 支持工具编排,包括网页搜索、文件搜索、代码解释器和图像生成工具。

How does GPT-5.4 compare to GPT-5.3 Instant?

GPT-5.4 专注于更深入的推理和专业化工作流程,而 GPT-5.3 Instant 则针对更快速的日常对话和更低延迟的任务进行了优化。

Can GPT-5.4 process images through the API?

是的。GPT-5.4 支持图像输入,使模型能够在文本提示的同时分析截图、示意图或照片。

When should developers use the GPT-5.4 snapshot model instead of the alias version?

当需要用于生产系统、基准测试或监管合规的稳定输出时,开发者应使用快照模型。

Does GPT-5.4 support configurable reasoning levels?

是的。该 API 允许开发者设置推理力度级别,如 low、medium、high 或 xhigh,以控制模型执行的内部推理量。

GPT-5.4 的功能

了解 GPT-5.4 的核心能力,帮助提升性能与可用性,并改善整体体验。

GPT-5.4 的定价

查看 GPT-5.4 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
输入:$2/M
输出:$12/M
输入:$2.5/M
输出:$15/M
-20%

GPT-5.4 的示例代码与 API

获取完整示例代码与 API 资源,简化 GPT-5.4 的集成流程,我们提供逐步指导,助你发挥模型潜能。
POST
/v1/chat/completions
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.4-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "none"},
)

print(response.output_text)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.4-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "none"},
)

print(response.output_text)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
    apiKey: COMETAPI_KEY,
    baseURL: BASE_URL,
});

async function main() {
    const response = await client.responses.create({
        model: "gpt-5.4-2026-03-05",
        input: "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
        reasoning: {
            effort: "none",
        },
    });

    console.log(response.output_text);
}

main();

Curl Code Example

curl https://api.cometapi.com/v1/responses \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "gpt-5.4-2026-03-05",
    "input": "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    "reasoning": {
        "effort": "none"
    }
}'

GPT-5.4 的版本

GPT-5.4 可能存在多个快照,原因包括:更新后保持一致性需要保留旧版、给开发者留出迁移窗口,以及全球/区域端点提供的优化差异。具体差异请参考官方文档。
模型 ID可用性请求
gpt-5.4-2026-03-05✅响应 和 聊天补全
gpt-5.4✅响应 和 聊天补全

更多模型

C

Claude Opus 4.7

输入:$3/M
输出:$15/M
用于智能体和编程的最智能模型
A

Claude Sonnet 4.6

输入:$2.4/M
输出:$12/M
Claude Sonnet 4.6 是迄今为止我们最强大的 Sonnet 模型。它对模型在编码、计算机使用、长上下文推理、智能体规划、知识工作和设计等方面的能力进行了全面升级。Sonnet 4.6 还在 beta 阶段提供 1M token 上下文窗口。
O

GPT-5.4 nano

输入:$0.16/M
输出:$1/M
GPT-5.4 nano 专为速度和成本最为关键的任务而设计,例如分类、数据提取、排序以及子智能体。
O

GPT-5.4 mini

输入:$0.6/M
输出:$3.6/M
GPT-5.4 mini 将 GPT-5.4 的优势融入到一款更快速、更高效、专为大规模工作负载设计的模型中。
X

Grok 4.20

输入:$1.6/M
输出:$4.8/M
Grok 4.20 版本引入了多智能体架构(多个专业化智能体的实时协同)、扩展的上下文模式,以及在指令遵循、幻觉减少和结构化/工具化输出方面的针对性改进。
Q

Qwen3.6-Plus

输入:$0.32/M
输出:$1.92/M
Qwen 3.6-Plus 现已发布,具备更强的代码开发能力,并在多模态识别与推理方面效率更高,使 Vibe Coding 体验更佳。

相关博客

OpenAI API 中的函数调用:它究竟做什么以及如何正确使用
Apr 20, 2026
open-ai
tech

OpenAI API 中的函数调用:它究竟做什么以及如何正确使用

精通 OpenAI Function Calling:超越提示工程,迈向结构化编排。学习严格的模式强制执行、安全最佳实践与 Agentic 工作流。通过 CometAPI 在 GPT、Claude 和 Gemini 之间统一工具调用。
看起来您可能指的是 Anthropic 的 “Claude 3 Opus”。截至我所知,官方未公布名为“Claude Opus 4.7”的型号。下面以 Claude 3 Opus 为例,演示如何通过 Anthropic Messages API 调用;请将模型名替换为您账户可用的最新型号(如 claude-3-opus-20240229 或 claude-3-opus-latest),并以实际可用清单为准。

基本步骤
- 获取 API Key:在 Anthropic 控制台创建并保存到环境变量 ANTHROPIC_API_KEY。
- 选择模型:确认账户可用的模型 ID(Opus/Sonnet/Haiku 等)。
- 发起请求:调用 /v1/messages,设置必要头与参数。

HTTP 调用示例(cURL)
POST https://api.anthropic.com/v1/messages
Headers:
  x-api-key: $ANTHROPIC_API_KEY
  anthropic-version: 2023-06-01
  content-type: application/json

Body:
{
  "model": "claude-3-opus-20240229",
  "max_tokens": 512,
  "temperature": 0.7,
  "system": "You are a helpful assistant.",
  "messages": [
    {
      "role": "user",
      "content": [
        { "type": "text", "text": "Write a short introduction about quantum computing." }
      ]
    }
  ]
}

Python 示例(官方 SDK)
from anthropic import Anthropic

client = Anthropic()  # 从环境变量 ANTHROPIC_API_KEY 读取密钥

msg = client.messages.create(
    model="claude-3-opus-20240229",
    max_tokens=512,
    temperature=0.7,
    system="You are a helpful assistant.",
    messages=[
        {"role": "user", "content": "Summarize the key features of your API."}
    ],
)

print(msg.content[0].text)

Node.js 示例(官方 SDK)
import Anthropic from "@anthropic-ai/sdk";

const client = new Anthropic({ apiKey: process.env.ANTHROPIC_API_KEY });

const resp = await client.messages.create({
  model: "claude-3-opus-20240229",
  max_tokens: 512,
  temperature: 0.7,
  system: "You are a helpful assistant.",
  messages: [
    { role: "user", content: "Give me three tips for improving code readability." }
  ],
});

console.log(resp.content[0].text);

使用要点
- 必填参数:model、max_tokens;temperature 可按需调整(0–1)。
- system 用于设置全局角色或约束。
- content 支持多模态输入(type 可为 text 或 image);仅文本时可直接传字符串(SDK 会处理)。
- 如果需要流式返回,使用 SDK 的流式方法或在 HTTP 中开启流式选项(SDK 更便捷)。
- 不同账号/区域可用模型可能不同,请在控制台或文档中确认当前可用的模型 ID。

如您确实指的是某个名为“Claude Opus 4.7”的特定版本,请提供精确的模型 ID 或链接,我可以据此给出对应的调用示例。否则,建议使用最新的 Claude 3 Opus 型号(如 claude-3-opus-20240229 或 claude-3-opus-latest)。
Apr 18, 2026
claude-opus-4-7

看起来您可能指的是 Anthropic 的 “Claude 3 Opus”。截至我所知,官方未公布名为“Claude Opus 4.7”的型号。下面以 Claude 3 Opus 为例,演示如何通过 Anthropic Messages API 调用;请将模型名替换为您账户可用的最新型号(如 claude-3-opus-20240229 或 claude-3-opus-latest),并以实际可用清单为准。 基本步骤 - 获取 API Key:在 Anthropic 控制台创建并保存到环境变量 ANTHROPIC_API_KEY。 - 选择模型:确认账户可用的模型 ID(Opus/Sonnet/Haiku 等)。 - 发起请求:调用 /v1/messages,设置必要头与参数。 HTTP 调用示例(cURL) POST https://api.anthropic.com/v1/messages Headers: x-api-key: $ANTHROPIC_API_KEY anthropic-version: 2023-06-01 content-type: application/json Body: { "model": "claude-3-opus-20240229", "max_tokens": 512, "temperature": 0.7, "system": "You are a helpful assistant.", "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Write a short introduction about quantum computing." } ] } ] } Python 示例(官方 SDK) from anthropic import Anthropic client = Anthropic() # 从环境变量 ANTHROPIC_API_KEY 读取密钥 msg = client.messages.create( model="claude-3-opus-20240229", max_tokens=512, temperature=0.7, system="You are a helpful assistant.", messages=[ {"role": "user", "content": "Summarize the key features of your API."} ], ) print(msg.content[0].text) Node.js 示例(官方 SDK) import Anthropic from "@anthropic-ai/sdk"; const client = new Anthropic({ apiKey: process.env.ANTHROPIC_API_KEY }); const resp = await client.messages.create({ model: "claude-3-opus-20240229", max_tokens: 512, temperature: 0.7, system: "You are a helpful assistant.", messages: [ { role: "user", content: "Give me three tips for improving code readability." } ], }); console.log(resp.content[0].text); 使用要点 - 必填参数:model、max_tokens;temperature 可按需调整(0–1)。 - system 用于设置全局角色或约束。 - content 支持多模态输入(type 可为 text 或 image);仅文本时可直接传字符串(SDK 会处理)。 - 如果需要流式返回,使用 SDK 的流式方法或在 HTTP 中开启流式选项(SDK 更便捷)。 - 不同账号/区域可用模型可能不同,请在控制台或文档中确认当前可用的模型 ID。 如您确实指的是某个名为“Claude Opus 4.7”的特定版本,请提供精确的模型 ID 或链接,我可以据此给出对应的调用示例。否则,建议使用最新的 Claude 3 Opus 型号(如 claude-3-opus-20240229 或 claude-3-opus-latest)。

Claude Opus 4.7(模型 ID:`claude-opus-4-7`)是 Anthropic 面向公众可用的最强大模型,于 2026 年 4 月 16 日发布。它在代理型编码、高分辨率多模态视觉(最高 3.75MP)、自适应思维和长时间运行的工作流方面实现跨越式提升,同时将每百万输入/输出 token 的价格维持在 $5/$25。通过 CometAPI 使用可享受 20-40% 更低的价格、统一密钥和即时模型切换——无供应商锁定。
“Claude Opus”是 Anthropic 在 Claude 3 系列中的旗舰模型,侧重高难度推理、长文本处理与高精度指令执行,通常比 Sonnet/Haiku 更强但更慢、成本更高。

CometAPI 中出现的“Claude Opus 4.7”大概率是 CometAPI 自己的版本标签或别名,用来标记其对接的底层 Claude Opus 检查点/兼容层,并非 Anthropic 官方的大版本命名。Anthropic 官方通常使用诸如“Claude 3 Opus”(有时带日期或修订号)的命名。

你可以通过以下方式确认:
- 在 CometAPI 的模型目录或“列出模型”接口查看该模型 ID 的底层提供方、上下文上限、发布日期与别名说明。
- 向 CometAPI 支持确认“4.7”具体映射到哪一版 Claude Opus(例如某个带日期的官方构建)。

使用建议:
- 追求最高质量与复杂推理选 Opus;更注重速度/成本可选 Sonnet 或 Haiku。
- 注意 CometAPI 针对不同版本的上下文长度、速率限制与定价差异,并留意可能的版本弃用/迁移公告。

如果你提供 CometAPI 中的具体模型 ID 或文档链接,我可以帮你核对对应的官方版本。
Apr 16, 2026
claude-opus-4-7

“Claude Opus”是 Anthropic 在 Claude 3 系列中的旗舰模型,侧重高难度推理、长文本处理与高精度指令执行,通常比 Sonnet/Haiku 更强但更慢、成本更高。 CometAPI 中出现的“Claude Opus 4.7”大概率是 CometAPI 自己的版本标签或别名,用来标记其对接的底层 Claude Opus 检查点/兼容层,并非 Anthropic 官方的大版本命名。Anthropic 官方通常使用诸如“Claude 3 Opus”(有时带日期或修订号)的命名。 你可以通过以下方式确认: - 在 CometAPI 的模型目录或“列出模型”接口查看该模型 ID 的底层提供方、上下文上限、发布日期与别名说明。 - 向 CometAPI 支持确认“4.7”具体映射到哪一版 Claude Opus(例如某个带日期的官方构建)。 使用建议: - 追求最高质量与复杂推理选 Opus;更注重速度/成本可选 Sonnet 或 Haiku。 - 注意 CometAPI 针对不同版本的上下文长度、速率限制与定价差异,并留意可能的版本弃用/迁移公告。 如果你提供 CometAPI 中的具体模型 ID 或文档链接,我可以帮你核对对应的官方版本。

Claude Opus 4.7 由 Anthropic 于 2026 年 4 月 16 日发布,是 Claude 4 系列中最新的旗舰混合推理模型。与 Opus 4.6 相比,它在包含 93 项任务的编码基准上提升了 13%,支持 1M token 上下文窗口、更高分辨率的视觉能力(最高 2,576 像素),以及面向复杂代理型工作流的自适应思维。在生产就绪的编码、长时间运行的任务和专业知识型工作方面表现出色,同时保持与其前代相同的定价(官方每百万 token $5/$25)。对于希望降低成本并通过统一 API 访问 500+ 模型的开发者,CometAPI 提供的 Claude Opus 4.7 仅需每百万 token 输入 $4 / 输出 $20——节省 20%——并向新用户提供免费 API 密钥和 1M 免费 token。
2026 年如何在 iPhone 上使用 ChatGPT:完整指南
Apr 14, 2026
chat-gpt

2026 年如何在 iPhone 上使用 ChatGPT:完整指南

要在 iPhone 上使用 ChatGPT,请从 App Store 下载免费的官方应用,登录(或以访客身份使用),然后开始聊天。若需更深度的集成,请在 Apple Intelligence & Siri 设置中启用它,以在 Siri 和 Writing Tools 中使用。更新到 iOS 26.4+ 以获得 CarPlay 语音支持。高级用户可以在 Safari 中访问网页版,或通过 CometAPI’s SDK 构建自定义解决方案。
DeepSeek v4 现已可通过网页使用:如何访问与测试
Apr 9, 2026
deepseek-v4

DeepSeek v4 现已可通过网页使用:如何访问与测试

DeepSeek V4 灰度测试已泄露,并正在官方 Web 平台以有限形式逐步推送。部分用户现已看到重新设计的界面,包含 **Fast Mode**(默认,高速日常使用)、**Expert Mode**(深度推理与复杂问题求解)和 **Vision Mode**(多模态图像与视频处理)。这是自 DeepSeek-V3.2 以来最重大的更新,据传配备 1 million token 的上下文窗口,同时带来更新的知识库、原生多模态能力,以及一套针对速度、逻辑与效率优化的全新底层架构。