Home/Models/OpenAI/GPT-5.2 Codex
O

GPT-5.2 Codex

輸入:$1.4/M
輸出:$11.2/M
上下文:400,000
最大输出:128,000
GPT-5.2-Codex 是 GPT-5.2 的升级版,针对 Codex 或类似环境中的代理型编码任务进行了优化。GPT-5.2-Codex 支持 low、medium、high 和 xhigh 的推理力度设置。
新
商用
Playground
概览
功能亮点
定价
API

GPT 5.2 Codex 的技术规格

项目GPT-5.2-Codex(公开规格)
模型家族GPT-5.2(Codex 变体——针对编码/代理能力优化)。
输入类型文本、图像(用于屏幕截图/图示的视觉输入)。
输出类型文本(代码、说明、命令、补丁)。
上下文窗口400,000 个标记(超长上下文支持)。
最大输出标记数128,000(每次调用)。
推理力度级别low、medium、high、xhigh(用于控制内部推理/计算资源分配)。
知识截止日期2025 年 8 月 31 日(模型训练截止)。
父系列/变体GPT-5.2 系列: gpt-5.2 (Thinking), gpt-5.2-chat-latest (Instant), gpt-5.2-pro (Pro); Codex 是针对代理式编码优化的变体。

什么是 GPT-5.2-Codex

GPT-5.2-Codex 是 GPT-5.2 家族的定制派生版本,面向专业软件工程工作流和防御性网络安全任务。它在 GPT-5.2 的通用能力增强(更强的长上下文推理、工具调用可靠性与视觉理解)的基础上,加入针对现实世界代理式编码的额外调优与安全控制:大型重构、仓库级编辑、终端交互,以及对工程中常见的屏幕截图/图示的解读。

GPT-5.2 Codex 的主要特性

  • 超长上下文处理:400k 标记窗口使得跨完整代码仓库、冗长问题历史或多文件 diff 的推理成为可能,且不丢失上下文。
  • 视觉 + 代码:可在多种语言间生成、重构和迁移代码;相比此前的 Codex 变体,更擅长大型重构与多文件编辑。改进的视觉能力可解读调试会话中共享的屏幕截图、图表和 UI 界面——对前端调试与 UI 缺陷逆向分析十分有用。
  • 代理式/终端能力:针对终端任务与代理工作流(编译、运行测试、安装依赖、进行提交)进行了训练与基准评测。已展示在提供终端上下文时运行编译流程、编排包安装、配置服务器、复现开发环境步骤的能力。已在 Terminal-Bench 上进行评测。
  • 可配置推理力度:xhigh 模式用于深度、多步骤问题求解(当任务复杂时分配更多内部计算/步骤)。

GPT-5.2 Codex 的基准表现

OpenAI 的报告称,在代理式编码任务上的基准成绩有所提升:

  • SWE-Bench Pro:在大型真实世界软件工程任务上约为 56.4% 的准确率(在 GPT-5.2-Codex 发布后报告)。
  • Terminal-Bench 2.0:在终端/代理任务集上约为 64% 的准确率。

(上述为用于评估代理式编码能力的复杂、仓库级基准上的汇总任务成功率。)

GPT-5.2-Codex 与其他模型的比较

  • 相较于 GPT-5.2(通用):Codex 是 GPT-5.2 的专项调优版本:具备相同的核心改进(长上下文、视觉),并在代理式编码(终端操作、重构)上进行了额外训练/优化。预计在多文件编辑、终端稳健性以及 Windows 环境兼容性方面表现更佳。
  • 相较于 GPT-5.1-Codex-Max:GPT-5.2-Codex 在 Windows 性能、上下文压缩与视觉方面有所提升;5.2 的基准报告显示,相比前代在 SWE-Bench Pro 和 Terminal-Bench 上有所改进。
  • 相较于竞品(如 Google Gemini 系列):GPT-5.2 在许多长周期与多模态任务上与 Gemini 3 Pro 旗鼓相当或更胜一筹。Codex 的实用优势在于其代理式编码优化与 IDE 集成;不过,排行榜位置与优劣仍取决于任务与评测协议。

代表性企业用例

  1. 大规模重构与迁移——Codex 能在长会话中管理多文件重构与迭代测试,同时保持高层意图的一致性。
  2. 自动化代码评审与修复——Codex 能够跨仓库进行推理并运行/验证补丁,适用于自动化 PR 审核、建议修复与回归检测。
  3. DevOps / CI 编排——Terminal-Bench 的改进表明,其在沙盒流程中对构建/测试/部署步骤的编排更可靠。
  4. 防御性网络安全——更快的漏洞分诊、为验证而复现实验性利用,以及在受控、审计环境中的防御型 CTF 工作(注意:需要严格的访问控制)。
  5. 设计 → 原型工作流——将原型图/屏幕截图转化为可用的前端原型,并进行交互式迭代。

如何访问 GPT-5.2 Codex API

步骤 1:注册获取 API 密钥

登录 cometapi.com。如果你还不是我们的用户,请先注册。登录你的 CometAPI 控制台。获取接口的访问凭证 API Key。在个人中心的 API Token 处点击“Add Token”,获取令牌密钥:sk-xxxxx 并提交。

cometapi-key

步骤 2:向 GPT 5.2 Codex API 发送请求

选择 “gpt-5.2-codex” 端点发送 API 请求并设置请求体。请求方法与请求体请从我们网站的 API 文档获取。我们的网站也提供 Apifox 测试,便于使用。将 <YOUR_API_KEY> 替换为你账号中的实际 CometAPI 密钥。Base URL 为 Responses。

将你的问题或请求插入 content 字段——模型会对其作出响应。处理 API 响应以获取生成的答案。

步骤 3:获取并验证结果

处理 API 响应以获取生成的答案。处理完成后,API 会返回任务状态与输出数据。

常见问题

What is the knowledge cutoff for GPT-5.2-Codex?

GPT-5.2-Codex 的知识截止日期为 2025 年 8 月 31 日,涵盖该日期之前发布的现代框架、库和编程模式。

How does GPT-5.2-Codex compare to GPT-5.1-Codex?

GPT-5.2-Codex 新增了 xhigh 推理强度级别,并增强了智能体式编码能力。输入价格为 1.75 美元/百万 tokens,而 GPT-5.1-Codex 为 1.25 美元/百万 tokens。两者都需要 Responses API。

Can GPT-5.2-Codex process images for code review?

可以,GPT-5.2-Codex 支持图像输入,可在代码审查期间分析 UI 截图、图表、架构流程图和报错截图。

What is the context window limit for GPT-5.2-Codex API?

GPT-5.2-Codex 支持 400,000 tokens 的上下文窗口,最多可输出 128,000 tokens,能够在单个会话中分析和重构大型代码库。

What reasoning effort levels does GPT-5.2-Codex API support?

GPT-5.2-Codex 支持四种推理强度级别:low、medium、high 和 xhigh,让你可以根据任务复杂度在响应速度和代码质量之间进行权衡。

Why is GPT-5.2-Codex only available through the Responses API?

GPT-5.2-Codex 针对 Codex 环境中的智能体式编码任务进行了优化,而这类任务需要 Responses API 来支持多轮推理、工具编排和长程任务执行。不支持 Chat Completions API。

Does GPT-5.2-Codex support function calling and structured outputs?

是的,GPT-5.2-Codex 通过 Responses API 完全支持 function calling、结构化输出和流式传输,可用于构建复杂的编码智能体。

GPT-5.2 Codex 的功能

了解 GPT-5.2 Codex 的核心能力,帮助提升性能与可用性,并改善整体体验。

GPT-5.2 Codex 的定价

查看 GPT-5.2 Codex 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
輸入:$1.4/M
輸出:$11.2/M
輸入:$1.75/M
輸出:$14/M
-20%

GPT-5.2 Codex 的示例代码与 API

获取完整示例代码与 API 资源,简化 GPT-5.2 Codex 的集成流程,我们提供逐步指导,助你发挥模型潜能。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.2-codex",
    input="Write a short Python function that checks if a string is a palindrome.",
)

print(response.output_text)

更多模型