Home/Models/OpenAI/GPT-5.2 Codex
O

GPT-5.2 Codex

入力:$1.4/M
出力:$11.2/M
文脈:400,000
最大出力:128,000
GPT-5.2-Codex は、Codex などの環境におけるエージェント型のコーディングタスクに最適化された GPT-5.2 のアップグレード版です。GPT-5.2-Codex は、推論エフォート設定として low、medium、high、xhigh をサポートします。
新着
商用利用
Playground
概要
機能
料金プラン
API

GPT 5.2 Codex の技術仕様

項目GPT-5.2-Codex(公開仕様)
モデルファミリーGPT-5.2(Codex バリアント — コーディング/エージェント最適化)。
入力形式テキスト、画像(スクリーンショット/図のためのビジョン入力)。
出力形式テキスト(コード、説明、コマンド、パッチ)。
コンテキストウィンドウ400,000 トークン(超長コンテキスト対応)。
最大出力トークン数128,000(呼び出しごと)。
推論努力のレベルlow, medium, high, xhigh(内部推論/計算リソースの割り当てを制御)。
ナレッジカットオフ2025年8月31日(モデルの学習カットオフ)。
親ファミリー/バリアントGPT-5.2 ファミリー: gpt-5.2 (Thinking), gpt-5.2-chat-latest (Instant), [gpt-5.2-pro (Pro)]; Codex はエージェント的コーディング向けに最適化されたバリアントです。

GPT-5.2-Codex とは

GPT-5.2-Codex は、プロフェッショナルなソフトウェアエンジニアリングのワークフローと防御的サイバーセキュリティ業務のために設計された GPT-5.2 ファミリーの派生モデルです。長文コンテキスト推論、ツール呼び出しの信頼性、ビジョン理解といった GPT-5.2 の汎用強化点を基盤に、大規模リファクタリング、リポジトリ規模の編集、ターミナル操作、エンジニアリングで一般的なスクリーンショット/図の解釈といった現実的なエージェント的コーディングに向けた追加のチューニングと安全制御を備えています。

GPT-5.2 Codex の主な機能

  • 非常に長いコンテキストの処理: 400k トークンのウィンドウにより、リポジトリ全体、長い課題履歴、複数ファイルの差分をコンテキストを失うことなく横断的に推論可能。
  • ビジョン + コード: 複数言語にわたるコードの生成・リファクタ・移行に対応。従来の Codex バリアントと比べて大規模リファクタおよび多ファイル編集が得意。改善されたビジョンにより、デバッグセッションで共有されるスクリーンショット、図、チャート、UI を解釈可能—フロントエンドのデバッグや UI バグのリバースエンジニアリングに有用。
  • エージェント性/ターミナル対応能力: ターミナル作業やエージェントワークフロー(コンパイル、テスト実行、依存関係のインストール、コミット作成)での学習とベンチマーク済み。コンパイルフローの実行、パッケージインストールのオーケストレーション、サーバー構成、ターミナルコンテキストが与えられた際の開発環境手順の再現などを実演。Terminal-Bench でベンチマーク済み。
  • 構成可能な推論努力: 複雑な課題で内部計算/ステップをより多く割り当てる xhigh モードによる深い多段階問題解決。

GPT-5.2 Codex のベンチマーク性能

OpenAI の報告では、エージェント的コーディング課題におけるベンチマーク結果の改善が示されています。

  • SWE-Bench Pro: 約 56.4% の精度(GPT-5.2-Codex のリリース後に報告)。
  • Terminal-Bench 2.0: 約 64% の精度(ターミナル/エージェント課題セット)。

(これらは、エージェント的コーディング能力を評価する複雑でリポジトリ規模のベンチマークにおける総合的な課題成功率の報告値です。)

GPT-5.2-Codex と他モデルの比較

  • vs GPT-5.2(汎用): Codex は GPT-5.2 の専門チューニング版。同じ中核的改善点(長文コンテキスト、ビジョン)に加え、エージェント的コーディング(ターミナル操作、リファクタリング)に向けた追加の学習/最適化を実施。多ファイル編集、ターミナル堅牢性、Windows 環境との互換性での向上が期待できます。
  • vs GPT-5.1-Codex-Max: GPT-5.2-Codex は Windows での性能、コンテキスト圧縮、ビジョンを強化。5.2 のベンチマークは、前世代と比較して SWE-Bench Pro と Terminal-Bench での改善を示しています。
  • vs 競合モデル(例:Google Gemini ファミリー): GPT-5.2 は多くの長期的かつマルチモーダルな課題で Gemini 3 Pro と同等または優位。Codex の実用上の強みは、エージェント的コーディングの最適化と IDE 連携。ただし、リーダーボードの順位や優劣は課題や評価手法に依存します。

代表的なエンタープライズ用途

  1. 大規模リファクタリングとマイグレーション — Codex は、セッションをまたいで高レベルの意図を維持しつつ、多ファイルのリファクタリングと反復的なテストシーケンスを管理できます。
  2. 自動コードレビューと修正 — リポジトリ全体を推論し、パッチを実行/検証できる能力により、自動 PR レビュー、修正提案、回帰検知に適しています。
  3. DevOps/CI のオーケストレーション — Terminal-Bench の改善により、サンドボックス化されたフローでのビルド/テスト/デプロイ手順の確実なオーケストレーションが期待できます。
  4. 防御的サイバーセキュリティ — 脆弱性の迅速なトリアージ、検証のためのエクスプロイト再現、防御系 CTF など(注:厳格なアクセス制御が必要)。
  5. 設計 → プロトタイプのワークフロー — モック/スクリーンショットを機能的なフロントエンドのプロトタイプに変換し、対話的に反復。

GPT-5.2 Codex API の利用方法

ステップ 1: API キーの登録

cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI コンソール にサインインします。インターフェースのアクセス認証 API キーを取得します。個人センターの API トークンで「Add Token」をクリックし、トークンキー(sk-xxxxx)を取得して送信します。

cometapi-key

ステップ 2: GPT 5.2 Codex API にリクエストを送信

“gpt-5.2-codex” エンドポイントを選択して API リクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは当社ウェブサイトの API ドキュメントに記載されています。便利な Apifox テストも提供しています。<YOUR_API_KEY> をアカウントの実際の CometAPI キーに置き換えます。ベース URL は Responses です。

質問やリクエストを content フィールドに挿入します—モデルが応答するのはこの内容です。API レスポンスを処理して生成された回答を取得します。

ステップ 3: 結果の取得と検証

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクのステータスと出力データを返します。

よくある質問

What is the knowledge cutoff for GPT-5.2-Codex?

GPT-5.2-Codexの知識カットオフは2025年8月31日で、それ以前に公開された最新のフレームワーク、ライブラリ、プログラミングパターンをカバーしています。

How does GPT-5.2-Codex compare to GPT-5.1-Codex?

GPT-5.2-Codexにはxhighのreasoning effortレベルと、強化されたエージェント型コーディング機能が追加されています。入力価格は100万トークンあたり1.75ドルで、GPT-5.1-Codexの100万トークンあたり1.25ドルに対して高くなっています。どちらもResponses APIが必要です。

Can GPT-5.2-Codex process images for code review?

はい、GPT-5.2-Codexは、コードレビュー時にUIスクリーンショット、図、アーキテクチャフローチャート、エラー画面のスクリーンショットを分析するための画像入力を受け付けます。

What is the context window limit for GPT-5.2-Codex API?

GPT-5.2-Codexは40万トークンのコンテキストウィンドウをサポートし、最大12万8,000トークンの出力が可能です。これにより、単一のセッションで大規模なコードベースの分析やリファクタリングを行えます。

What reasoning effort levels does GPT-5.2-Codex API support?

GPT-5.2-Codexは4つのreasoning effortレベル、low、medium、high、xhighをサポートしており、タスクの複雑さに応じて応答速度とコード品質のバランスを取ることができます。

Why is GPT-5.2-Codex only available through the Responses API?

GPT-5.2-CodexはCodex環境におけるエージェント型コーディングタスク向けに最適化されており、これらにはマルチターン推論、ツールオーケストレーション、長期的なタスク実行のためにResponses APIが必要です。Chat Completions APIには対応していません。

Does GPT-5.2-Codex support function calling and structured outputs?

はい、GPT-5.2-Codexは、高度なコーディングエージェントを構築するために、Responses APIを通じてfunction calling、structured outputs、streamingを完全にサポートしています。

GPT-5.2 Codexの機能

GPT-5.2 Codexのパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

GPT-5.2 Codexの料金

GPT-5.2 Codexの競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。GPT-5.2 Codexがコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$1.4/M
出力:$11.2/M
入力:$1.75/M
出力:$14/M
-20%

GPT-5.2 CodexのサンプルコードとAPI

GPT-5.2 Codexの包括的なサンプルコードとAPIリソースにアクセスして、統合プロセスを効率化しましょう。詳細なドキュメントでは段階的なガイダンスを提供し、プロジェクトでGPT-5.2 Codexの潜在能力を最大限に活用できるよう支援します。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.2-codex",
    input="Write a short Python function that checks if a string is a palindrome.",
)

print(response.output_text)

その他のモデル