Home/Models/OpenAI/GPT-5.2 Pro
O

GPT-5.2 Pro

入力:$16.8/M
出力:$134.4/M
文脈:400,000
最大出力:128,000
gpt-5.2-pro は、OpenAI の GPT-5.2 ファミリーにおける最高性能の本番運用向けモデルであり、最高の忠実度、多段階推論、広範なツール利用、そして OpenAI が提供する中で最大のコンテキスト/スループット上限を要求するワークロード向けに Responses API を通じて提供されます。
新着
商用利用
Playground
概要
機能
料金プラン
API

GPT-5.2-Pro とは

GPT-5.2-Pro は、OpenAI の GPT-5.2 ファミリーにおける「Pro」ティアで、最難関の課題(多段推論、複雑なコード、大規模文書の統合、プロフェッショナルな知識業務)を想定しています。Responses API で提供され、マルチターンの対話や高度な API 機能(ツーリング、推論モード、コンパクションなど)を有効にします。Pro バリアントは、スループットとコストを犠牲にして、回答品質の最大化と、難領域での安全性・一貫性の強化を優先します。

主な特長(gpt-5.2-pro がアプリケーションにもたらすもの)

  • 最高忠実度の推論: Pro は OpenAI の最高レベルの推論設定(xhigh を含む)をサポートし、レイテンシと計算資源を引き換えに、より深い内部推論パスと、思考連鎖スタイルの解法洗練を実現します。
  • 大規模コンテキスト・長文への強さ: 非常に長いコンテキストでも精度を維持するよう設計されています(ファミリー各種で 256k+ トークンまで OpenAI がベンチマーク)。法務/技術文書レビュー、エンタープライズのナレッジベース、長期稼働のエージェント状態に適したティアです。
  • より強力なツール/エージェント実行: ツール群を確実に呼び出せるよう設計(allowed-tools リスト、監査用フック、より豊富なツール統合)され、複数のサブツールや多段ワークフローをオーケストレーションする“メガエージェント”として機能します。
  • 事実性の向上と安全対策: GPT-5.2 は従来モデルに比べ、OpenAI の内部安全性指標で幻覚や望ましくない応答が顕著に減少したと報告されています。これはシステムカードの更新とターゲットを絞った安全性トレーニングにより支えられています。

技術的な能力と仕様(開発者向け)

  • API エンドポイントと可用性: Responses API の利用が Pro レベルのワークフローに推奨されます。開発者は推論に割り当てる内部計算量を調整するために reasoning.effort を none|medium|high|xhigh に設定できます。Pro は最高の xhigh フィデリティを提供します。
  • 推論エフォートレベル: none | medium | high | xhigh(Pro と Thinking は品質優先の実行に対して xhigh に対応)。このパラメータにより、品質とコスト/レイテンシのトレードオフが可能です。
  • コンパクションとコンテキスト管理: 新しいコンパクション機能により、API はモデルが「記憶」する内容を管理し、関連するコンテキストを保持しながらトークン使用量を削減できます—長い対話や文書ワークフローに有用です。
  • ツール群とカスタムツール: モデルはカスタムツールを呼び出せます(ツールへ生テキストを送信しつつ、モデル出力を制約)。5.2 のより強力なツール呼び出しとエージェント的パターンにより、複雑なシステムプロンプトの必要性が低減します。

ベンチマーク性能

以下は GPT-5.2 Pro の主要で再現性のある指標値(OpenAI の検証済み/内部結果)です。

  • GDPval(専門的業務ベンチマーク): GPT-5.2 Pro — 74.1%(勝利/同点)を GDPval スイートで達成 — GPT-5.1 から大幅な改善。多様な職種にわたる実際の経済タスクでの価値を近似するよう設計された指標です。
  • ARC-AGI-1(一般的推論): GPT-5.2 Pro — 90.5%(Verified)。このベンチマークで 90% を超えた最初のモデルと報告されています。
  • コーディングとソフトウェアエンジニアリング(SWE-Bench): 多段コード推論で大幅な向上。例として、SWE-Bench Pro public や SWE-Lancer(IC Diamond)は GPT-5.1 を上回る実質的な改善を示しています。ファミリーの代表値: SWE-Bench Pro public 約 55.6%(Thinking。Pro は内部実行でより高い結果が報告)。
  • 長文コンテキストでの事実性(MRCRv2): GPT-5.2 ファミリーは 4k–256k の範囲で高い検索性とニードル探索スコアを示します(例: MRCRv2 8 needles at 16k–32k: GPT-5.2 Thinking で 95.3%。Pro はさらに大きいウィンドウでも高精度を維持)。これらは長文コンテキストタスクへの耐性を示し、Pro のセールスポイントです。

gpt-5.2-pro の同類モデルおよび他の GPT-5.2 ティアとの比較

  • vs GPT-5.2 Thinking / Instant:: gpt-5.2-pro はレイテンシ/コストよりも忠実度と最大限の推論(xhigh)を優先します。gpt-5.2(Thinking)はより深い作業向けの中間に位置し、gpt-5.2-chat-latest(Instant)は低レイテンシなチャットに最適化されています。高付加価値で計算集約的なタスクには Pro を選択してください。
  • Google Gemini 3 および他のフロンティアモデルとの比較: GPT-5.2(ファミリー)は Gemini 3 に対する OpenAI の競合的な回答です。リーダーボードではタスク依存で勝者が変わります—大学院レベルの科学や専門ベンチマークでは GPT-5.2 Pro と Gemini 3 は拮抗し、狭いコーディングや専門領域では結果が変動します。
  • GPT-5.1 / GPT-5 との比較: Pro は GDPval、ARC-AGI、コーディング系ベンチマーク、長文コンテキスト指標で GPT-5.1 に対する実質的な向上を示し、新しい API 制御(xhigh 推論、コンパクション)を追加します。移行期間中、OpenAI は従来のバリアントを利用可能なまま維持します。

実用的なユースケースと推奨パターン

Pro の採用が適切な高付加価値ユースケース

  • 精度と多段推論が重要な複雑な財務モデリング、大規模スプレッドシートの統合・分析(投資銀行のスプレッドシート課題スコアの改善が OpenAI により報告)。
  • 400k トークンのコンテキストにより、レポート全体、付録、引用チェーンを保持できる長文の法務/科学的要約。
  • エンタープライズコードベース向けの高品質なコード生成と複数ファイルのリファクタリング(Pro のより高い xhigh 推論が多段のプログラム変換に寄与)。
  • カスタムツールを用い、堅牢なツール呼び出しを要する戦略立案、多段プロジェクトのオーケストレーション、エージェント的ワークフロー。

Thinking や Instant を選ぶべき状況

  • 高速で低コストな会話タスクやエディタ連携には Instant を選択。
  • より深いがレイテンシに敏感で、コスト制約がありつつ品質も重要な作業には Thinking を選択。

GPT-5.2 pro API のアクセスと利用方法

ステップ 1: API キーの取得

cometapi.com にログインしてください。まだユーザーでない場合は、まず登録してください。CometAPI コンソール にサインインします。インターフェース用のアクセス認証 API キーを取得します。パーソナルセンターの API トークンで「Add Token」をクリックし、トークンキー: sk-xxxxx を取得して送信します。

ステップ 2: GPT-5.2 pro API にリクエストを送信

API リクエストを送信する際は “gpt-5.2-pro” エンドポイントを選択し、リクエストボディを設定します。リクエスト方法およびリクエストボディは当社サイトの API ドキュメントから取得できます。当社サイトでは利便性のため Apifox テストも提供しています。<YOUR_API_KEY> をアカウントの実際の CometAPI キーに置き換えてください。呼び出し先: Responses-スタイルの API。

質問や依頼内容を content フィールドに挿入します—モデルはその内容に応答します。API レスポンスを処理して生成された回答を取得します。

ステップ 3: 結果の取得と検証

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクのステータスと出力データを返します。

関連情報 Gemini 3 Pro Preview API

よくある質問

Why does GPT-5.2 Pro only work with the Responses API?

GPT-5.2 Pro is exclusively available through the Responses API to enable multi-turn model interactions before responding to API requests, supporting advanced workflows like tool chaining and extended reasoning sessions that require persistent state management.

What reasoning effort levels does GPT-5.2 Pro support?

GPT-5.2 Pro supports three reasoning effort levels: medium, high, and xhigh—allowing developers to balance response quality against latency for complex problem-solving tasks.

How does GPT-5.2 Pro handle long-running requests?

Some GPT-5.2 Pro requests may take several minutes to complete due to the model's deep reasoning process. OpenAI recommends using background mode to avoid timeouts on particularly challenging tasks.

What tools can GPT-5.2 Pro access through the Responses API?

GPT-5.2 Pro supports web search, file search, image generation, and MCP (Model Context Protocol), but notably does not support code interpreter or computer use tools.

When should I choose GPT-5.2 Pro over standard GPT-5.2?

Choose GPT-5.2 Pro when your workload demands maximum fidelity, multi-step reasoning, or extensive tool orchestration—it's designed for production scenarios with the largest context and throughput budgets OpenAI offers.

GPT-5.2 Proの機能

GPT-5.2 Proのパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

GPT-5.2 Proの料金

GPT-5.2 Proの競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。GPT-5.2 Proがコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$16.8/M
出力:$134.4/M
入力:$21/M
出力:$168/M
-20%

GPT-5.2 ProのサンプルコードとAPI

GPT-5.2-Pro は、最も困難で高付加価値な知識および技術的タスク向けに設計された、OpenAI の GPT-5.2 ファミリーにおける最高品質のバリアントです。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

その他のモデル