モデルサポートエンタープライズブログ
500以上のAI Model API、オールインワンAPI。CometAPIで。
モデルAPI
開発者
クイックスタートドキュメントAPI ダッシュボード
リソース
AIモデルブログエンタープライズ変更履歴概要
2025 CometAPI. 全著作権所有。プライバシーポリシー利用規約
Home/Models/OpenAI/GPT-5.2 Pro
O

GPT-5.2 Pro

入力:$16.8/M
出力:$134.4/M
文脈:400,000
最大出力:128,000
gpt-5.2-pro は、OpenAI の GPT-5.2 ファミリーにおける最高性能の本番運用向けモデルであり、最高の忠実度、多段階推論、広範なツール利用、そして OpenAI が提供する中で最大のコンテキスト/スループット上限を要求するワークロード向けに Responses API を通じて提供されます。
新着
商用利用
Playground
概要
機能
料金プラン
API

GPT-5.2-Pro とは

GPT-5.2-Pro は、OpenAI の GPT-5.2 ファミリーにおける「Pro」ティアで、最難関の課題(マルチステップ推論、複雑なコード、大規模ドキュメントの統合、プロフェッショナルな知識業務)を想定しています。Responses API で提供され、マルチターン対話や高度な API 機能(ツール群、推論モード、コンパクションなど)を利用できます。Pro バリアントはスループットとコストを犠牲にして、回答品質を最大化し、困難な領域での安全性/一貫性を強化します。

主な機能(gpt-5.2-pro がアプリケーションにもたらすもの)

  • 最高忠実度の推論: Pro は OpenAI の最上位推論設定(xhigh を含む)をサポートし、レイテンシと計算資源を品質に振り向けて、より深い内部推論パスとチェーン・オブ・ソート風の解法洗練を実現します。
  • 大規模コンテキストと長文への高い適性: 非常に長いコンテキスト全体での正確性維持を目指して設計されており(ファミリーバリアントで 256k+ トークンまでをベンチマーク)、法務/技術文書レビュー、エンタープライズ知識ベース、長期稼働エージェントの状態管理に適しています。
  • より強力なツール/エージェント実行: ツールセットの確実な呼び出し(許可ツールリスト、監査フック、より豊富なツール統合)を前提に設計され、複数サブツールと多段ワークフローをオーケストレーションできる“メガエージェント”として機能します。
  • 事実性と安全対策の強化: GPT-5.2 は内部の安全性指標で、幻覚や望ましくない応答の大幅な減少が報告されており、システムカードの更新と対象を絞った安全性トレーニングに支えられています。

技術的な能力と仕様(開発者向け)

  • API エンドポイントと提供形態: Pro レベルのワークフローには Responses API の利用が推奨されます。開発者は reasoning.effort を none|medium|high|xhigh に設定して、推論に割り当てる内部計算量を調整できます。Pro は最上位の xhigh 忠実度を提供します。
  • 推論努力レベル: none | medium | high | xhigh(Pro と Thinking は品質優先実行で xhigh をサポート)。このパラメータにより、コスト/レイテンシと品質のトレードオフが可能です。
  • コンパクションとコンテキスト管理: 新しいコンパクション機能により、API はモデルが「記憶」する内容を管理し、関連コンテキストを保持しつつトークン使用量を削減できます。長い会話や文書ワークフローで有用です。
  • ツーリングとカスタムツール: モデルはカスタムツールを呼び出せ(生テキストをツールに送信しつつモデル出力を制約)、5.2 のより強力なツール呼び出し/エージェント的パターンにより、複雑なシステムプロンプトの必要性が軽減されます。

ベンチマーク性能

以下は GPT-5.2 Pro に関する、最も関連性が高く再現性のある主要数値(OpenAI の検証済み/内部結果)です。

  • GDPval(プロフェッショナル業務ベンチマーク): GDPval スイートでの勝利/同点率は GPT-5.2 Pro — 74.1%。GPT-5.1 からの大幅な改善。多職種にわたる実経済タスクでの価値を近似するための指標です。
  • ARC-AGI-1(汎用推論): GPT-5.2 Pro — 90.5%(検証済み)。このベンチマークで 90% を超えた最初のモデルと報告されました。
  • コーディング&ソフトウェアエンジニアリング(SWE-Bench): マルチステップのコード推論で大幅な向上。例として、SWE-Bench Pro public および SWE-Lancer(IC Diamond)で GPT-5.1 を上回る顕著な改善。代表的なファミリー数値:SWE-Bench Pro public ~55.6%(Thinking;Pro は内部実行でより高い結果が報告)。
  • 長コンテキスト事実性(MRCRv2): GPT-5.2 ファミリーは 4k–256k の範囲で高いリトリーバルとニードル探索スコアを示しました(例:MRCRv2、16k–32k における 8 needles:GPT-5.2 Thinking で 95.3%;Pro もより大きなウィンドウで高精度を維持)。これはファミリーの長コンテキスト耐性を示し、Pro のセールスポイントです。

gpt-5.2-pro の同世代および他の GPT-5.2 ティアとの比較

  • vs GPT-5.2 Thinking / Instant:: gpt-5.2-pro は忠実度と最大限の推論(xhigh)をレイテンシ/コストより優先します。gpt-5.2(Thinking)は深い作業向けの中間、gpt-5.2-chat-latest(Instant)は低レイテンシのチャット向けにチューニング。最高価値で計算集約的なタスクには Pro を選択してください。
  • Google Gemini 3 および他のフロンティアモデルとの比較: GPT-5.2(ファミリー)は OpenAI による Gemini 3 への競争的な応答。リーダーボードではタスク依存で勝者が変わります—大学院レベルの科学やプロフェッショナル系ベンチマークでは GPT-5.2 Pro と Gemini 3 は僅差で、狭いコーディングや専門領域では結果が変動し得ます。
  • GPT-5.1/GPT-5 との比較: Pro は GDPval、ARC-AGI、コーディング系ベンチマーク、長コンテキスト指標で GPT-5.1 より実質的に向上し、新たな API 制御(xhigh 推論、コンパクション)を追加。移行期間中は従来バリアントも提供され続けます。

実用ユースケースと推奨パターン

Pro の採用が有効な高付加価値ユースケース

  • 複雑なファイナンシャル・モデリング、大規模スプレッドシートの統合と分析(正確性とマルチステップ推論が重要)。投資銀行のスプレッドシート課題でのスコア改善が報告されています。
  • 長文の法務/科学ドキュメント要約・統合。400k トークンのコンテキストにより、報告書全体、付録、引用チェーンを保持可能。
  • 高品質なコード生成およびエンタープライズ規模コードベースの多ファイル・リファクタリング(Pro のより高い xhigh 推論が多段のプログラム変換に寄与)。
  • 戦略立案、多段のプロジェクト・オーケストレーション、カスタムツールを用いるエージェント的ワークフローで、堅牢なツール呼び出しが求められる場面。

Thinking や Instant を選ぶべきケース

  • 低レイテンシの会話タスクやエディタ統合には Instant を選択。
  • レイテンシに敏感でコスト制約があるものの品質が重要な深い作業には Thinking を選択。

GPT-5.2 pro API へのアクセスと利用方法

ステップ 1: API キーの取得

cometapi.com にログインします。未登録の場合は先に登録してください。CometAPI console にサインインします。インターフェースのアクセス認証である API キーを取得します。個人センターの API token で「Add Token」をクリックし、トークンキー(sk-xxxxx)を取得して送信します。

ステップ 2: GPT-5.2 pro API へリクエストを送信

“gpt-5.2-pro” エンドポイントを選択して API リクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは当社サイトの API ドキュメントをご参照ください。当社サイトでは Apifox テストも提供しています。アカウントの実際の CometAPI キーで <YOUR_API_KEY> を置き換えてください。呼び出し先: Responses-style APIs。

質問や依頼内容を content フィールドに挿入します—モデルはこの内容に応答します。API レスポンスを処理し、生成された回答を取得します。

ステップ 3: 結果の取得と検証

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクステータスと出力データを返します。

参照 Gemini 3 Pro Preview API

よくある質問

Why does GPT-5.2 Pro only work with the Responses API?

GPT-5.2 Pro は、API リクエストに応答する前にマルチターンのモデル対話を可能にし、永続的な状態管理を要するツール連鎖や拡張推論セッションといった高度なワークフローをサポートするため、Responses API を通じてのみ提供されています。

What reasoning effort levels does GPT-5.2 Pro support?

GPT-5.2 Pro は推論の負荷レベルとして medium、high、xhigh の3段階をサポートしており、開発者は複雑な問題解決タスクにおいて応答品質とレイテンシのバランスを取ることができます。

How does GPT-5.2 Pro handle long-running requests?

モデルの深い推論処理により、GPT-5.2 Pro への一部のリクエストは完了までに数分かかる場合があります。特に難易度の高いタスクではタイムアウトを避けるため、OpenAI はバックグラウンドモードの使用を推奨しています。

What tools can GPT-5.2 Pro access through the Responses API?

GPT-5.2 Pro は、ウェブ検索、ファイル検索、画像生成、MCP(Model Context Protocol)をサポートしますが、コードインタープリタやコンピューター操作ツールはサポートしていません。

When should I choose GPT-5.2 Pro over standard GPT-5.2?

最大限の忠実性、マルチステップ推論、または大規模なツールのオーケストレーションを要するワークロードでは GPT-5.2 Pro を選択してください—これは、OpenAI が提供する最大のコンテキストとスループットの予算を前提とした本番シナリオ向けに設計されています。

GPT-5.2 Proの機能

GPT-5.2 Proのパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

GPT-5.2 Proの料金

GPT-5.2 Proの競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。GPT-5.2 Proがコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$16.8/M
出力:$134.4/M
入力:$21/M
出力:$168/M
-20%

GPT-5.2 ProのサンプルコードとAPI

GPT-5.2-Pro は、最も難易度が高く価値の高い知識および技術タスク向けに設計された、OpenAI の GPT-5.2 ファミリーにおける最高品質のバリアントです。
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

async function main() {
  const response = await client.responses.create({
    model: "gpt-5.2-pro",
    input: "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning: {
    effort: "high"
  }
  });

  console.log(response.output_text);
}

main();

Curl Code Example

curl https://api.cometapi.com/v1/responses \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "gpt-5.2-pro",
    "input": "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    "reasoning": {
        "effort": "high"
    }
}'

その他のモデル

A

Claude Opus 4.6

入力:$4/M
出力:$20/M
Claude Opus 4.6 は、Anthropic の「Opus」クラスの大規模言語モデルで、2026年2月にリリースされた。ナレッジワークや研究ワークフローの主力として位置づけられており、長文脈での推論、多段階の計画立案、ツールの利用(エージェント型ソフトウェアワークフローを含む)、およびスライドやスプレッドシートの自動生成といったコンピュータ操作タスクを強化する。
A

Claude Sonnet 4.6

入力:$2.4/M
出力:$12/M
Claude Sonnet 4.6 は、これまでで最も高性能な Sonnet モデルです。コーディング、コンピューターの利用、長文脈推論、エージェントの計画立案、ナレッジワーク、デザインにわたってモデルのスキルを全面的にアップグレードしました。Sonnet 4.6 は、ベータ版で 1M トークンのコンテキストウィンドウも備えています。
O

GPT-5.4 nano

入力:$0.16/M
出力:$1/M
GPT-5.4 nano は、分類、データ抽出、ランキング、サブエージェントなど、速度とコストが最も重要となるタスク向けに設計されています。
O

GPT-5.4 mini

入力:$0.6/M
出力:$3.6/M
GPT-5.4 mini は、GPT-5.4 の強みを、高スループットのワークロード向けに設計された、より高速で効率的なモデルにもたらします。
A

Claude Mythos Preview

A

Claude Mythos Preview

近日公開
入力:$60/M
出力:$240/M
Claude Mythos Preview は、当社のこれまでで最も高性能なフロンティアモデルであり、 従来のフロンティアモデルである Claude Opus 4.6 と比べ、多くの評価ベンチマークでスコアが顕著に向上していることを示しています。
X

mimo-v2-pro

入力:$0.8/M
出力:$2.4/M
MiMo-V2-Pro は Xiaomi のフラッグシップ基盤モデルで、総パラメータ数は 1T 超、コンテキスト長は 1M で、エージェント志向のシナリオ向けに徹底的に最適化されています。OpenClaw のような汎用エージェントフレームワークに高い適応性を備えており、標準的な PinchBench および ClawBench ベンチマークで世界トップクラスに位置し、体感パフォーマンスは Opus 4.6 に迫ります。MiMo-V2-Pro はエージェントシステムの頭脳として、複雑なワークフローをオーケストレーションし、本番環境のエンジニアリングタスクを推進し、確実に成果を提供するよう設計されています。

関連ブログ

ChatGPTはPowerPointのプレゼンテーションを作成できますか?
Mar 26, 2026
chat-gpt

ChatGPTはPowerPointのプレゼンテーションを作成できますか?

過去2年間で、AIツールは「スライドのテキスト作成を手伝って」から「完全な .pptx を組み立ててエクスポートする」へと進化し、OpenAI と Microsoft の双方が、ワンクリック、またはそれに近い操作で PowerPoint を作成可能にする機能を追加した。もはや問いは「AI は仕事を手伝えるか?」ではなく「AI は私の仕事のどれだけを代行できるか?」だ。最も要望の多いタスクのひとつがスライドデッキの作成であり、これはビジネスコミュニケーションにおける普遍的な通貨だ。何年にもわたり、ユーザーは「Hey ChatGPT、プレゼンテーションを作って」といったシンプルなコマンドを夢見てきた。2026年には、その夢はこれまで以上に現実に近づいているが、すべてのプロフェッショナルが理解すべきニュアンスが伴う。
Cursor vs Claude Code vs Codex:2026年、Vibe Codingに向いているのはどれ?
Feb 2, 2026

Cursor vs Claude Code vs Codex:2026年、Vibe Codingに向いているのはどれ?

急速に進化する Vibe Code 開発の世界では、最も生産的で直感的かつ信頼性の高いワークフローを可能にするツールはどれかについて、開発者たちの議論が交わされている。本日の比較では、主要な3つのエージェント — Cursor、Claude Code、OpenAI Codex — を正面から比較し、“vibe coding”という新たなパラダイム、価格、機能、運用、利用、そして実環境での性能に焦点を当てる。
APIなしでローカルの LLM 上で openClaw (Moltbot/ Clawdbot ) を実行する方法
Feb 1, 2026
clawdbot
openclaw

APIなしでローカルの LLM 上で openClaw (Moltbot/ Clawdbot ) を実行する方法

OpenClaw — オープンソースの AI アシスタントで、Clawdbot(短期間は Moltbot)として生まれ — は、その永続的な記憶、ローカルへの深いアクセス、幅広いメッセージング連携によって一躍脚光を浴びました。その人気により、クラウド API に依存せずにこのシステムを運用する方法についての疑問が生じました。解決策は、インターネット接続やサブスクリプション料金を一切必要とせず、ollama またはその他を介してローカルの大規模言語モデル(LLMs)上で OpenClaw を実行することにあります。
Openclaw(Moltbot /Clawdbot) : セットアップガイド+ API ホスティングチュートリアル
Jan 29, 2026
clawdbot

Openclaw(Moltbot /Clawdbot) : セットアップガイド+ API ホスティングチュートリアル

Moltbot — インターネット上では以前 Clawdbot として知られていた — は、2026年1月下旬に、DIYで構築できる自律型のパーソナルアシスタントとしてタイムライン上に爆発的に登場した: あなたに代わって実際にタスクを実行し、受信トレイの整理、コマンドの実行、ローカルファイルの検索を行い、そしてお好みのチャットアプリ(Telegram、WhatsApp、Discord、iMessage など)を通じて応答する。
初心者が“Vibe Coding”で小さなモバイルアプリを作成する方法
Jan 28, 2026
vibe-coding

初心者が“Vibe Coding”で小さなモバイルアプリを作成する方法

初心者が小さなモバイルアプリを Vibe Coding で作るうえで重要なのは、勢いと感覚だ: とても小さなアイデア(カウンターやシンプルなToDoアプリなど)から始め、扱いやすいフレームワークやツール(Codex、Cursor など)を選び、クリーンなコードにこだわらずにとにかく最速で動くものを作り、その後はスマホでテストしながら感覚に従ってUIやインタラクションを調整する。行き詰まったら考え込みすぎず、検索したりAIに尋ね、動いて感触が良いと感じたら、そこで止めてリリースする。目標は完璧さではなく、フロー感と自信だ。