GPT-5.4 APIの使い方:パラメータとツールの使用ガイド

CometAPI
AnnaMar 7, 2026
GPT-5.4 APIの使い方:パラメータとツールの使用ガイド

2026年3月5〜7日、OpenAI はプロフェッショナル向けのドキュメント中心かつエージェント的ワークフローに明示的に最適化された最先端モデルである GPT-5.4 を一般公開しました。今回のリリースは、次の3つの収斂する進歩を強調しています。(1) 大幅に拡大されたコンテキストウィンドウ(約1,050,000トークン)、(2) 開発者が内部の推論努力を制御できる新しい「reasoning」機能、(3) 一級のコンピュータ操作/ツールオーケストレーションと、マルチモーダル理解(テキスト+画像+スクリーンショット)の改善。これらの機能により、GPT-5.4 はスプレッドシートのモデリング、契約レビュー、スライド作成、マルチステップのエージェント的ワークフロー、ライブシステムを操作するコードの記述といったタスクに特に適しています。

GPT-5.4CometAPI で体験できます。より高い計算リソースを使う上位版 — GPT-5.4 Pro — は最も難度の高い推論やマルチターンのワークロード向けに利用可能です。

GPT-5.4 とは(ThinkingPro のバリアントを含む)

モデルファミリーの概要

GPT-5.4 は、長文ドキュメント、コード、マルチステップの推論、エージェント的ワークフローといった複雑なプロフェッショナル業務に位置づけられた「フロンティア」な GPT-5 モデルです。今回のリリースでは、これまで Codex(コーディング)と GPT ラインに分かれていた能力が統合され、コード、推論、ツール使用、長いコンテキスト管理を1つのモデルで実現します。公式ガイドでは、ほとんどの用途のデフォルトとして gpt-5.4、最難関の問題には gpt-5.4-pro が推奨されています。

公式の主な仕様:

  • コンテキストウィンドウ: 約1,050,000トークン(英語の約70〜80万語)。草稿本全体、複数ファイルのコードベース、長大な法務文書などの入力が可能。
  • 最大出力トークン: 非常に大きな出力をサポート(例:一部の Pro 構成で最大128,000トークンとの報告)。
  • バリアント: gpt-5.4(デフォルト)、gpt-5.4-pro(より高い計算リソース、長い思考)、コスト重視の軽量/ミニモデル。

「Thinking」と「Pro」の説明

  • GPT-5.4 Thinking: 対話的推論に特化したモード。計画先行のワークフローを重視し、本出力の前に短い計画(“upfront plan”)を提示して生成中の舵取りを可能にし、誤った方向へのトークン浪費を減らします。長時間タスクにおけるステップの可視化と制御性が向上します。
  • GPT-5.4 Pro: 最難関の問題向けの高計算版。より深いチェーン・オブ・ソート、より大きな内部計算予算、難しいベンチマークでのより決定的で安定した結果を目指します。Responses API にて提供され、マルチターンの重い推論タスクを想定(レイテンシとコストは高め)。

GPT-5.4 の主な改善点と新機能

大規模コンテキストウィンドウ(約1,050,000トークン)

これは目玉の改善点の1つです。本や複数ファイルからなるコードベース、エンタープライズの文書セット全体をストリーミング分割せずに取り込み、推論できるモデル。実務上は、エンドツーエンドの契約レビュー、全文書の要約、複数文書のQ&Aなどが簡素化されます。ユースケース:法務デューデリジェンス、技術監査、エージェントログ。

実務メモ: より大きなコンテキストウィンドウはシステム設計を変えます。アグレッシブなチャンク分割の代わりに、より多くの「グローバル状態」を文脈に保持できますが、コストを合理的に保つために圧縮(Parameter Control 参照)は依然として有用です。

ネイティブなコンピュータ操作とツール統合

GPT-5.4 は、ブラウザや OS のアクション列(Playwright スクリプト、キーボード/マウス操作)を生成し、スクリーンショットを読み取り、ウェブ UI と対話し、マルチツールのワークフローをオーケストレーションできるネイティブのコンピュータ操作機能を備えた初の汎用モデルです。これは、実タスクをエンドツーエンドで実行する自律エージェント構築への大きな一歩です。

GPT-5.4 には組み込みのコンピュータ操作が含まれます。ローカル/リモートのソフトウェアエージェントと対話し、コネクタを呼び出し、スプレッドシートを操作し、スクリーンショットを撮り、許可された範囲でマルチステップのワークフローを自動化できます。これによりグルーコードが減り、壊れやすい指示ラッパーを作る代わりに、ドキュメント化されたツール API を用いてビルド→実行→検証→修正のループ(エージェント的行動)を回せます。安全で実用的な自律エージェントに向けた大きな前進です。

推論モードと reasoning.effort

調整可能な reasoning.effort パラメータにより、モデルがチェーン・オブ・ソートや解探索に投じる内部計算量を制御できます(nonelowmediumhighxhigh)。高度なタスクでは精度向上と引き換えにコストとレイテンシが増加します。gpt-5.4-pro に最適です。

事前計画/インタラクティブなプラン

「Upfront plan」により、モデルは長い生成の実行前に短い計画を出力できます。開発者やユーザーはその計画を確認・修正でき、無駄な出力を最小化し、タスク途中での方向転換を可能にします(長文ドキュメント作成やマルチステップ分析に最適)。

マルチモーダル/ドキュメント能力の向上

モデルに付随するベンチマークや社内評価では、スプレッドシートタスクで大きな向上が見られます(社内スプレッドシート評価の例:GPT-5.4 平均 87.3% vs GPT-5.2 68.4%)。また、プレゼンテーション出力の人間による選好でも改善(人間評価で GPT-5.2 と比べ GPT-5.4 のプレゼンが 68% 選好)。さらに、事実誤りの減少も報告されています(個々の主張の誤り率が約33%低下、全体応答の誤り率が約18%低下、いずれも GPT-5.2 比)。

GPT-5.4 API の使い方(Responses API / Chat API)

GPT-5.4 pro はレスポンスアクセスのみをサポート。 GPT-5.4(thinking)はチャットとレスポンスをサポート。CometAPI(割引付きで大規模モデル API を一元提供するアグリゲーションプラットフォーム)は GPT-5.4 シリーズを提供し、2つのアクセス方法と互換性のある便利なプレイグラウンドを用意しています。

注: GPT-5.x モデルの統合には Responses API が推奨です。推論パラメータ、ツール登録、より大きなコンテキストサイズを直接サポートします。

Python — Responses API(例)

# pip install openai (or use the official package named in docs)
from openai import OpenAI
import os

api_key = os.environ.get("OPENAI_API_KEY")  # or set env var
client = OpenAI(api_key=api_key)

resp = client.responses.create(
     model="gpt-5.4-pro-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},          # hidden internal reasoning tokens used
    max_output_tokens=4096,               # keep below max output limit for your use case
    temperature=0.0,                      # deterministic for legal/technical tasks
    tools=[                                # optionally register tools the model can call
        {
            "name": "file_search",
            "type": "file_search",
            "config": {"root": "/mnt/data/contracts"}
        }
    ],
    response_format={"type":"json", "json_schema":{
        "name":"redlines",
        "schema":{"type":"object","properties":{"summary":{"type":"string"},"redlines":{"type":"array","items":{"type":"object"}}}}
    }}
)

print(resp.output_text)  # final model answer

Notes: reasoning は内部努力の制御、tools はモデルが呼び出せるツールインターフェースの登録、response_format は構造化出力の強制に用います。reasoning.effort で利用可能なラベル値は、SDK とプロバイダのサポートに応じて none(最速)から xhigh(最大の内部努力)まで。簡易な要約には低い努力を、複雑でマルチステップのタスクにはより高い努力を指定します。

Crul— chat API(例)

curl --location --request POST 'https://api.cometapi.com/v1/chat/completions' \
--header 'Authorization: Bearer ' \
--header 'Content-Type: application/json' \
--data-raw '{
  "model": "gpt-5.2\4",
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant."
    },
    {
      "role": "user",
      "content": "Hello!"
    }
  ]
}'

GPT-5.4 でツールを使う(コンピュータ操作、コネクタ、エージェント)

GPT-5.4 の実践的な飛躍は、エージェント的でツール認識的な振る舞いです。許可された状況で適切なツールを発見・呼び出し、スプレッドシートや UI を操作し、実行するアクションを推論できます。

GPT-5.4 はツールとの連携を前提に設計されています。考慮すべきツールの主要クラスは3つあります。

  1. ホスト型ツール(例:web_searchfile_search)— モデルがレスポンスループの一部として呼び出せます。最新情報の取得やベクトルDB検索に最適。
  2. カスタムツール/関数呼び出し — 独自のサーバーエンドポイントや関数スキーマ。関数(スキーマ)を宣言することで、モデルは構造化された出力を返し、コード側で実行できます。
  3. コンピュータ操作 — モデルが GUI アクションを出力し、ハーネスがそれを実行(クリック、入力、スクリーンショット)。強力ですが高リスク

多数(数十〜数百)のツールがある場合は tool_search を渡し、実行時にモデルが関連ツールスキーマを発見できるようにします。これによりトークン使用量が減り、デプロイ全体でのキャッシュ効率も向上します。

ツール統合の仕組み(概念)

  1. ツール発見: カタログに基づいて(Google Sheets、Salesforce、社内DB など)利用可能なコネクタを見つける。
  2. 計画と許可: モデルがどのツールをなぜ呼ぶかを説明する事前計画を出力し、レビューと承認を受ける。
  3. 呼び出しと検証: モデルがコネクタまたはアクション API 経由でツールを呼び、結果を読み取り、検証チェックを実施(または人的確認を要請)。
  4. 修復ループ: 失敗時には修正を試みるか、指示を求める。

このパターンは脆弱なカスタムオーケストレーションを減らし、ロジックをモデルに集約しますが、厳格なアクセス制御と監査ログが必要です。

ツールによる呼び出し(web_search / file_search / computer use)

Responses API は tools 配列の受け渡しをサポートします。モデルにツール選択を任せる(web_searchfile_search のようなホスト型ツール)ことも、事前宣言して制限することもできます。例:モデルにウェブ検索を使わせる。

response = client.responses.create(    model="gpt-5.4",    input="What are the three most-cited 2025 papers on federated learning?",    tools=[{"type": "web_search", "name": "web_search"}],    tool_search={"enabled": True})

多数のツール定義を渡す場合、tool_search により GPT-5.4 はほとんどのツールを読み込み「延期」し、関連するものだけを読み込みます。大規模なツールエコシステムに不可欠です。

GPT-5.4 パラメータ互換性と制御ガイド

従来の LLM パラメータは存在しますが、推論モードによって制限されます。

コア GPT-5.4 API パラメータ

reasoning.effort: GPT-5.4 を呼び出す際に完全サポートかつ推奨されるパラメータです。最終出力生成前にモデルが実行する内部推論の度合いを制御します。

対応値:

nonelowmediumhighxhigh

例:

response = client.responses.create(    model="gpt-5.4",    reasoning={"effort": "high"},    input="Explain the Nash equilibrium in game theory.")

効果:

挙動
none最速の応答
low軽量な推論
mediumデフォルトのバランス
high強力な推論
xhigh最大の推論深度

推論努力を高めると一般に増加するもの:

  • 回答精度
  • 推論トークン
  • レイテンシ
  • コスト

デフォルトレベルは通常 medium です。

ツール

モデルが呼び出せるツールを定義します。tools + tool_search

  • tool_search はツール定義の読み込みを遅延させ効率化します。大規模ツールセットでは有効化を推奨。
  • tools はツール定義(web_search、file_search、カスタム RPC)を宣言します。

サポートされる組み込みツールには次が含まれます:

  • web search
  • file search
  • code interpreter
  • image generation

例:

tools=[{
   "name":"get_weather",
   "description":"Get current weather",
   "parameters":{
      "type":"object",
      "properties":{
         "city":{"type":"string"}
      }
   }
}

サンプリングパラメータ(ランダム性の制御)

重要な互換性ルール: reasoning.effort ≠ none の場合、一部のサンプリングパラメータはサポートされないことがあります。reasoning.efforthigh の場合、要求が失敗するか temperature が無視されることがあります。

GPT-5.4 モデルは次のパラメータを無効化します:

  • temperature
  • top_p
  • logprobs

これは推論モデルが内部でサンプリングを制御するためです。

  1. temperature トークンサンプリングのランダム性を制御。
効果
0.0決定的
0.2–0.4安定
0.7バランス
1.0高い創造性

例:

{ "model": "gpt-5.4", "temperature": 0.2, "reasoning": { "effort": "none" }}

reasoning.efforthigh の場合、要求が失敗するか temperature が無視されることがあります。

  1. top_p: ニュークリアスサンプリングのパラメータ。
意味
0.9上位90%確率のトークンを考慮
0.5保守的な生成
1.0全分布を考慮
  1. stop: 特定のトークンに遭遇した際に生成を停止。

有用な用途:

  • コード生成
  • ツールパイプライン
  • チャット区切り

Verbosity:応答の長さを制御

GPT-5 系モデル(GPT-5.4 を含む)から、いくつかの新しいパラメータが登場しました。

値:

lowmediumhigh

例:

verbosity="high"

ユースケース:

挙動
low簡潔な回答
mediumバランス
high詳細な説明

このパラメータはトークン上限をいじらずに出力長を制御する助けになります。

GPT-5.4 のパラメータ差異

以下は簡易な互換性表です。

パラメータreasoning:nonereasoning:low+
temperature✗ / 無視
top_p
logprobs
max_output_tokens
tools
tool_choice
verbosity
reasoning.effort

GPT-5.4 と GPT-5.4-Pro のパラメータ・機能比較

機能GPT-5.4GPT-5.4-Pro
推論の柔軟性none → xhigh の全範囲medium → xhigh のみ
レイテンシ低い高い(複雑タスクは数分かかる場合あり)
コスト低い追加計算により高い
バックグラウンド実行の推奨任意長時間タスクでは推奨
サポートされる推論レベルnone, low, medium, high, xhighmedium, high, xhigh

本番導入におけるベストプラクティス

1) 小さく始め、推論を段階的に増やす

  • レイテンシ重視のエンドポイントでは reasoning.effort=none/low + text.verbosity=low から開始。
  • 複雑なフローでは、コストと精度の A/B 測定後に medium、さらに high へ段階的に移行。

2) プログラム処理には構造化出力を優先

モデルに関数スキーマや Pydantic/JSON スキーマで機械可読な出力を返させ、下流のパースエラーを減らします。

3) 重要な意思決定は人間を介在

金銭、法的帰結、個人データが関わるワークフローは、外部作用が生じる前に人間の承認を必須に。

4) 露出する機能を制限

allowed_tools のリスト(デフォルト拒否)ときめ細かなツール権限を使用。コンピュータ操作では厳格なアクションのホワイトリストを施行。

5) コストとトークンの予算管理

max_output_tokenstext.verbosity を用いてコストを予測可能に。非常に大きなコンテキストでも、適宜ページングや圧縮を活用してください—100万トークンあっても、圧縮/選択戦略はコスト削減に有効です。

最後に — 移行と次のステップ

GPT-5.4 は、より多く「考え」、ソフトウェアを横断して「作業」し、非常に大きなコンテキストを「扱える」AI システムの構築に向けた意味のある前進です。多くのチームにとって推奨される移行パスは次の通りです。

  1. サンドボックス内で gpt-5.4 エイリアスを使い、(契約レビュー、スライド作成など)ワークフローの一部で試作
  2. これまでのモデルと比較して、タスク精度、トークン使用量、レイテンシ、コストを計測
  3. 構造化出力、ツールガード、リスクの高いフローでの人的承認を追加して堅牢化
  4. コストやレイテンシ要件が選択を左右する場合、CometAPI の API 割引が解決に寄与する可能性があります。

開発者は GPT-5.4GPT-5.4-pro、API を CometAPI から今すぐ利用可能です。まずは Playground でモデルの機能を試し、詳細は API guide を参照してください。アクセス前に、CometAPI にログインし API キーを取得してください。CometAPI は公式価格より大幅に低い価格を提供し、統合を支援します。

Ready to Go?→ Sign up fo GPT-5.4 today !

AI に関するヒント、ガイド、ニュースをさらに知りたい方は、VKXDiscord をフォローしてください!

トップモデルを 低コストで利用

もっと読む