基本情報と主な特長
GPT-5 mini は GPT-5 ファミリーのうち、コストとレイテンシに最適化されたモデルで、大規模な本番運用において 大幅に低いコストで GPT-5 のマルチモーダル能力と指示追従性の多くを提供します。スループット、トークン単価の予測可能性、高速応答が主要制約となる環境を対象にしつつ、汎用性の高い強力な機能を備えています。
- モデル名:
gpt-5-mini - コンテキストウィンドウ: 400 000 tokens
- 最大出力トークン数: 128 000
- 主な特長: 高速、スループット、コスト効率、簡潔なプロンプトに対する決定論的出力
gpt-5-mini はどのように動作しますか?
最適化された推論経路とデプロイ。 実用的な高速化は、カーネル融合、より小さなグラフに最適化されたテンソル並列、および開発者が深い推論を要求しない限り 内部の「思考」ループを短めに保つ推論ランタイムによってもたらされます。これにより、mini は呼び出しあたりの計算量が明確に少なくなり、大量トラフィックでもレイテンシが予測可能になります。このトレードオフは意図的なものです:順伝播あたりの計算量が少ない → コスト低減と平均レイテンシ低減。
開発者向けコントロール。 GPT-5 mini は verbosity(詳細度/長さを制御)や reasoning_effort(速度と深さのトレードオフ)といったパラメータに加え、堅牢なツール呼び出し(関数呼び出し、並列ツールチェーン、構造化エラー処理)を提供し、本番システムで精緻に精度とコストを調整できます。
ベンチマーク性能 — 主要数値と解釈
GPT-5 mini は一般的なベンチマークで、レイテンシ/価格を大幅に改善しつつ、通常 GPT-5 high のおよそ 85–95% に位置します。プラットフォームのローンチ資料では、GPT-5 high に非常に高い絶対スコア(トップバリアントで AIME ≈ 94.6%)が示され、mini はそれよりやや低いものの価格帯としては依然として業界最先端です。
標準化ベンチマークおよび社内ベンチマークの幅広い範囲で、GPT-5 mini は次を達成しています:
- 知能(AIME ’25):91.1%(GPT-5 high は 94.6%)
- マルチモーダル(MMMU):81.6%(GPT-5 high は 84.2%)
- コーディング(SWE-bench Verified):71.0%(GPT-5 high は 74.9%)
- 指示追従(Scale MultiChallenge):62.3%(対 69.6%)
- 関数呼び出し(τ²-bench telecom):74.1%(対 96.7%)
- 幻覚率(LongFact-Concepts):0.7%(低いほど良い)([OpenAI][4])
これらの結果は、GPT-5 mini が性能・コスト・速度の間で堅牢なトレードオフを実現していることを示しています。
制限事項
既知の制限: GPT-5 mini は、フル版 GPT-5 と比べて深い推論能力が抑えられており、曖昧なプロンプトに対する感度が高く、幻覚のリスクが残っています。
- 深い推論の低下: 複数ステップの長期的な推論タスクでは、フルの推論モデルまたは「思考」バリアントが mini を上回ります。
- 幻覚と過剰な自信: mini は非常に小型のモデルと比べて幻覚を抑制しますが、排除はできません。高リスク領域(法務、臨床、コンプライアンス)では検証が必要です。
- コンテキスト感度: 非常に長く相互依存の強いコンテキスト鎖は、より大きなコンテキストウィンドウや「思考」モデルを備えるフル GPT-5 バリアントが適しています。
- 安全性とポリシー上の制限: 他の GPT-5 モデルと同じセーフティガードとレート/使用制限が適用されます。センシティブなタスクには人による監督が必要です。
gpt-5-mini は何ができるのか?
- 大量同時会話エージェント: 低レイテンシ、予測可能なコスト。
- ドキュメント & マルチモーダル要約: 長文コンテキストの要約、画像+テキストのレポート。
- 大規模な開発ツール: CI コードチェック、自動レビュー、軽量なコード生成。
- エージェントオーケストレーション: 深い推論が不要な場合の並列チェーンを伴うツール呼び出し。
gpt-5-mini API の使い方
必要な手順
- cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。
- インターフェースのアクセス認証 API キーを取得します。個人センターの API token で「Add Token」をクリックし、トークンキー: sk-xxxxx を取得して送信します。
- 本サイトの URL を取得します: https://api.cometapi.com/
使い方
- “
gpt-5-mini“ / "gpt-5-mini-2025-08-07" エンドポイントを選択して API リクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは当社サイトの API ドキュメントから取得できます。利便性のために Apifox テストも提供しています。 - <YOUR_API_KEY> をアカウントの実際の CometAPI キーに置き換えます。
- content フィールドに質問またはリクエストを挿入します—モデルはこれに応答します。
- API 応答を処理して、生成された回答を取得します。
CometAPI は移行をシームレスに行える完全互換の REST API を提供します。詳細は API doc を参照してください:
- コアパラメータ:
prompt,max_tokens_to_sample,temperature,stop_sequences - エンドポイント: https://api.cometapi.com/v1/chat/completions
- モデルパラメータ: “
gpt-5-mini“ / "gpt-5-mini-2025-08-07" - 認証:
Bearer YOUR_CometAPI_API_KEY - Content-Type:
application/json
API 呼び出し手順: gpt-5-chat-latest は標準の /v1/chat/completions format を使用して呼び出す必要があります。その他のモデル(gpt-5、gpt-5-mini、gpt-5-nano とその日付付きバージョン)については、the /v1/responses format の使用が推奨されています。現在、2 つのモードが利用可能です。