基本情報と主な特長
GPT-5 mini は、OpenAI の コストとレイテンシに最適化された GPT-5 ファミリーのメンバーで、大幅に低コストで大規模な本番運用において GPT-5 のマルチモーダル性と指示追従の強みの多くを提供します。スループット、トークン単価の予測可能性、高速応答が主要制約となる環境をターゲットにしつつ、汎用性の高い能力を備えています。
- モデル名:
gpt-5-mini - コンテキストウィンドウ: 400 000 トークン
- 最大出力トークン数: 128 000
- 主な特長: 速度、スループット、コスト効率、簡潔なプロンプトに対する決定論的な出力
gpt-5-miniはどのように動作しますか?
最適化された推論パスとデプロイ。 実用的な高速化は、カーネル融合、より小さなグラフに調整されたテンソル並列、そして開発者がより深い推論を要求しない限り、より短い内部の「思考」ループを優先する推論ランタイムによって実現されます。これにより、呼び出しあたりの計算量が目に見えて減り、高トラフィックでもレイテンシが予測可能になります。このトレードオフは意図的なものです: フォワードパスあたりの計算量を低減 → コスト低下と平均レイテンシ低下。
開発者向けコントロール。 GPT-5 mini は、verbosity(詳細度/長さの制御)や**reasoning_effort(速度と深さのトレードオフ)といったパラメータに加え、堅牢なツール呼び出し**(関数呼び出し、並列ツールチェーン、構造化エラー処理)を提供し、本番システムが精度とコストのバランスを正確にチューニングできるようにします。
ベンチマーク性能 — 主要数値と解釈
GPT-5 mini は、一般的なベンチマークにおいて GPT-5 high の**約 85–95%**の位置にありつつ、レイテンシ/価格を大幅に改善します。プラットフォームのローンチ資料では、GPT-5 high が非常に高い絶対スコア(トップバリアントで AIME ≈ 94.6%)を示し、mini はやや低いものの、この価格帯としては依然として業界最高水準であると示されています。
さまざまな標準化ベンチマークおよび社内ベンチマークにおいて、GPT-5 mini は次を達成しています:
- 知能(AIME ’25): 91.1%(GPT-5 high は 94.6%)
- マルチモーダル(MMMU): 81.6%(GPT-5 high は 84.2%)
- コーディング(SWE-bench Verified): 71.0%(GPT-5 high は 74.9%)
- 指示追従(Scale MultiChallenge): 62.3%(vs. 69.6%)
- 関数呼び出し(τ²-bench telecom): 74.1%(vs. 96.7%)
- 幻覚率(LongFact-Concepts): 0.7%(低いほど良い)([OpenAI][4])
これらの結果は、パフォーマンス、コスト、速度の間で GPT-5 mini が堅牢なトレードオフを実現していることを示しています。
制限事項
既知の制限: GPT-5 mini は、完全版 GPT-5 と比べて深い推論能力が低下し、あいまいなプロンプトに対する感度が高く、幻覚のリスクが残っています。
- 深い推論の低下: 複数ステップで長期的な推論が必要なタスクでは、フルの推論モデルまたは「thinking」バリアントの方が mini を上回ります。
- 幻覚と過信: Mini は非常に小型のモデルと比べて幻覚を減らしていますが、排除はできていません。高リスクの業務(法務、医療、コンプライアンス)では出力の検証が必要です。
- 文脈感度: 非常に長く相互依存性の高いコンテキスト連鎖には、より大きなコンテキストウィンドウを持つ完全版 GPT-5 バリアントまたは「thinking」モデルが適しています。
- 安全性とポリシー制限: 他の GPT-5 モデルに適用されるのと同じ安全ガードレールおよびレート/使用制限が mini にも適用されます。センシティブなタスクには人による監督が必要です。
gpt-5-mini は何ができるか?
- 大規模会話エージェント: 低レイテンシ、予測可能なコスト。
- ドキュメント&マルチモーダル要約: 長文脈の要約、画像+テキストのレポート。
- 大規模な開発者向けツール: CI コードチェック、自動レビュー、軽量なコード生成。
- エージェントのオーケストレーション: 深い推論が不要な場合の並列チェーンによるツール呼び出し。
gpt-5-mini API の使い始め方
必要な手順
- cometapi.com にログインしてください。まだユーザーでない場合は、まず登録してください
- インターフェースのアクセス認証 API キーを取得します。パーソナルセンターの API トークンで「Add Token」をクリックし、トークンキー: sk-xxxxx を取得して送信します。
- このサイトの URL を取得します: https://api.cometapi.com/
使用方法
- “
gpt-5-mini“ / "gpt-5-mini-2025-08-07" エンドポイントを選択して API リクエストを送信し、リクエストボディを設定します。リクエスト方法とリクエストボディは当社サイトの API ドキュメントから取得できます。当社サイトは利便性のために Apifox テストも提供しています。 - <YOUR_API_KEY> を、アカウントの実際の CometAPI キーに置き換えてください。
- content フィールドに質問やリクエストを挿入します—モデルはこの内容に応答します。
- . API レスポンスを処理して生成された回答を取得します。
CometAPI は完全互換の REST API を提供します—シームレスな移行が可能です。主な詳細は API ドキュメント を参照してください:
- コアパラメータ:
prompt,max_tokens_to_sample,temperature,stop_sequences - エンドポイント: https://api.cometapi.com/v1/chat/completions
- モデルパラメータ: “
gpt-5-mini“ / "gpt-5-mini-2025-08-07" - 認証:
Bearer YOUR_CometAPI_API_KEY - Content-Type:
application/json.
API 呼び出し手順: gpt-5-chat-latest は標準の /v1/chat/completions format を使用して呼び出す必要があります。他のモデル(gpt-5、gpt-5-mini、gpt-5-nano、およびその日付付きバージョン)では、the /v1/responses format の使用が推奨です。現在は 2 つのモードが利用可能です。