Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

輸入:$0.2/M
輸出:$1.6/M
上下文:400K
最大輸出:128K
GPT-5 mini 是 OpenAI 針對成本與延遲優化的 GPT-5 系列成員,旨在以顯著更低的成本,為大規模生產使用提供 GPT-5 在多模態與指令遵循方面的絕大部分優勢。它面向以吞吐量、可預測的每 token 定價與快速回應為主要約束的環境,同時仍提供強大的通用能力。
新
商業用途
Playground
概覽
功能
定價
API

基本資訊與關鍵功能

GPT-5 mini 是 OpenAI 的 成本與延遲優化 版 GPT-5 系列成員,旨在以顯著更低的成本滿足大規模生產使用,同時提供 GPT-5 在多模態與指令遵循方面的大部分優勢。它針對以 吞吐量、可預測的逐 token 定價、以及 快速回應 為主要約束的環境,同時仍具備強大的通用能力。

  • 模型名稱: gpt-5-mini
  • 上下文視窗: 400 000 tokens
  • 最大輸出 Token 數: 128 000
  • 關鍵特性: 速度、吞吐量、成本效率、針對精簡提示具確定性輸出

「gpt-5-mini」如何運作?

優化的推論路徑與部署。 實際的加速來自於 算子融合(kernel fusion)、為較小計算圖調校的張量並行(tensor parallelism),以及除非開發者要求更深度的推理,否則偏好較短內部「思考」迴圈的推論執行時。這也是 mini 能在高流量情境下實現更低的單次呼叫計算量與可預測延遲的原因。這種取捨是刻意為之:較低的單次前向傳遞計算量 → 較低成本與較低平均延遲。

開發者控制項。 GPT-5 mini 提供如 verbosity(控制細節/長度)與 reasoning_effort(在速度與深度間取捨)等參數,以及健全的 工具呼叫 支援(函式呼叫、平行工具鏈、結構化錯誤處理),使生產系統可精準調校準確度與成本之間的平衡。

基準表現 — 重點數據與解讀

GPT-5 mini 在一般基準上通常位於 GPT-5 high 的 約 85–95%,同時大幅改善延遲/價格。平台發佈資料指出 GPT-5 high 擁有非常高的絕對分數(最高變體的 AIME 報告值約為 94.6%),而 mini 略低,但在其價格帶仍為業界領先。

在多項標準化與內部基準中,GPT-5 mini 達成:

  • 智能(AIME ’25):91.1%(vs. GPT-5 high 的 94.6%)
  • 多模態(MMMU):81.6%(vs. GPT-5 high 的 84.2%)
  • 程式設計(SWE-bench Verified):71.0%(vs. GPT-5 high 的 74.9%)
  • 指令遵循(Scale MultiChallenge):62.3%(vs. 69.6%)
  • 函式呼叫(τ²-bench telecom):74.1%(vs. 96.7%)
  • 幻覺率(LongFact-Concepts):0.7%(越低越好)([OpenAI][4])

這些結果展現了 GPT-5 mini 在效能、成本與速度之間的穩健取捨。

限制

已知限制: GPT-5 mini 相較完整 GPT-5 之深度推理能力降低,對歧義提示更敏感,且仍存在幻覺風險。

  • 深度推理降低: 在多步驟、長跨度推理任務上,完整推理模型或「思考」變體優於 mini。
  • 幻覺與過度自信: 相較非常小的模型,mini 降低了幻覺,但未能完全消除;在高風險流程(法務、臨床、合規)中應驗證輸出。
  • 情境敏感性: 極長且高度相互依賴的上下文鏈更適合擁有更大上下文視窗的完整 GPT-5 變體或「思考」模型。
  • 安全與政策限制: 與其他 GPT-5 模型一致的安全護欄與頻率/用量限制同樣適用於 mini;敏感任務需有人為監督。

「gpt-5-mini」能做什麼?

  • 高量對話代理: 低延遲、可預測成本。
  • 文件與多模態摘要: 長上下文摘要、圖文報告。
  • 大規模開發者工具: CI 程式碼檢查、自動審查、輕量代碼生成。
  • 代理協作編排: 在不需深度推理時,支援具平行鏈的工具呼叫。

如何開始使用 gpt-5-mini API?

必要步驟

  • 登入 cometapi.com。若尚未成為用戶,請先註冊
  • 取得介面存取憑證的 API 金鑰。在個人中心的 API token 處點擊 “Add Token”,取得 token key:sk-xxxxx 並提交。
  • 取得本站的 url: https://api.cometapi.com/

使用方式

  1. 選擇 “gpt-5-mini“ / "gpt-5-mini-2025-08-07" 端點發送 API 請求並設定 request body。請求方法與 request body 可於我們網站的 API doc 取得。我們的網站也提供 Apifox 測試以便使用。
  2. 將 <YOUR_API_KEY> 替換為你帳戶中的實際 CometAPI 金鑰。
  3. 將你的問題或請求填入 content 欄位—模型將回應該內容。
  4. . 處理 API 回應以獲得生成的答案。

CometAPI 提供完全相容的 REST API—以便無縫遷移。關鍵細節請參考 API doc:

  • Core Parameters: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Model Parameter: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Authentication:  Bearer YOUR_CometAPI_API_KEY 
  • Content-Type: application/json .

API 呼叫說明:gpt-5-chat-latest 應使用標準的 /v1/chat/completions format 進行呼叫。對於其他模型(gpt-5、gpt-5-mini、gpt-5-nano 及其日期版),使用 the /v1/responses format is recommended。目前提供兩種模式。

GPT-5 mini 的功能

探索 GPT-5 mini 的核心功能,專為提升效能和可用性而設計。了解這些功能如何為您的專案帶來效益並改善使用者體驗。

GPT-5 mini 的定價

探索 GPT-5 mini 的競爭性定價,專為滿足各種預算和使用需求而設計。我們靈活的方案確保您只需為實際使用量付費,讓您能夠隨著需求增長輕鬆擴展。了解 GPT-5 mini 如何在保持成本可控的同時提升您的專案效果。
彗星價格 (USD / M Tokens)官方價格 (USD / M Tokens)折扣
輸入:$0.2/M
輸出:$1.6/M
輸入:$0.25/M
輸出:$2/M
-20%

GPT-5 mini 的範例程式碼和 API

GPT-5 mini 是 OpenAI 旗艦 GPT-5 模型的輕量、成本優化變體,旨在以更低延遲與成本提供高品質推理與多模態能力。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

更多模型