GPT-5 是 OpenAI 最新的旗艦語言模型,被呈現為統一的多模態推理系統,在 reasoning、coding、long-context understanding 與 safety-aware outputs 等方面較前代有提升。它結合快速的非推理組件、較深層的推理模型,以及可即時選擇最優子模型的路由器,使系統能夠“知道何時該思考”。
基本功能
- *多模態與工具:*: GPT-5 可接受 文字與圖像(並設計為在允許的情況下可與外部工具與瀏覽/代理協作),OpenAI 強調改進了 語音、UI、整合連接器(例如,Gmail/Calendar) 與代理化工作流程。
- 擴充上下文視窗: 支援最多 1,000,000 tokens,可處理更長的文件、程式碼庫或對話歷史。
- 上下文與限制: 400K token 總上下文視窗(在輸入與輸出之間隱式分配,常見分配如 ~272K 輸入 + 128K 輸出)
技術架構
GPT-5 是一個由以下部分組成的統一系統:
- 用於日常查詢的快速非推理模型。
- 面向複雜問題的深度推理變體(“GPT-5 Thinking”)。
- 依據提示複雜度、工具需求與使用者意圖動態選擇最佳路徑的即時路由器。
此設計在 GPT-5 Pro 中利用平行測試時計算,確保高風險任務獲得最全面的處理。
基準表現
- Coding: 在 SWE-Bench Verified 上達到 74.9%,超過先前模型逾 5 個百分點,且較前代使用 少 22% 的 tokens 與 少 45% 的工具調用。
- Health: 在 HealthBench Hard 取得 46.2%,在醫學推理與以病患為中心的指引方面有顯著提升。
- Factuality: 與 OpenAI o3 相比,在“thinking”模式下約少 80% 的幻覺;相較 GPT-4o,在標準聊天模式下少 45% 的事實性錯誤。
- Multimodal: 擅長分析文字、圖像與影片輸入,增強視覺推理與感知。
- Writing: 更可靠地把握文學節奏與自由詩、抑揚格等細膩結構。

模型版本
| 版本 | 用途 | 費用 |
|---|---|---|
| gpt-5 | 預設的統一模型 | Input Tokens:$1.00 Output Tokens: $8.00 |
| gpt-5-2025-08-07 | 效能等同於 gpt-5 | Input Tokens:$1.00 Output Tokens: $8.00 |
| gpt-5-chat-latest | GPT-5 Chat 指向目前在 ChatGPT 中使用的 GPT-5 快照。GPT-5 是我們下一代、高智慧的旗艦模型。 | Input Tokens:$1.00 Output Tokens: $8.00 |
侷限
- 非 AGI:雖有飛躍,但 GPT-5 仍不具備持續學習與自我改進(訓練週期之外)。
- 仍存幻覺:儘管有所降低,針對關鍵決策仍建議使用經核實的來源。
- 計算與成本:高效能模式(Pro、Thinking)會產生顯著的 token 費用,需謹慎預算管理。
如何開始使用 gpt-5 API?
必要步驟
- 登錄 cometapi.com。若您尚非我們的使用者,請先註冊
- 取得介面的存取憑證 API key。於個人中心的 API token 點擊 “Add Token”,取得 token key:sk-xxxxx 並提交。
- 取得本站的 url:https://api.cometapi.com/
使用方法
- 選擇 “
gpt-5” endpoint 發送 API 請求並設定請求本文。請求方法與請求本文可於我們的網站 API 文件取得。我們也提供 Apifox 測試以利使用。 - 將 <YOUR_API_KEY> 替換為您帳號中的實際 CometAPI 金鑰。
- 在 content 欄位插入您的問題或請求——模型將對此做出回應。
- . 處理 API 回應以取得產生的答案。
CometAPI 提供完全相容的 REST API——以便無縫遷移。重點詳見 API doc:
- 核心參數:
prompt、max_tokens_to_sample、temperature、stop_sequences - Endpoint: https://api.cometapi.com/v1/responses
- 模型參數: “
gpt-5” - 認證方式:
Bearer YOUR_CometAPI_API_KEY - Content-Type:
application/json。
API 呼叫說明:gpt-5-chat-latest 應使用標準的 /v1/chat/completions format。對於其他模型(gpt-5、gpt-5-mini、gpt-5-nano 及其日期版本),建議使用 the /v1/responses format is recommended。目前提供兩種模式。