OpenAI 推出的 GPT-5 秉承了其一貫的目標——更高的準確性、速度和開發者控制力——但同時帶來了一組全新的 API 參數和工具集成,這些參數和集成改變了團隊設計提示、調用模型以及將模型連接到外部運行時的方式。本文將闡述關鍵變化,展現具體的使用模式,並給予安全、經濟高效地採用 GPT-XNUMX 的最佳實務。
我應該了解哪些新的 GPT-5 模型、參數和工具?
什麼是 GPT-5?
OpenAI 現在發布了多種版本的 GPT-5,以便開發人員可以權衡延遲、成本和功能: gpt-5 (完整推理模型), gpt-5-mini (平衡),以及 gpt-5-nano (低成本、低延遲)。這些規模可讓您選擇最適合短查詢、批次或重推理任務的模型。 ChatGPT 中的 GPT-5 呈現為一個具有「思考」元件的系統,並且 API 版本直接針對推理模型供開發人員使用。
新的 API 參數(進階)
一些改變控制輸出和成本方式的表面參數特別值得注意:
- 新參數:
verbosity(低/中/高)控制答案的長度/形狀,以及reasoning_effort(現在:minimal,low,medium,high)來控制模型在回復之前的思考量。使用minimal當你想要速度而不是深層的思路時。 - 最小/推理模式 — 當需要更深層的思考鏈時,可以選擇更快、更低推理的回應(適用於簡短的事實檢索)而不是擴展推理(「思考」)。
- 長上下文和標記: GPT-5 支援非常大的上下文(總共約 400k 個標記:約 272k 個輸入 + 文件中的 128k 個輸出)-可用於大型文件、程式碼庫或長時間對話。
這些參數讓您可以在呼叫層級調整品質、延遲和成本之間的權衡,而不僅僅是透過選擇模型大小。
新的工具類型和原始有效載荷支持
GPT-5 最實用的新增功能之一是 custom 工具類型 允許模型發送 原始文字有效載荷 到您的工具運行時(例如:Python 腳本、SQL 語句、shell 命令或任意配置文字),而無需 JSON 包裝的函數呼叫。這減少了將模型掛接到沙盒、解釋器或資料庫時的摩擦,並支援更豐富的「按需軟體」模式。
限制輸出: 您可以強制執行語法/契約(上下文無關語法,CFG),以確保工具有效負載在執行時間語法有效。並行工具呼叫 + CFG 可讓您安全地自動化多步驟代理工作流程。
如何呼叫API中的新參數和工具?
(使用官方 Python SDK 模式 from openai import OpenAI 以及文件中的 Responses API。 )
1)設定詳細程度+推理努力
from openai import OpenAI
client = OpenAI(
base_url="https://api.cometapi.com/v1/responses",
api_key="<YOUR_CometAPI_KEY>",
)
resp = client.responses.create(
model="gpt-5",
input="Summarize the following meeting notes in one short paragraph: ...",
parameters={
"verbosity": "low", # low / medium / high
"reasoning_effort": "minimal", # minimal / low / medium / high
"max_output_tokens": 200
}
)
print(resp.output_text) # SDK convenience property aggregates returned text
當您需要延遲 + 簡潔性時,這會返回一個簡短、快速的答案。
2)使用原始文字有效負載(自由格式)呼叫自訂工具
# Example: send a raw SQL query (not JSON) to your "sql_runner" custom tool
from openai import OpenAI
client = OpenAI(
base_url="https://api.cometapi.com/v1/responses",
api_key="<YOUR_CometAPI_KEY>",
)
resp = client.responses.create(
model="gpt-5",
input="Fetch the average order value for last month and return a SQL query only.",
tools=[
{
"name": "sql_runner",
"type": "custom",
"description": "Executes raw SQL and returns results."
}
],
parameters={
"verbosity": "medium"
}
)
# The model can emit text that the tool receives directly (raw SQL)
# How your backend receives and executes the model->tool payload depends on your webhook/runtime.
print(resp.output_text)
如果 SQL 必須遵循嚴格的語法或允許的模式,請使用 CFG。 (,)
3)範例:使用 CFG 要求約束輸出
# Pseudocode / conceptual example for attaching a grammar to a tool call.
client.responses.create(
model="gpt-5",
input="Generate a safe shell command to list .txt files.",
tools=[{
"name":"shell_exec",
"type":"custom",
"description":"Runs a shell command in a sandbox",
"grammar": "COMMAND -> 'ls' ' ' DIR_FILTER; DIR_FILTER -> '*.txt' | '-la *.txt'"
}],
parameters={"verbosity":"low"}
)
grammar/CFG 確保 GPT-5 僅輸出運行器所接受的允許命令模式。
如何註冊並使用 custom 發送原始有效載荷的工具?
custom 工具是在你在系統中註冊工具時定義的。該工具接收純文字(而非結構化的 JSON),因此你的運行時必須準備好解析和驗證它。
- 註冊工具 (伺服器端;偽定義):
{
"name": "code_executor",
"type": "custom",
"description": "Runs Python code in a sandbox and returns output or errors."
}
- 模型呼叫工具 — 範例輔助指令(當模型想要呼叫工具時產生的內容):
<tool name="code_executor">
print(run_tests_on_module('payment_processor'))
</tool>
- 您的運行時執行 安全地(沙盒)傳輸原始文本,將輸出字串傳回給 API 或代理循環,然後模型使用返回的文本繼續對話。
GPT-5 的新選項該如何推動工程變革?
我什麼時候應該使用“思考”(擴展推理)而不是最小反應?
對於需要逐步推理、多階段規劃或必須遵循約束的程式碼產生的任務,請使用思考/擴展推理模式。保留最小推理或 mini/nano 適用於短查詢、檢索任務和大規模負載(例如,對多個候選人進行評分)。當準確性至關重要(金融、法律、診斷)時,優先選擇更高推理能力/默認 gpt-5 並新增後續檢查。 OpenAI 仍然強調 GPT-5 不是 AGI——它增強了能力,但並非完美的真相來源——因此請相應地選擇推理模式。
將 GPT-5 與外部執行時間和工具整合的最佳實踐是什麼?
我應該如何設計工具運行時架構?
- 隔離 工具執行環境:每個請求的臨時容器或專用沙盒進程。
- 速率限制和配額 工具使用與模型 API 分開,以控製成本和風險。
- 審核日誌:記錄工具的輸入、輸出以及模型呼叫該工具進行事後分析和合規的決定。
- 錯誤處理:設計運行時傳回結構化的錯誤程式碼和簡短的人類可讀訊息,以便模型可以重試、回退或解釋錯誤。
哪些安全控制是不可或缺的?
- 靜態分析 對於以原始文字形式接收的程式碼,將允許的模組和執行時間 API 列入白名單。
- 網路隔離 以及嚴格的貨櫃出口規則。
- 機密管理 — 永遠不要將服務帳戶金鑰直接暴露給模型;如果需要遠端訪問,請使用後端產生的臨時令牌。
- 人機迴路門控 適用於高風險操作(金融交易、部署)。這些是工具支援代理的標準安全模式。
實用技巧和最佳實踐
- 挑
verbosity不及時手術。 使用verbosity調整長度/細節程度,而不是重複重寫提示。 - 使用
reasoning_effort用於成本/延遲權衡。 套裝minimal用於快速事實檢索或使用者介面,high用於複雜的推理任務。 - 工具安全: 在執行模型之前,請務必驗證/轉義其發出的任何原始文字。使用 CFG 和伺服器端清理作為第二道防線。 (Cookbook 警告了工具安全實踐。)
- 並行工具呼叫: 為了提高速度,您可以同時呼叫多個工具(例如,網頁搜尋 + 資料庫查詢),然後讓模型綜合結果。這非常適合代理流。
- 當您需要時,結構化輸出。 如果您的消費者需要 JSON,請使用結構化輸出/JSON Schema 支援。只有當原始文字對於目標運行時來說更自然時,才使用自由格式。
- 串流和長輸出: 在產生長輸出時使用串流處理(尤其是具有巨大令牌預算的輸出)。
如何測量、測試和優化效能和成本?
我應該追蹤哪些指標?
- 每個請求的令牌數 每次通話費用 (使用模型大小+詳細程度來估計)。
- 延遲時間(p95/p99) 錯誤率 — 特別是對於觸發外部工具執行的請求。
- 品質指標:自動檢查成功率、人工驗證率、黃金測試的幻覺頻率。
如何進行實驗
- A/B 模型尺寸 (
gpt-5vsgpt-5-mini) 來衡量準確率與成本。對於需要大量簡短答案的工作負載,miniornano通常可以大幅降低成本,同時保持可接受的精度。供應商和媒體報告在早期基準測試中強調了這些權衡;請在關鍵任務上執行您自己的測試。
有哪些限制和負責任使用考量?
GPT-5 是通用人工智慧 (AGI) 還是絕對可靠的?
OpenAI 將 GPT-5 定位為可用性和推理能力的重大改進,而非通用人工智慧 (AGI)。預計其能力(編碼、數學運算、多步驟推理)將顯著提升,但也可能偶爾出現錯誤和幻覺。規劃產品工作流程,在敏感領域自動執行之前驗證模型輸出的正確性。
合規性、隱私和資料治理
- 將提示和模型輸出視為敏感數據:如果您的策略禁止發送此類數據,則在發送到 API 之前封鎖 PII。
- 了解您帳戶/區域的 OpenAI 條款中的保留和使用政策。如有需要,請使用企業合約來加強資料保護。
- 記錄並向最終使用者揭露模型的作用,因為決策會對最終使用者產生重大影響(許多司法管轄區的透明度要求)。
快速檢查表和代碼模式以開始
發布前檢查清單
- 選擇目標模型(準確度與成本):
gpt-5,gpt-5-mini, 或者gpt-5-nano. - 確定
verbosity每個端點的預設值(例如,支援快速搜尋與深度分析的 API 端點)。 - 註冊並強化
custom工具運行時(沙盒、驗證器、日誌)。 - 為系統上執行的任何工具輸出新增自動驗證步驟。
- 為令牌、延遲和模型品質指標建立監控儀表板。
範例編排模式(偽代碼)
- 使用者請求→選擇模型和詳細程度(路由邏輯)。
- 系統提示定義工具語法+推理模式。
- 發送聊天完成請求。
- 如果助理調用
custom工具:驗證有效載荷→在沙箱中執行→將結果回傳給助手→助手完成回應。 - 若操作風險高:需要人工核准。
在 CometAPI 中使用 GPT-5
CometAPI 是一個統一的 API 平台,它將來自領先供應商(例如 OpenAI 的 GPT 系列、Google 的 Gemini、Anthropic 的 Claude、Midjourney、Suno 等)的 500 多個 AI 模型聚合到一個開發者友好的介面中。透過提供一致的身份驗證、請求格式和回應處理,CometAPI 顯著簡化了將 AI 功能整合到您的應用程式中的過程。無論您是建立聊天機器人、影像產生器、音樂作曲家,還是資料驅動的分析流程,CometAPI 都能讓您更快地迭代、控製成本,並保持與供應商的兼容性——同時也能充分利用整個 AI 生態系統的最新突破。
要獲得權威參考,請查看 OpenAI 關於 GPT-5 參數和工具的 Cookbook 條目——這些是 API 欄位、工具註冊和使用模式的主要來源。
最後的思考
GPT-5 的模型大小組合、新參數,如 verbosity和 custom 工具原始負載支援為產品團隊創造了強大的新選擇——從低成本的大規模評分作業到「按需軟體」工作流程(其中模型生成程式碼或 SQL,供您的安全運行時執行)。權衡取捨是常見的:能力與成本、速度與深度、自動化與人工監督。從小處著手(選擇一個發現用例),大量使用工具,並不斷迭代——設計您的工具運行時和提示,以便模型的輸出 可驗證 在它們變成行動之前。
開發人員可以訪問 GPT-5 、GPT-5 Nano 和 GPT-5 Mini,透過 CometAPI 進行測試,列出的最新模型版本截至本文發布之日。首先,探索模型在 游乐场 並諮詢 API指南 以獲得詳細說明。造訪前請確保您已經登入CometAPI並取得API金鑰。 彗星API 提供遠低於官方價格的價格,幫助您整合。
您可以使用 Cpmr 的 GPT-5 API 來試驗新的參數。只需將 openAI 密鑰替換為 CometAPI 密鑰即可。您可以使用 CometAPI 的 GPT-5 API 來試驗新的參數。只需將 openAI 密鑰替換為 CometAPI 密鑰即可。兩種選擇: 聊天完成函數呼叫模式 響應函數呼叫模式。
傳遞 CoT 僅存在於 Responses API 中,這可以提高智慧化程度,減少產生的推理令牌數量,提高快取命中率,並降低延遲。其他大多數參數保持不變,但格式不同。因此,我們建議使用 響應 格式以在 CometAPI 中存取 GPT-5。



