gpt-oss-20b 可移植的開放權重推理模型 供 o3 迷你級性能, 代理友善工具的使用,並且完整 想法支持 在寬鬆的許可證下。雖然它不如 120 B 版本強大,但它特別適合 設備上、低延遲和隱私敏感的部署. 開發人員應該權衡其已知的 成分限制,特別是在知識密集型任務上,並相應地制定安全預防措施。
基本信息
gpt-oss-20b 21億參數開放權重推理模型 由 OpenAI 發布 Apache 2.0許可證,使 完全存取下載、微調和重新分發這是 OpenAI 自 2019 年 12 月以來首次發布開放式權重模型。 2 年的 GPT-2019 並針對 邊緣部署和本地推理 在具有以下功能的系統上 ≥ 16 GB 顯示.
- 參數: 總計 21 億,其中每個代幣活躍 3.6 億
- 建築: 變壓器 混合式專家 (MoE)
- 上下文窗口: 最多 128 個 token 用於長篇理解
- 許可証: Apache 2.0,支援不受限制的學術和商業用途()。
功能和技術架構
型號規格
- 參數:共 21 B, 每個代幣有 3.6 億活躍用戶 透過混合專家 (MoE) 架構 每層32位專家, 每個代幣 4 個活躍 .
- 層:24,上下文視窗最多 128K 代幣,最大輸出令牌數高達 32K 在某些部署中。
- 注意力和記憶力:交替密集+稀疏注意力模式;分組多查詢注意力(組大小=8)以提高推理效率。
訓練與推理控制
- 針對以英語為主的文本進行訓練,並專注於 STEM、編碼和常識。
- 支持 思路鏈(CoT) 推理和可調 推理層次 (低、中、高)取決於任務複雜性。
基準性能
- 火柴或 超越 OpenAI 的 o3‑mini 模型的效能 在像這樣的基準上 MMLU、AIME、HLE、HealthBench、Codeforces、Tau-Bench 即使尺寸較小。
- 優於專有模型,例如 OpenAI o1、GPT‑4o 和 o4‑mini 在健康和數學推理方面的應用 高推理層次的任務。
- 與更大的 GPT-OSS-120B(117 B)相比,它在依賴深度符號推理或廣泛知識(例如 GPQA)的任務中落後,但在編碼和健康領域仍然有效。
20乙 變體也令人印象深刻:它與 o3-迷你 儘管佔用空間較小,但在同一套件中仍可實現,展示了使用 MoE 高效擴展推理能力。
- MMLU(大規模多任務語言理解):準確率約 88%
- Codeforces Elo(編碼推理):~2205
- AIME(使用工具的數學競賽):~87.9%
- 健康基準:在臨床 QA 和診斷任務中明顯優於 o4-mini
- Tau-Bench(零售+推理任務):平均約 62%
模型版本與比較
| 型號 | 參數 | 活動參數 | 硬體需求 | 基準性能 |
|---|---|---|---|---|
gpt-oss-20b | 21億 | 3.6億 | ≥ 16 GB GPU 或裝置上 | 可比 o3-mini |
| GPT-OSS-120b | 117億 | 5.1億 | 80 GB+ GPU | 達到或超過 o4-mini |
設計為輕量級對應 GPT-OSS-120BGPT‑OSS‑20B 不僅具備可移植性,還能在資源受限的情況下維持強大的任務效能。它憑藉開放的可訪問性和可調整性,在 OpenAI 專有模型中脫穎而出。
限制
- 知識回憶較低 與較大的模型相比,它在 GPQA 等複雜任務上表現更佳。
- 使用者報告 顯示現實世界表現的變化,特別是對於編碼或常識提示;有些人將此歸因於早期實施或提示誤用。
- 安全和誤用風險:雖然 OpenAI 評估了對抗性微調的 gpt-oss 變體,但即使這些變體在生物風險或網路領域也沒有達到很高的能力;然而,部署大規模用例的用戶可能仍需要額外的保護措施。
使用案例
OpenAI 設計了 GPT-OSS 來支持 廣泛的用例涵蓋從消費者應用到企業級分析的各種應用。 20B 版本針對本地執行進行了最佳化,能夠在僅配備 內存16GB如 配備 M 系列晶片的高階筆記型電腦或 MacBook。 GPT‑OSS‑20B 非常適合:
- 本地/離線推理 在 Windows PC(透過 Windows AI Foundry)、macOS 或基於 Snapdragon 的邊緣裝置上。
- 代理商工作流程:在受限頻寬設定下的程式碼執行、工具使用、基於瀏覽器的代理程式或自主助手。
- 快速原型設計與微調,特別是對於沒有雲端基礎設施或受到隱私限制的開發人員而言。
其他模型比較
gpt-oss-20b與 o3-mini / o4-mini 相比:GPT-OSS-20B 在準確性和共同思考推理方面可與 o3-mini 相媲美;它比 o4-mini 更有效率、更開放,但與 oXNUMX-mini 相比表現不佳 GPT-OSS-120B 在要求嚴格的推理任務上。gpt-oss-20b與 LLaMA 4、GLM-4.5、DeepSeek 相比:與半開放模型不同,GPT-OSS-20B 在 Apache 2.0 下實現了完全開放重量透明度;但用戶在某些情況下報告說,在推理品質上更喜歡 GLM-4.5-AIR。
如何致電 GPT-OSS-20B 來自 CometAPI 的 API
gpt-oss-20b CometAPI 中的 API 定價,比官方價格便宜 20%:
| 輸入令牌 | $0.08 |
| 輸出代幣 | $0.32 |
所需步驟
- 登錄到 cometapi.com。如果您還不是我們的用戶,請先註冊
- 取得介面的存取憑證API key。在個人中心的API token處點選“新增Token”,取得Token金鑰:sk-xxxxx並提交。
- 取得此網站的 URL: https://api.cometapi.com/
使用方法
- 選擇“
gpt-oss-20b「端點發送 API 請求並設定請求體。請求方法和請求體可從我們網站的 API 文件取得。為了方便您使用,我們網站也提供了 Apifox 測試。 - 代替使用您帳戶中的實際 CometAPI 金鑰。
- 將您的問題或請求插入內容欄位 - 這是模型將會回應的內容。
- 。處理 API 回應以取得產生的答案。
CometAPI 提供完全相容的 REST API,以實現無縫遷移。關鍵細節如下: API 文件:
- 核心參數:
prompt,max_tokens_to_sample,temperature,stop_sequences - 終點: https://api.cometapi.com/v1/chat/completions
- 模型參數: “
gpt-oss-20b“ - 驗證:
Bearer YOUR_CometAPI_API_KEY - 內容類型:
application/json.
API 呼叫範例
儘管 GPT-OSS 模型是開放的,但它可以透過 CometAPI 等 API 存取。對於 GPT-OSS-20B,對 CometAPI 的典型呼叫如下所示:
POST https://api.cometapi.com/v1/chat/completions
{
"model": "gpt-oss-20b",
"messages": [{ "role": "system", "content": "Reasoning: high" },
{ "role": "user", "content": "Solve bilateral integral…" }],
"max_tokens": 2048,
"temperature": 0.0
}
這支援函數呼叫、結構化輸出模式、工具整合和透過系統提示的推理控制。
參見 GPT-OSS-120B


