GPT-OSS-20B API

CometAPI
AnnaAug 7, 2025
GPT-OSS-20B API

gpt-oss-20b 可移植的開放權重推理模型o3 迷你級性能, 代理友善工具的使用,並且完整 想法支持 在寬鬆的許可證下。雖然它不如 120 B 版本強大,但它特別適合 設備上、低延遲和隱私敏感的部署. 開發人員應該權衡其已知的 成分限制,特別是在知識密集型任務上,並相應地制定安全預防措施。

基本信息

gpt-oss-20b 21億參數開放權重推理模型 由 OpenAI 發布 Apache 2.0許可證,使 完全存取下載、微調和重新分發這是 OpenAI 自 2019 年 12 月以來首次發布開放式權重模型。 2 年的 GPT-2019 並針對 邊緣部署和本地推理 在具有以下功能的系統上 ≥ 16 GB 顯示.

  • 參數: 總計 21 億,其中每個代幣活躍 3.6 億
  • 建築: 變壓器 混合式專家 (MoE)
  • 上下文窗口: 最多 128 個 token 用於長篇理解
  • 許可証: Apache 2.0,支援不受限制的學術和商業用途()。

功能和技術架構

型號規格

  • 參數:共 21 B, 每個代幣有 3.6 億活躍用戶 透過混合專家 (MoE) 架構 每層32位專家, 每個代幣 4 個活躍 .
  • :24,上下文視窗最多 128K 代幣,最大輸出令牌數高達 32K 在某些部署中。
  • 注意力和記憶力:交替密集+稀疏注意力模式;分組多查詢注意力(組大小=8)以提高推理效率。

訓練與推理控制

  • 針對以英語為主的文本進行訓練,並專注於 STEM、編碼和常識。
  • 支持 思路鏈(CoT) 推理和可調 推理層次 (低、中、高)取決於任務複雜性。

基準性能

  • 火柴或 超越 OpenAI 的 o3‑mini 模型的效能 在像這樣的基準上 MMLU、AIME、HLE、HealthBench、Codeforces、Tau-Bench 即使尺寸較小。
  • 優於專有模型,例如 OpenAI o1、GPT‑4o 和 o4‑mini 在健康和數學推理方面的應用 高推理層次的任務。
  • 與更大的 GPT-OSS-120B(117 B)相比,它在依賴深度符號推理或廣泛知識(例如 GPQA)的任務中落後,但在編碼和健康領域仍然有效。

20乙 變體也令人印象深刻:它與 o3-迷你 儘管佔用空間較小,但在同一套件中仍可實現,展示了使用 MoE 高效擴展推理能力。

  • MMLU(大規模多任務語言理解):準確率約 88%
  • Codeforces Elo(編碼推理):~2205
  • AIME(使用工具的數學競賽):~87.9%
  • 健康基準:在臨床 QA 和診斷任務中明顯優於 o4-mini
  • Tau-Bench(零售+推理任務):平均約 62%

模型版本與比較

型號參數活動參數硬體需求基準性能
gpt-oss-20b21億3.6億≥ 16 GB GPU 或裝置上可比 o3-mini
GPT-OSS-120b117億5.1億80 GB+ GPU達到或超過 o4-mini

設計為輕量級對應 GPT-OSS-120BGPT‑OSS‑20B 不僅具備可移植性,還能在資源受限的情況下維持強大的任務效能。它憑藉開放的可訪問性和可調整性,在 OpenAI 專有模型中脫穎而出。


限制

  • 知識回憶較低 與較大的模型相比,它在 GPQA 等複雜任務上表現更佳。
  • 使用者報告 顯示現實世界表現的變化,特別是對於編碼或常識提示;有些人將此歸因於早期實施或提示誤用。
  • 安全和誤用風險:雖然 OpenAI 評估了對抗性微調的 gpt-oss 變體,但即使這些變體在生物風險或網路領域也沒有達到很高的能力;然而,部署大規模用例的用戶可能仍需要額外的保護措施。

使用案例

OpenAI 設計了 GPT-OSS 來支持 廣泛的用例涵蓋從消費者應用到企業級分析的各種應用。 20B 版本針對本地執行進行了最佳化,能夠在僅配備 內存16GB配備 M 系列晶片的高階筆記型電腦或 MacBook。 GPT‑OSS‑20B 非常適合:

  • 本地/離線推理 在 Windows PC(透過 Windows AI Foundry)、macOS 或基於 Snapdragon 的邊緣裝置上。
  • 代理商工作流程:在受限頻寬設定下的程式碼執行、工具使用、基於瀏覽器的代理程式或自主助手。
  • 快速原型設計與微調,特別是對於沒有雲端基礎設施或受到隱私限制的開發人員而言。

其他模型比較

  • gpt-oss-20b與 o3-mini / o4-mini 相比:GPT-OSS-20B 在準確性和共同思考推理方面可與 o3-mini 相媲美;它比 o4-mini 更有效率、更開放,但與 oXNUMX-mini 相比表現不佳 GPT-OSS-120B 在要求嚴格的推理任務上。
  • gpt-oss-20b 與 LLaMA 4、GLM-4.5、DeepSeek 相比:與半開放模型不同,GPT-OSS-20B 在 Apache 2.0 下實現了完全開放重量透明度;但用戶在某些情況下報告說,在推理品質上更喜歡 GLM-4.5-AIR。

如何致電 GPT-OSS-20B 來自 CometAPI 的 API

gpt-oss-20b CometAPI 中的 API 定價,比官方價格便宜 20%:

輸入令牌$0.08
輸出代幣$0.32

所需步驟

  • 登錄到 cometapi.com。如果您還不是我們的用戶,請先註冊
  • 取得介面的存取憑證API key。在個人中心的API token處點選“新增Token”,取得Token金鑰:sk-xxxxx並提交。
  • 取得此網站的 URL: https://api.cometapi.com/

使用方法

  1. 選擇“gpt-oss-20b「端點發送 API 請求並設定請求體。請求方法和請求體可從我們網站的 API 文件取得。為了方便您使用,我們網站也提供了 Apifox 測試。
  2. 代替使用您帳戶中的實際 CometAPI 金鑰。
  3. 將您的問題或請求插入內容欄位 - 這是模型將會回應的內容。
  4. 。處理 API 回應以取得產生的答案。

CometAPI 提供完全相容的 REST API,以實現無縫遷移。關鍵細節如下:  API 文件:

  • 核心參數promptmax_tokens_to_sampletemperaturestop_sequences
  • 終點: https://api.cometapi.com/v1/chat/completions
  • 模型參數: “gpt-oss-20b
  • 驗證: Bearer YOUR_CometAPI_API_KEY
  • 內容類型: application/json .

API 呼叫範例

儘管 GPT-OSS 模型是開放的,但它可以透過 CometAPI 等 API 存取。對於 GPT-OSS-20B,對 CometAPI 的典型呼叫如下所示:

POST  https://api.cometapi.com/v1/chat/completions
{
  "model": "gpt-oss-20b",
  "messages": [{ "role": "system", "content": "Reasoning: high" },
               { "role": "user", "content": "Solve bilateral integral…" }],
  "max_tokens": 2048,
  "temperature": 0.0
}

這支援函數呼叫、結構化輸出模式、工具整合和透過系統提示的推理控制。

參見 GPT-OSS-120B

SHARE THIS BLOG

一個 API 中超過 500 個模型

最高 20% 折扣