OpenAI的 GPT-OSS-120B 標誌著該組織自 GPT-2 以來首次發布開放式版本,為開發者提供 透明, 定制和 高性能 人工智慧能力 Apache 2.0許可證. 專為高端人士設計 推理 代理的 在應用程式中,該模型使對高級大語言技術的存取民主化,從而實現了內部部署和深度微調。
核心功能與設計理念
GPT-OSS 模型被設計為通用的純文本法學碩士 (LLM)。它們支援高階認知任務,包括數學推理、結構化分析和語言理解。與 GPT-4 等封閉的商業模型不同,GPT-OSS 允許完全下載和使用模型權重,為研究人員和開發者提供了前所未有的存取權限,可以在其基礎架構上完全檢查、微調和部署模型。
基本信息
- 參數:總計117億,5.1億 積極 通過 混合式專家 (MoE)
- 執照:Apache 2.0 可不受限制地用於商業和學術用途
- 上下文視窗: 取決於 128K代幣,支援長格式輸入和多文檔推理
- 思想鏈:滿 鈷酸甲酯 可審計性和細粒度控制的輸出
- 結構化輸出:原生支援 JSON、XML 和自訂模式。
技術細節
GPT-OSS 利用 變壓器 骨幹增強 混合式專家 (MoE) 架構來實現稀疏激活並降低推理成本。 GPT-OSS-120B 模型包含 128專家 分佈於 36圖層, 啟用設定 每個代幣 4 位專家 (5.1 B 活動參數),而 GPT-OSS-20B 利用 32專家 超过 24圖層, 啟用設定 每個代幣 4 位專家 (3.6 B 主動參數)。它採用 交替密集和局部帶狀稀疏注意力, 分組多查詢注意力機制 (小組規模 8 人),並支持 128ķ 令牌上下文視窗-迄今為止在開放權重產品中無與倫比。透過**4 位元混合精度量化**,記憶體效率進一步提升,從而能夠在商用硬體上支援更大的上下文。
GPT-OSS 模型已經針對知名資料集進行了嚴格的基準測試,與類似規模的專有模型相比,其效能具有競爭力(甚至更優)。
基準測試和績效評估
在標準基準上, GPT-OSS-120B 達到或超過 OpenAI 專有的 o4-迷你 模型:
- MMLU(大規模多任務語言理解):準確率約 88%
- Codeforces Elo(編碼推理):~2205
- AIME(使用工具的數學競賽):~87.9%
- 健康基準:在臨床 QA 和診斷任務中明顯優於 o4-mini
- Tau-Bench(零售+推理任務):平均約 62%
型號版本
- 預設變體:
gpt-oss-120b(v1.0) - 活動參數:5.1 B(動態 MoE 選擇)
- 後續發布:計劃補丁來改進 安全過濾器 專門領域微調
限制
儘管 GPT-OSS 模型功能強大,但也存在一些限制:
- 純文字介面:與 GPT-4o 或 Gemini 不同,GPT-OSS 不支援多模式輸入(影像、音訊、視訊)。
- 訓練集不透明:OpenAI 尚未發布所用具體數據集的詳細信息,這可能會引起對學術可重複性或偏見審計的擔憂。
- 性能不一致:一些社區基準測試(例如 Simple-Bench)報告稱,在特定推理測試中結果不佳(22b 的某些任務中約為 120%),這表明 不同領域的表現可能會大不相同.
- 硬件限制:120B 模型需要大量計算進行本地推理,因此沒有 GPU 存取權的普通開發人員無法使用它。
- 安全權衡:儘管在對抗性微調場景下進行了測試,但如果管理不當,開放權重特性意味著這些模型仍然可能被濫用 - 例如,垃圾郵件、錯誤訊息或模型越獄。
儘管如此,OpenAI 報告稱 gpt-oss 模型 不要提出當前的邊境安全風險,尤其是在生物風險或網路安全領域。
如何致電 GPT-OSS-120B 來自 CometAPI 的 API
gpt-oss-120b CometAPI 中的 API 定價,比官方價格便宜 20%:
| 輸入令牌 | $0.16 |
| 輸出代幣 | $0.80 |
所需步驟
- 登錄到 cometapi.com。如果您還不是我們的用戶,請先註冊
- 取得介面的存取憑證API key。在個人中心的API token處點選“新增Token”,取得Token金鑰:sk-xxxxx並提交。
- 取得此網站的 URL: https://api.cometapi.com/
使用方法
- 選擇“
gpt-oss-120b「端點發送 API 請求並設定請求體。請求方法和請求體可從我們網站的 API 文件取得。為了方便您使用,我們網站也提供了 Apifox 測試。 - 代替使用您帳戶中的實際 CometAPI 金鑰。
- 將您的問題或請求插入內容欄位 - 這是模型將會回應的內容。
- 。處理 API 回應以取得產生的答案。
CometAPI 提供完全相容的 REST API,以實現無縫遷移。關鍵細節如下: API 文件:
- 終點: https://api.cometapi.com/v1/chat/completions
- 模型參數: GPT-OSS-120B
- 驗證:
Bearer YOUR_CometAPI_API_KEY - 內容類型:
application/json. - 核心參數:
prompt,max_tokens_to_sample,temperature,stop_sequences
雖然 GPT-OSS 可以完全離線使用,但它也支援 與 OpenAI 相容的聊天 API 當託管在 Hugging Face 或 AWS Bedrock 等服務上。
以下是使用 Python 的範例整合:
from openai import OpenAI
import os
client = OpenAI(
base_url="https://api.cometapi.com/v1/chat/completions", # or AWS/Azure provider
api_key=cometapi_key
)
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[
{"role": "user", "content": "Explain how quantum tunneling works."}
]
)
print(response.choices.message.content)
或者,您可以使用下列工具在本機上運行模型 LM部署, 文本生成推理 (TGI), 或者 法學碩士.
參見 GPT-OSS-20B


