GPT-OSS-120B API

CometAPI
AnnaAug 7, 2025
GPT-OSS-120B API

OpenAI的 GPT-OSS-120B 標誌著該組織自 GPT-2 以來首次發布開放式版本,為開發者提供 透明, 定制高性能 人工智慧能力 Apache 2.0許可證. 專為高端人士設計 推理 代理的 在應用程式中,該模型使對高級大語言技術的存取民主化,從而實現了內部部署和深度微調。

核心功能與設計理念

GPT-OSS 模型被設計為通用的純文本法學碩士 (LLM)。它們支援高階認知任務,包括數學推理、結構化分析和語言理解。與 GPT-4 等封閉的商業模型不同,GPT-OSS 允許完全下載和使用模型權重,為研究人員和開發者提供了前所未有的存取權限,可以在其基礎架構上完全檢查、微調和部署模型。

基本信息

  • 參數:總計117億,5.1億 積極 通過 混合式專家 (MoE)
  • 執照:Apache 2.0 可不受限制地用於商業和學術用途
  • 上下文視窗: 取決於 128K代幣,支援長格式輸入和多文檔推理
  • 思想鏈:滿 鈷酸甲酯 可審計性和細粒度控制的輸出
  • 結構化輸出:原生支援 JSON、XML 和自訂模式。

技術細節

GPT-OSS 利用 變壓器 骨幹增強 混合式專家 (MoE) 架構來實現稀疏激活並降低推理成本。 GPT-OSS-120B 模型包含 128專家 分佈於 36圖層, 啟用設定 每個代幣 4 位專家 (5.1 B 活動參數),而 GPT-OSS-20B 利用 32專家 超过 24圖層, 啟用設定 每個代幣 4 位專家 (3.6 B 主動參數)。它採用 交替密集和局部帶狀稀疏注意力, 分組多查詢注意力機制 (小組規模 8 人),並支持 128ķ 令牌上下文視窗-迄今為止在開放權重產品中無與倫比。透過**4 位元混合精度量化**,記憶體效率進一步提升,從而能夠在商用硬體上支援更大的上下文。

GPT-OSS 模型已經針對知名資料集進行了嚴格的基準測試,與類似規模的專有模型相比,其效能具有競爭力(甚至更優)。

基準測試和績效評估

在標準基準上, GPT-OSS-120B 達到或超過 OpenAI 專有的 o4-迷你 模型:

  • MMLU(大規模多任務語言理解):準確率約 88%
  • Codeforces Elo(編碼推理):~2205
  • AIME(使用工具的數學競賽):~87.9%
  • 健康基準:在臨床 QA 和診斷任務中明顯優於 o4-mini
  • Tau-Bench(零售+推理任務):平均約 62%

型號版本

  • 預設變體: gpt-oss-120b (v1.0)
  • 活動參數:5.1 B(動態 MoE 選擇)
  • 後續發布:計劃補丁來改進 安全過濾器 專門領域微調

限制

儘管 GPT-OSS 模型功能強大,但也存在一些限制:

  • 純文字介面:與 GPT-4o 或 Gemini 不同,GPT-OSS 不支援多模式輸入(影像、音訊、視訊)。
  • 訓練集不透明:OpenAI 尚未發布所用具體數據集的詳細信息,這可能會引起對學術可重複性或偏見審計的擔憂。
  • 性能不一致:一些社區基準測試(例如 Simple-Bench)報告稱,在特定推理測試中結果不佳(22b 的某些任務中約為 120%),這表明 不同領域的表現可能會大不相同.
  • 硬件限制:120B 模型需要大量計算進行本地推理,因此沒有 GPU 存取權的普通開發人員無法使用它。
  • 安全權衡:儘管在對抗性微調場景下進行了測試,但如果管理不當,開放權重特性意味著這些模型仍然可能被濫用 - 例如,垃圾郵件、錯誤訊息或模型越獄。

儘管如此,OpenAI 報告稱 gpt-oss 模型 不要提出當前的邊境安全風險,尤其是在生物風險或網路安全領域。

如何致電 GPT-OSS-120B 來自 CometAPI 的 API

gpt-oss-120b CometAPI 中的 API 定價,比官方價格便宜 20%:

輸入令牌$0.16
輸出代幣$0.80

所需步驟

  • 登錄到 cometapi.com。如果您還不是我們的用戶,請先註冊
  • 取得介面的存取憑證API key。在個人中心的API token處點選“新增Token”,取得Token金鑰:sk-xxxxx並提交。
  • 取得此網站的 URL: https://api.cometapi.com/

使用方法

  1. 選擇“gpt-oss-120b「端點發送 API 請求並設定請求體。請求方法和請求體可從我們網站的 API 文件取得。為了方便您使用,我們網站也提供了 Apifox 測試。
  2. 代替使用您帳戶中的實際 CometAPI 金鑰。
  3. 將您的問題或請求插入內容欄位 - 這是模型將會回應的內容。
  4. 。處理 API 回應以取得產生的答案。

CometAPI 提供完全相容的 REST API,以實現無縫遷移。關鍵細節如下:  API 文件:

  • 終點: https://api.cometapi.com/v1/chat/completions
  • 模型參數: GPT-OSS-120B
  • 驗證: Bearer YOUR_CometAPI_API_KEY
  • 內容類型: application/json .
  • 核心參數promptmax_tokens_to_sampletemperaturestop_sequences

雖然 GPT-OSS 可以完全離線使用,但它也支援 與 OpenAI 相容的聊天 API 當託管在 Hugging Face 或 AWS Bedrock 等服務上。

以下是使用 Python 的範例整合:

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.cometapi.com/v1/chat/completions",  # or AWS/Azure provider

    api_key=cometapi_key
)

response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "Explain how quantum tunneling works."}
    ]
)

print(response.choices.message.content)

或者,您可以使用下列工具在本機上運行模型 LM部署, 文本生成推理 (TGI), 或者 法學碩士.

參見 GPT-OSS-20B

SHARE THIS BLOG

一個 API 中超過 500 個模型

最高 20% 折扣