gpt-oss-20b ポータブルでオープンウェイトな推論モデル 提供すること o3ミニレベルのパフォーマンス, エージェントフレンドリーなツールの使用、およびフル 思考連鎖のサポート 許可ライセンスの下で。120B版ほど強力ではありませんが、 デバイス上で、低遅延で、プライバシーに配慮した展開開発者は、その既知の 構成上の制限特に知識を要するタスクでは、安全対策を適切に講じる必要があります。
基本情報
gpt-oss-20b 21億パラメータのオープンウェイト推論モデル OpenAIによって公開された Apache 2.0ライセンス、有効 ダウンロード、微調整、再配布のための完全なアクセス権これはOpenAIにとって、 2年のGPT-2019 そして最適化されています エッジデプロイメントとローカル推論 システム上で ≥ 16 GBのVRAM.
- パラメーター: 合計21億、そのうちトークンあたり3.6億がアクティブ
- 建築: トランスフォーマー付き 専門家混合 (MoE)
- コンテキスト ウィンドウ: 長文理解のための最大128トークン
- ライセンス: Apache 2.0は、無制限の学術的および商業的利用を可能にします()。
機能と技術アーキテクチャ
モデル仕様
- 技術パラメータ 合計21B、 トークンあたり3.6億アクティブ 専門家の混合(MoE)アーキテクチャを介して レイヤーあたり32人のエキスパート, トークンごとに4つアクティブ .
- 層: 24、コンテキストウィンドウ最大 128トークン、最大出力トークンは 32K 一部の展開では .
- 注意力と記憶力: 交互の密な注目パターンと疎な注目パターン、推論効率のためのグループ化されたマルチクエリ注目 (グループ サイズ = 8)。
トレーニングと推論制御
- STEM、コーディング、一般知識に重点を置いた英語中心のテキストでトレーニングします。
- お客様サポート 思考の連鎖(CoT) 推論と調整可能 推論レベル (低、中、高) タスクの複雑さに応じて異なります。
ベンチマークパフォーマンス
- 一致または OpenAIのo3-miniモデルの性能を上回る ベンチマークでは MMLU、AIME、HLE、HealthBench、Codeforces、Tau-Bench たとえ小さくても。
- 次のような独自モデルよりも優れています 健康と数学の推論におけるOpenAI o1、GPT-4o、o4-mini 高度な推論レベルのタスク。
- より大規模なGPT-OSS-120B(117 B)と比較すると、深い記号的推論や広範な知識(GPQAなど)に依存するタスクでは遅れをとりますが、コーディングや健康分野では依然として効率的です。
当学校区の 20 B バリアントも印象的:ライバル o3-mini フットプリントが小さいにもかかわらず、同じスイート全体で、MoE による推論機能の効率的なスケーリングを示しています。
- MMLU (大規模マルチタスク言語理解): 約88%の精度
- Codeforces Elo(コーディング推論):〜2205
- AIME(ツールを使った数学コンテスト): ~87.9%
- ヘルスベンチ: 臨床QAおよび診断タスクにおいてo4-miniを大幅に上回る
- **タウベンチ(小売 + 推論タスク)**平均約62%
モデルバージョンと比較
| モデル | Params | アクティブパラメータ | ハードウェアの必要性 | ベンチマークパフォーマンス |
|---|---|---|---|---|
gpt-oss-20b | 21億 | 3.6億 | ≥ 16 GB GPUまたはデバイス上 | に匹敵します o3ミニ |
| gpt‑oss‑120b | 117億 | 5.1億 | 80 GB以上のGPU | 一致または超過 o4ミニ |
軽量版として設計された gpt-oss-120BGPT-OSS-20Bは、リソースが限られている状況でも優れたタスクパフォーマンスを維持しながら、移植性も実現しています。オープンアクセスと調整可能性という点で、OpenAI独自のモデルとは一線を画しています。
製品制限
- 知識の想起が低い GPQA のような複雑なタスクでは、大規模なモデルと比較すると、
- ユーザーからのレポート 特にコーディングや一般知識のプロンプトに関しては、現実世界のパフォーマンスにばらつきがあることを示しています。これを早期の導入やプロンプトの誤用に起因すると考える人もいます。
- 安全性と誤用リスクOpenAI は敵対的に微調整された gpt-oss バリアントを評価しましたが、それらでさえバイオリスクまたはサイバー領域で高い能力に達しませんでした。それでも、大規模なユースケースを展開するユーザーには追加の安全策が必要になる場合があります。
ユースケース
OpenAIはGPT-OSSを設計し、 幅広いユースケース消費者向けアプリからエンタープライズグレードの分析まで、幅広いアプリケーションに対応しています。20Bバリアントはローカル実行に最適化されており、わずか RAMの16GB、 といった Mシリーズチップを搭載したハイエンドノートパソコンまたはMacBookGPT‑OSS‑20Bは次の用途に最適です。
- ローカル/オフライン推論 Windows PC (Windows AI Foundry 経由)、macOS、または Snapdragon ベースのエッジ デバイスで。
- エージェントワークフロー: コード実行、ツールの使用、ブラウザベースのエージェント、または制限された帯域幅設定での自律アシスタント。
- ラピッドプロトタイピングと微調整特にクラウド インフラストラクチャを持たずに作業する開発者やプライバシーの制約がある開発者にとって役立ちます。
他のモデルとの比較
gpt-oss-20bo3-mini / o4-mini と比較GPT-OSS-20Bは、精度と共思考推論においてo3-miniに匹敵します。o4-miniよりも効率的でオープンですが、oXNUMX-miniと比較するとパフォーマンスが劣ります。 gpt-oss-120B 要求の厳しい推論タスクにおいて。gpt-oss-20bLLaMA 4、GLM-4.5、DeepSeekと比較GPT‑OSS‑20Bは、セミオープンモデルとは異なり、Apache 2.0で完全なオープンウェイトの透明性をもたらします。ただし、ユーザーからは推論品質に関してGLM‑4.5‑AIRを好むケースがあると報告されています。
電話方法 gpt-oss-20b CometAPI からの API
gpt-oss-20b CometAPI の API 価格、公式価格より 20% オフ:
| 入力トークン | $0.08 |
| 出力トークン | $0.32 |
必要な手順
- ログインする コムタピまだユーザーでない場合は、まず登録してください
- インターフェースのアクセス認証情報APIキーを取得します。パーソナルセンターのAPIトークンで「トークンを追加」をクリックし、トークンキー(sk-xxxxx)を取得して送信します。
- このサイトの URL を取得します: https://api.cometapi.com/
使用方法
- "を選択します。
gpt-oss-20b” エンドポイントを使用してAPIリクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、弊社ウェブサイトのAPIドキュメントから取得できます。また、お客様の便宜を図るため、弊社ウェブサイトではApifoxテストも提供しています。 - 交換するアカウントの実際の CometAPI キーを使用します。
- コンテンツ フィールドに質問またはリクエストを入力します。モデルはこれに応答します。
- API 応答を処理して、生成された回答を取得します。
CometAPIは、シームレスな移行のために完全に互換性のあるREST APIを提供します。 APIドキュメント:
- コアパラメータ:
prompt,max_tokens_to_sample,temperature,stop_sequences - 終点: https://api.cometapi.com/v1/chat/completions
- モデルパラメータ: 「
gpt-oss-20b「 - 認証:
Bearer YOUR_CometAPI_API_KEY - コンテンツタイプ:
application/json.
API呼び出しの例
GPT-OSSモデルはオープンウェイトですが、CometAPIなどのAPIを介してアクセスできます。 gpt-oss-20BCometAPI への典型的な呼び出しは次のようになります。
POST https://api.cometapi.com/v1/chat/completions
{
"model": "gpt-oss-20b",
"messages": [{ "role": "system", "content": "Reasoning: high" },
{ "role": "user", "content": "Solve bilateral integral…" }],
"max_tokens": 2048,
"temperature": 0.0
}
関数呼び出し、構造化された出力スキーマ、ツールの統合、システムプロンプトによる推論制御をサポートします。
も参照してください GPT-OSS-120B


