OpenAI gpt-oss-120b menandakan keluaran berat terbuka pertama organisasi sejak GPT-2, menawarkan pembangun telus, disesuaikan, dan prestasi tinggi Keupayaan AI di bawah Lesen Apache 2.0. Direka untuk canggih penaakulan and bersifat agenik aplikasi, model ini mendemokrasikan akses kepada teknologi bahasa besar termaju, membolehkan penggunaan di premis dan penalaan halus yang mendalam.
Ciri Teras dan Falsafah Reka Bentuk
Model GPT‑OSS direka sebagai LLM tujuan umum, teks sahaja. Mereka menyokong tugas kognitif peringkat tinggi, termasuk penaakulan matematik, analisis berstruktur dan pemahaman bahasa. Tidak seperti model komersial tertutup seperti GPT‑4, GPT‑OSS membenarkan muat turun penuh dan penggunaan berat model, memberikan penyelidik dan pembangun akses yang belum pernah berlaku sebelum ini untuk memeriksa, memperhalusi dan menggunakan model sepenuhnya pada infrastruktur mereka.
Maklumat asas
- Parameter: 117 bilion jumlah, 5.1 bilion aktif melalui Campuran Pakar (KPM)
- lesen: Apache 2.0 untuk kegunaan komersial dan akademik tanpa had
- Tetingkap Konteks: Sehingga 128 K token, menyokong input bentuk panjang dan penaakulan berbilang dokumen
- Rantaian Pemikiran: Penuh CoT output untuk kebolehauditan dan kawalan halus
- Output Berstruktur: Sokongan asli untuk JSON, XML dan skema tersuai .
Butiran Teknikal
Leverage GPT-OSS a Transformer tulang belakang ditambah dengan a Campuran Pakar (KPM) seni bina untuk mencapai pengaktifan jarang dan mengurangkan kos inferens. The gpt-oss-120b model mengandungi Pakar 128 diedarkan merentasi Lapisan 36, mengaktifkan 4 pakar setiap token (5.1 B parameter aktif), manakala gpt-oss-20b menggunakan Pakar 32 lebih Lapisan 24, mengaktifkan 4 pakar setiap token (3.6 B parameter aktif). Ia menggaji berselang seli padat dan berjalur tempatan perhatian jarang, mengumpulkan perhatian berbilang pertanyaan (saiz kumpulan 8), dan sokongan a 128 k tetingkap konteks token—tidak dapat ditandingi dalam tawaran berat terbuka setakat ini. Kecekapan memori dipertingkatkan lagi melalui **4-bit kuantiti ketepatan campuran **, membolehkan konteks yang lebih besar pada perkakasan komoditi.
Model GPT‑OSS telah menjalani penanda aras yang ketat terhadap set data yang terkenal, mendedahkan prestasi berdaya saing—jika tidak unggul—jika dibandingkan dengan model proprietari bersaiz serupa.
Penandaarasan dan Penilaian Prestasi
Pada penanda aras standard, gpt-oss-120b sepadan atau melebihi proprietari OpenAI o4-mini model:
- MMLU (Massive Multitask Language Understanding): ~88% ketepatan
- Codeforces Elo (penaakulan pengekodan): ~ 2205
- AIME (pertandingan matematik dengan alatan): ~87.9%
- HealthBench: Secara ketara mengatasi prestasi o4-mini dalam QA klinikal dan tugas diagnosis
- Tau-Bench (Tugas Runcit + Penaakulan): ~62% secara purata
Versi Model
- Varian Lalai:
gpt-oss-120b(V1.0) - Parameter Aktif: 5.1 B (pemilihan KPM dinamik)
- Keluaran Susulan: Tampalan yang dirancang untuk diperbaiki penapis keselamatan and penalaan halus domain khusus
Batasan
Walaupun berkuasa, model GPT‑OSS datang dengan pengehadan tertentu:
- Antara muka teks sahaja: Tidak seperti GPT-4o atau Gemini, GPT‑OSS tidak menyokong input berbilang mod (imej, audio, video).
- Tiada ketelusan set latihan: OpenAI tidak mengeluarkan butiran mengenai set data khusus yang digunakan, yang mungkin menimbulkan kebimbangan untuk kebolehulangan akademik atau pengauditan berat sebelah.
- Prestasi tidak konsisten: Sesetengah penanda aras komuniti (cth, Simple-Bench) melaporkan keputusan yang lemah dalam ujian penaakulan tertentu (~22% pada beberapa tugas untuk 120b), mencadangkan prestasi mungkin berbeza dengan ketara merentas domain.
- Batasan perkakasan: Model 120B memerlukan pengiraan yang ketara untuk inferens tempatan, menjadikannya tidak boleh diakses oleh pembangun kasual tanpa akses GPU.
- Pertukaran keselamatan: Walaupun diuji di bawah senario penalaan halus lawan, sifat berat terbuka bermakna model ini masih boleh disalahgunakan—cth, untuk spam, maklumat salah atau jailbreak model—jika tidak dikawal dengan betul.
Namun begitu, OpenAI melaporkan bahawa model gpt‑oss jangan bangkitkan risiko keselamatan peringkat sempadan semasa, terutamanya dalam domain biorisiko atau keselamatan siber.
Bagaimana hendak memanggil gpt-oss-120b API daripada CometAPI
gpt-oss-120b Harga API dalam CometAPI,diskaun 20% daripada harga rasmi:
| Token Input | $0.16 |
| Token Keluaran | $0.80 |
Langkah yang Diperlukan
- Log masuk ke cometapi.com. Jika anda belum menjadi pengguna kami, sila daftar dahulu
- Dapatkan kunci API kelayakan akses antara muka. Klik "Tambah Token" pada token API di pusat peribadi, dapatkan kunci token: sk-xxxxx dan serahkan.
- Dapatkan url tapak ini: https://api.cometapi.com/
Gunakan Kaedah
- Pilih "
gpt-oss-120b” titik akhir untuk menghantar permintaan API dan menetapkan badan permintaan. Kaedah permintaan dan badan permintaan diperoleh daripada dokumen API tapak web kami. Laman web kami juga menyediakan ujian Apifox untuk kemudahan anda. - Gantikan dengan kunci CometAPI sebenar anda daripada akaun anda.
- Masukkan soalan atau permintaan anda ke dalam medan kandungan—inilah yang akan dijawab oleh model.
- . Proses respons API untuk mendapatkan jawapan yang dijana.
CometAPI menyediakan REST API yang serasi sepenuhnya—untuk penghijrahan yang lancar. Butiran penting kepada Dokumen API:
- Titik Akhir: https://api.cometapi.com/v1/chat/completions
- Parameter Model: gpt-oss-120b
- Pengesahan:
Bearer YOUR_CometAPI_API_KEY - Jenis kandungan:
application/json. - Parameter Teras:
prompt,max_tokens_to_sample,temperature,stop_sequences
Walaupun GPT‑OSS boleh digunakan sepenuhnya di luar talian, ia juga menyokong API sembang serasi OpenAI apabila dihoskan pada perkhidmatan seperti Hugging Face atau AWS Bedrock.
Berikut ialah penyepaduan sampel menggunakan Python:
from openai import OpenAI
import os
client = OpenAI(
base_url="https://api.cometapi.com/v1/chat/completions", # or AWS/Azure provider
api_key=cometapi_key
)
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[
{"role": "user", "content": "Explain how quantum tunneling works."}
]
)
print(response.choices.message.content)
Sebagai alternatif, anda boleh menjalankan model secara tempatan menggunakan alat seperti LMDeploy, Inferens Penjanaan Teks (TGI), Atau vLLM.
See Also GPT-OSS-20B


