API GPT-OSS-120B

CometAPI
AnnaAug 7, 2025
API GPT-OSS-120B

OpenAI gpt-oss-120b menandai rilis bobot terbuka pertama organisasi sejak GPT-2, menawarkan pengembang jelas, disesuaikan, dan kinerja tinggi Kemampuan AI di bawah Lisensi 2.0 ApacheDirancang untuk canggih pemikiran dan agen aplikasi, model ini mendemokratisasi akses ke teknologi bahasa besar yang canggih, memungkinkan penerapan di tempat dan penyempurnaan yang mendalam.

Fitur Inti dan Filosofi Desain

Model GPT‑OSS dirancang sebagai LLM khusus teks dan serbaguna. Model ini mendukung tugas-tugas kognitif tingkat tinggi, termasuk penalaran matematika, analisis terstruktur, dan pemahaman bahasa. Tidak seperti model komersial tertutup seperti GPT‑4, GPT‑OSS memungkinkan pengunduhan dan penggunaan bobot model secara penuh, memberikan akses tak terbatas bagi para peneliti dan pengembang untuk memeriksa, menyempurnakan, dan menerapkan model sepenuhnya pada infrastruktur mereka.

Informasi dasar

  • Parameter Teknis: 117 miliar total, 5.1 miliar aktif melalui Campuran Pakar (MoE)
  • Lisensi: Apache 2.0 untuk penggunaan komersial dan akademis tanpa batas
  • Jendela Konteks: Sampai 128 ribu token, mendukung masukan bentuk panjang dan penalaran multi-dokumen
  • Rantai Pemikiran: Penuh Pondok keluaran untuk auditabilitas dan kontrol terperinci
  • Keluaran Terstruktur: Dukungan asli untuk JSON, XML, dan skema khusus.

Rincian Teknis

GPT-OSS memanfaatkan Transformator tulang punggung ditambah dengan Campuran Pakar (MoE) arsitektur untuk mencapai aktivasi jarang dan mengurangi biaya inferensi. gpt-oss-120b model berisi Pakar 128 didistribusikan di seluruh Lapisan 36, mengaktifkan 4 ahli per token (5.1 B parameter aktif), sedangkan gpt-oss-20b memanfaatkan Pakar 32 lebih Lapisan 24, mengaktifkan 4 ahli per token (3.6 B parameter aktif). Ini menggunakan perhatian yang padat dan jarang secara bergantian, perhatian multi-kueri yang dikelompokkan (ukuran kelompok 8), dan mendukung 128 k Jendela konteks token—tak tertandingi dalam penawaran bobot terbuka hingga saat ini. Efisiensi memori semakin ditingkatkan melalui **kuantisasi presisi campuran 4-bit**, yang memungkinkan konteks yang lebih besar pada perangkat keras komoditas.

Model GPT‑OSS telah menjalani pembandingan ketat terhadap kumpulan data terkenal, yang menunjukkan kinerja kompetitif—jika tidak lebih unggul—jika dibandingkan dengan model kepemilikan berukuran serupa.

Benchmarking dan Evaluasi Kinerja

Pada tolok ukur standar, gpt-oss-120b cocok atau melebihi hak milik OpenAI o4-mini model:

  • MMLU (Pemahaman Bahasa Multitask Besar-besaran): ~88% akurasi
  • Codeforces Elo (penalaran pengkodean): ~2205
  • AIME (kompetisi matematika dengan alat): ~87.9%
  • Bangku Kesehatan: : Secara signifikan mengungguli o4-mini dalam tugas QA klinis dan diagnosis
  • Tau-Bench (Tugas Ritel + Penalaran): ~62% rata-rata

Versi Model

  • Varian Default: gpt-oss-120b (v1.0)
  • Parameter Aktif: 5.1 B (pemilihan MoE dinamis)
  • Rilis Tindak Lanjut: Patch yang direncanakan untuk meningkatkan filter pengaman dan penyempurnaan domain khusus

keterbatasan

Meskipun kuat, model GPT‑OSS memiliki beberapa keterbatasan:

  • Antarmuka hanya teks: Tidak seperti GPT-4o atau Gemini, GPT‑OSS tidak mendukung masukan multimodal (gambar, audio, video).
  • Tidak ada transparansi set pelatihan:OpenAI belum merilis rincian tentang kumpulan data spesifik yang digunakan, yang dapat menimbulkan kekhawatiran mengenai reproduktifitas akademis atau audit bias.
  • Ketidakkonsistenan kinerja:Beberapa benchmark komunitas (misalnya, Simple-Bench) melaporkan hasil yang buruk dalam tes penalaran tertentu (~22% pada beberapa tugas untuk 120b), yang menunjukkan kinerja dapat bervariasi secara signifikan di seluruh domain.
  • Keterbatasan perangkat keras:Model 120B memerlukan komputasi signifikan untuk inferensi lokal, membuatnya tidak dapat diakses oleh pengembang biasa tanpa akses GPU.
  • Pertukaran keselamatan:Meskipun diuji dalam skenario penyempurnaan yang bersifat adversarial, sifat bobot terbuka berarti model ini masih dapat disalahgunakan—misalnya, untuk spam, misinformasi, atau jailbreak model—jika tidak diatur dengan benar.

Namun demikian, OpenAI melaporkan bahwa model gpt‑oss tidak menimbulkan risiko keselamatan tingkat perbatasan saat ini, terutama dalam domain biorisiko atau keamanan siber.

Bagaimana cara menelepon gpt-oss-120b API dari CometAPI

gpt-oss-120b Harga API di CometAPI, diskon 20% dari harga resmi:

Token Masukan$0.16
Token Keluaran$0.80

Langkah-langkah yang Diperlukan

  • Masuk ke cometapi.comJika Anda belum menjadi pengguna kami, silakan mendaftar terlebih dahulu
  • Dapatkan kunci API kredensial akses antarmuka. Klik “Tambahkan Token” pada token API di pusat personal, dapatkan kunci token: sk-xxxxx dan kirimkan.
  • Dapatkan url situs ini: https://api.cometapi.com/

Gunakan Metode

  1. Pilih “gpt-oss-120b” untuk mengirim permintaan API dan mengatur isi permintaan. Metode permintaan dan isi permintaan diperoleh dari dokumen API situs web kami. Situs web kami juga menyediakan pengujian Apifox demi kenyamanan Anda.
  2. Mengganti dengan kunci CometAPI Anda yang sebenarnya dari akun Anda.
  3. Masukkan pertanyaan atau permintaan Anda ke dalam kolom konten—inilah yang akan ditanggapi oleh model.
  4. Memproses respons API untuk mendapatkan jawaban yang dihasilkan.

CometAPI menyediakan REST API yang sepenuhnya kompatibel—untuk migrasi yang lancar. Detail penting untuk  Dokumen API:

  • Titik akhir: https://api.cometapi.com/v1/chat/completions
  • Parameter Model: gpt-oss-120b
  • Otentikasi: Bearer YOUR_CometAPI_API_KEY
  • Jenis konten: application/json .
  • Parameter Intipromptmax_tokens_to_sampletemperaturestop_sequences

Meskipun GPT‑OSS dapat digunakan sepenuhnya secara offline, ia juga mendukung API obrolan yang kompatibel dengan OpenAI ketika dihosting pada layanan seperti Hugging Face atau AWS Bedrock.

Berikut contoh integrasi menggunakan Python:

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.cometapi.com/v1/chat/completions",  # or AWS/Azure provider

    api_key=cometapi_key
)

response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "Explain how quantum tunneling works."}
    ]
)

print(response.choices.message.content)

Atau, Anda dapat menjalankan model secara lokal menggunakan alat seperti Penerapan LMD, Inferensi Pembuatan Teks (TGI), atau vLLM.

Lihat Juga GPT-OSS-20B

SHARE THIS BLOG

500+ Model dalam Satu API

Diskon hingga 20%