OpenAI en gpt-oss-120b GPT-2'den bu yana kuruluşun ilk açık ağırlık sürümünü işaret ediyor ve geliştiricilere sunuyor şeffaf, özelleştirilebilir, ve yüksek performans Yapay zeka yetenekleri Apache 2.0 lisansı. Sofistike kullanım için tasarlandı muhakeme ve ajan Uygulamalar, bu modelin gelişmiş büyük dil teknolojilerine erişimi demokratikleştirmesini, şirket içi dağıtım ve derinlemesine ince ayar yapılmasını sağlar.
Temel Özellikler ve Tasarım Felsefesi
GPT‑OSS modelleri, genel amaçlı, yalnızca metin içeren LLM'ler olarak tasarlanmıştır. Matematiksel akıl yürütme, yapılandırılmış analiz ve dil anlama gibi üst düzey bilişsel görevleri destekler. GPT‑4 gibi kapalı ticari modellerin aksine, GPT‑OSS model ağırlıklarının tam olarak indirilmesine ve kullanılmasına olanak tanıyarak araştırmacılara ve geliştiricilere modelleri tamamen kendi altyapılarında inceleme, ince ayar yapma ve dağıtma konusunda benzersiz bir erişim sağlar.
temel Bilgiler
- Parametreler: 117 milyar toplam, 5.1 milyar aktif üzerinden Uzmanlar Karması (MEB)
- Lisans: Apache 2.0, ticari ve akademik kullanım için sınırsızdır
- Bağlam Penceresi: Up to 128 bin tokenuzun biçimli girdileri ve çok belgeli muhakemeyi destekler
- Düşünce Zinciri: Tam CoT denetlenebilirlik ve ayrıntılı kontrol için çıktılar
- Yapılandırılmış Çıktılar: JSON, XML ve özel şemalar için yerel destek.
Teknik detaylar
GPT-OSS, bir Trafo omurga ile güçlendirilmiş Uzmanlar Karması (MEB) seyrek aktivasyon elde etmek ve çıkarım maliyetlerini azaltmak için mimari gpt-oss-120b model içerir 128 uzmanları dağıtılmış 36 katmanları, aktive ediliyor Jeton başına 4 uzman (5.1 B aktif parametreler), gpt-oss-20b kullanır 32 uzmanları tekrar 24 katmanları, aktive ediliyor Jeton başına 4 uzman (3.6 B aktif parametre). Kullanır yoğun ve yerel olarak bantlı seyrek dikkatin dönüşümlü olarak, gruplanmış çoklu sorgu dikkati (grup büyüklüğü 8) ve destek 128 k Token bağlam penceresi—bugüne kadarki açık ağırlık tekliflerinde eşi benzeri olmayan bir özellik. Bellek verimliliği, **4 bit karışık hassasiyetli niceleme** ile daha da artırılarak, standart donanımlarda daha geniş bağlamlara olanak tanır.
GPT-OSS modelleri, benzer büyüklükteki tescilli modellerle karşılaştırıldığında rekabetçi, hatta daha üstün bir performans ortaya koyan, iyi bilinen veri kümelerine karşı sıkı kıyaslamalardan geçmiştir.
Karşılaştırmalı Değerlendirme ve Performans Değerlendirmesi
Standart ölçütlere göre, gpt-oss-120b OpenAI'nin tescilli özellikleriyle eşleşir veya onları aşar o4-mini Model:
- MMLU (Devasa Çok Görevli Dil Anlama): ~%88 doğruluk
- Codeforces Elo (kodlama mantığı): ~2205
- AIME (araçlı matematik yarışması): ~87.9%
- Sağlık Tezgahı: Klinik QA ve tanı görevlerinde o4-mini'den önemli ölçüde daha iyi performans gösterir
- Tau-Bench (Perakende + Muhakeme görevleri): Ortalama olarak ~%62
Model Sürümü
- Varsayılan Varyant:
gpt-oss-120b(V1.0) - Aktif Parametreler: 5.1 B (dinamik MoE seçimi)
- Takip Sürümleri: Geliştirmek için planlanan yamalar güvenlik filtreleri ve uzmanlaşmış alan ince ayarı
Sınırlamalar
GPT‑OSS modelleri güçlerine rağmen bazı sınırlamalarla birlikte gelir:
- Yalnızca metin arayüzü: GPT-4o veya Gemini'nin aksine, GPT‑OSS çok modlu girişleri (görüntüler, ses, video) desteklemez.
- Eğitim seti şeffaflığı yok: OpenAI, kullanılan belirli veri kümeleri hakkında ayrıntıları yayınlamadı; bu durum akademik yeniden üretilebilirlik veya önyargı denetimi konusunda endişelere yol açabilir.
- Performans tutarsızlığı: Bazı topluluk ölçütleri (örneğin, Basit-Bench) belirli muhakeme testlerinde zayıf sonuçlar bildiriyor (22b için bazı görevlerde yaklaşık %120), bu da şunu gösteriyor: performans alanlar arasında önemli ölçüde farklılık gösterebilir.
- Donanım sınırlamaları: 120B modeli, yerel çıkarım için önemli miktarda hesaplama gerektiriyor ve bu da GPU erişimi olmayan sıradan geliştiriciler için erişilemez hale getiriyor.
- Güvenlik ödünleşimleri: Her ne kadar çekişmeli ince ayar senaryoları altında test edilmiş olsalar da, açık ağırlık yapısı, bu modellerin düzgün yönetilmediği takdirde hâlâ kötüye kullanılabileceği anlamına gelir (örneğin, spam, yanlış bilgilendirme veya model jailbreak'leri için).
Bununla birlikte, OpenAI gpt-oss modellerinin mevcut sınır düzeyindeki güvenlik risklerini gündeme getirmeyinÖzellikle biyorisk veya siber güvenlik alanlarında.
Nasıl aranır gpt-oss-120b CometAPI'den API
gpt-oss-120b CometAPI'de API Fiyatlandırması, resmi fiyattan %20 indirim:
| Giriş Jetonları | $0.16 |
| Çıkış Tokenları | $0.80 |
Gerekli Adımlar
- Giriş cometapi.com. Eğer henüz kullanıcımız değilseniz lütfen önce kayıt olun
- Arayüzün erişim kimlik bilgisi API anahtarını edinin. Kişisel merkezdeki API belirtecinde “Token Ekle”ye tıklayın, belirteç anahtarını edinin: sk-xxxxx ve gönderin.
- Bu sitenin URL'sini alın: https://api.cometapi.com/
Kullanım Yöntemi
- " öğesini seçin
gpt-oss-120b” API isteğini göndermek ve istek gövdesini ayarlamak için uç nokta. İstek yöntemi ve istek gövdesi web sitemizin API belgesinden elde edilir. Web sitemiz ayrıca kolaylığınız için Apifox testi de sağlar. - Yer değiştirmek Hesabınızdaki gerçek CometAPI anahtarınızla.
- Sorunuzu veya isteğinizi içerik alanına girin; model buna cevap verecektir.
- . Üretilen cevabı almak için API yanıtını işleyin.
CometAPI, sorunsuz geçiş için tamamen uyumlu bir REST API sağlar. Temel ayrıntılar API belgesi:
- Son nokta: https://api.cometapi.com/v1/chat/completions
- Model Parametresi: gpt-oss-120b
- Kimlik doğrulama:
Bearer YOUR_CometAPI_API_KEY - İçerik türü:
application/json. - Temel Parametreler:
prompt,max_tokens_to_sample,temperature,stop_sequences
GPT‑OSS tamamen çevrimdışı kullanılabilirken, aynı zamanda şunları da destekler: OpenAI uyumlu sohbet API'leri Hugging Face veya AWS Bedrock gibi servislerde barındırıldığında.
İşte Python kullanılarak yapılmış bir entegrasyon örneği:
from openai import OpenAI
import os
client = OpenAI(
base_url="https://api.cometapi.com/v1/chat/completions", # or AWS/Azure provider
api_key=cometapi_key
)
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[
{"role": "user", "content": "Explain how quantum tunneling works."}
]
)
print(response.choices.message.content)
Alternatif olarak, modelleri şu araçları kullanarak yerel olarak çalıştırabilirsiniz: LM Dağıtımı, **Metin Oluşturma Çıkarımı (TGI)**ya da vLLM.
Ayrıca bakınız GPT-OSS-20B


