GPT-OSS-120B API

CometAPI
AnnaAug 7, 2025
GPT-OSS-120B API

اوپن اے آئی gpt-oss-120b GPT-2 کے بعد تنظیم کی پہلی اوپن ویٹ ریلیز کی نشاندہی کرتا ہے، جو ڈویلپرز کو پیش کرتا ہے۔ شفاف, مرضی کے مطابق، اور اعلی کارکردگی کے تحت AI صلاحیتیں۔ اپاچی 2.0 لائسنس. نفیس کے لیے ڈیزائن کیا گیا ہے۔ ترک اور ایجنٹ ایپلی کیشنز، یہ ماڈل بڑی زبان کی جدید ٹیکنالوجیز تک رسائی کو جمہوری بناتا ہے، جس سے آن پریمیسس تعیناتی اور گہرائی سے فائن ٹیوننگ ممکن ہوتی ہے۔

بنیادی خصوصیات اور ڈیزائن فلسفہ

GPT-OSS ماڈلز کو عمومی مقصد، صرف ٹیکسٹ LLMs کے طور پر ڈیزائن کیا گیا ہے۔ وہ اعلیٰ سطح کے علمی کاموں کی حمایت کرتے ہیں، بشمول ریاضیاتی استدلال، ساختی تجزیہ، اور زبان کی سمجھ۔ بند کمرشل ماڈلز جیسے کہ GPT-4 کے برعکس، GPT-OSS ماڈل وزن کے مکمل ڈاؤن لوڈ اور استعمال کی اجازت دیتا ہے، جس سے محققین اور ڈویلپرز کو ان کے بنیادی ڈھانچے پر مکمل طور پر انسپیکشن، فائن ٹیون اور ماڈلز کو تعینات کرنے کے لیے بے مثال رسائی ملتی ہے۔

بنیادی معلومات

  • پیرامیٹر: 117 بلین کل، 5.1 بلین فعال کی طرف سے ماہرین کا مرکب (MoE)
  • لائسنس: اپاچی 2.0 غیر محدود تجارتی اور تعلیمی استعمال کے لیے
  • سیاق و سباق کی کھڑکی: تک 128 K ٹوکن, طویل فارم کے ان پٹ اور کثیر دستاویزی استدلال کی حمایت
  • سوچ کا سلسلہ: مکمل CoT آڈٹ ایبلٹی اور عمدہ کنٹرول کے لیے نتائج
  • سٹرکچرڈ آؤٹ پٹس: JSON، XML، اور حسب ضرورت اسکیموں کے لیے مقامی تعاون۔

تکنیکی تفصیلات

GPT-OSS لیوریجز a ٹرانسفارمر ریڑھ کی ہڈی a کے ساتھ بڑھا ہوا ماہرین کا مرکب (MoE) آرکیٹیکچر ویرل ایکٹیویشن حاصل کرنے اور تخمینہ لاگت کو کم کرنے کے لئے۔ دی gpt-oss-120b ماڈل پر مشتمل ہے 128 ماہرین بھر میں تقسیم 36 تہوں، چالو کرنا 4 ماہرین فی ٹوکن (5.1 بی فعال پیرامیٹرز)، جبکہ gpt-oss-20b استعمال کرتا ہے 32 ماہرین پر 24 تہوں، چالو کرنا 4 ماہرین فی ٹوکن (3.6 بی فعال پیرامیٹرز)۔ یہ ملازمت کرتا ہے۔ باری باری گھنے اور مقامی طور پر بینڈڈ ویرل توجہ, گروپ کردہ کثیر استفسار توجہ (گروپ سائز 8)، اور سپورٹ a 128 K ٹوکن سیاق و سباق کی ونڈو — آج تک اوپن ویٹ پیشکشوں میں بے مثال۔ کموڈٹی ہارڈویئر پر بڑے سیاق و سباق کو فعال کرتے ہوئے **4-بٹ مکسڈ پریزین کوانٹائزیشن** کے ذریعے میموری کی کارکردگی کو مزید بڑھایا گیا ہے۔

GPT‑OSS ماڈلز نے معروف ڈیٹاسیٹس کے خلاف سخت بینچ مارکنگ کی ہے، جس سے مسابقتی — اگر اعلیٰ نہیں — کارکردگی کو اسی سائز کے ملکیتی ماڈلز کے مقابلے میں ظاہر کیا گیا ہے۔

بینچ مارکنگ اور کارکردگی کی تشخیص

معیاری بینچ مارکس پر، gpt-oss-120b OpenAI کی ملکیت سے میل کھاتا ہے یا اس سے زیادہ ہے۔ o4-mini ماڈل:

  • ایم ایم ایل یو (بڑے پیمانے پر ملٹی ٹاسک لینگویج اسٹینڈنگ): ~88% درستگی
  • Codeforces Elo (کوڈنگ استدلال): ~ 2205،XNUMX
  • AIME (ٹولز کے ساتھ ریاضی کا مقابلہ): ~87.9%
  • ہیلتھ بینچ: کلینکل QA اور تشخیصی کاموں میں نمایاں طور پر o4-mini سے بہتر کارکردگی کا مظاہرہ کرتا ہے۔
  • Tau-Bench (خوردہ + استدلال کے کام): ~62% اوسط

ماڈل ورژن

  • ڈیفالٹ ویرینٹ: gpt-oss-120b (v1.0)
  • فعال پیرامیٹرز: 5.1 B (متحرک MoE انتخاب)
  • فالو اپ ریلیز: بہتر کرنے کے لیے منصوبہ بند پیچ حفاظتی فلٹرز اور خصوصی ڈومین فائن ٹیوننگ

حدود

اپنی طاقت کے باوجود، GPT-OSS ماڈل کچھ حدود کے ساتھ آتے ہیں:

  • صرف ٹیکسٹ انٹرفیس: GPT-4o یا Gemini کے برعکس، GPT‑OSS ملٹی موڈل ان پٹس (تصاویر، آڈیو، ویڈیو) کو سپورٹ نہیں کرتا ہے۔
  • کوئی ٹریننگ سیٹ شفافیت نہیں۔: OpenAI نے استعمال کیے گئے مخصوص ڈیٹا سیٹس کی تفصیلات جاری نہیں کی ہیں، جس سے تعلیمی تولیدی صلاحیت یا تعصب آڈیٹنگ کے لیے خدشات پیدا ہو سکتے ہیں۔
  • کارکردگی میں تضاد: کچھ کمیونٹی بینچ مارکس (مثال کے طور پر، سادہ بنچ) مخصوص استدلال کے ٹیسٹوں میں خراب نتائج کی اطلاع دیتے ہیں (22b کے لیے کچھ کاموں پر 120%)، تجویز کرتے ہیں ڈومینز میں کارکردگی نمایاں طور پر مختلف ہو سکتی ہے۔.
  • ہارڈ ویئر کی حدود: 120B ماڈل کو مقامی تخمینہ کے لیے اہم حساب کی ضرورت ہوتی ہے، جس سے یہ GPU رسائی کے بغیر آرام دہ ڈویلپرز کے لیے ناقابل رسائی ہو جاتا ہے۔
  • سیفٹی ٹریڈ آف: اگرچہ مخالفانہ فائن ٹیوننگ منظرناموں کے تحت تجربہ کیا گیا ہے، کھلے وزن کی نوعیت کا مطلب ہے کہ ان ماڈلز کا اب بھی غلط استعمال کیا جا سکتا ہے — مثلاً، سپیم، غلط معلومات، یا ماڈل جیل بریک کے لیے — اگر مناسب طریقے سے کنٹرول نہ کیا جائے۔

بہر حال، OpenAI رپورٹ کرتا ہے کہ gpt-oss ماڈلز **موجودہ سرحدی سطح کے حفاظتی خطرات میں اضافہ نہ کریں۔**خاص طور پر بائیورک یا سائبرسیکیوریٹی ڈومینز میں۔

کال کیسے کریں؟ gpt-oss-120b CometAPI سے API

gpt-oss-120b CometAPI میں API قیمتوں کا تعین، سرکاری قیمت میں 20% چھوٹ:

ان پٹ ٹوکنز$0.16
آؤٹ پٹ ٹوکنز$0.80

مطلوبہ اقدامات

  • داخل ہوجاو cometapi.com. اگر آپ ابھی تک ہمارے صارف نہیں ہیں، تو براہ کرم پہلے رجسٹر کریں۔
  • انٹرفیس کی رسائی کی سند API کلید حاصل کریں۔ ذاتی مرکز میں API ٹوکن پر "ٹوکن شامل کریں" پر کلک کریں، ٹوکن کی حاصل کریں: sk-xxxxx اور جمع کرائیں۔
  • اس سائٹ کا یو آر ایل حاصل کریں: https://api.cometapi.com/

طریقہ استعمال کریں

  1. منتخب کریں "gpt-oss-120bAPI کی درخواست بھیجنے اور درخواست کا باڈی سیٹ کرنے کے لیے اینڈ پوائنٹ۔ درخواست کا طریقہ اور درخواست کا باڈی ہماری ویب سائٹ API دستاویز سے حاصل کیا جاتا ہے۔ ہماری ویب سائٹ آپ کی سہولت کے لیے Apifox ٹیسٹ بھی فراہم کرتی ہے۔
  2. بدل دیں۔ آپ کے اکاؤنٹ سے اپنی اصل CometAPI کلید کے ساتھ۔
  3. مواد کے خانے میں اپنا سوال یا درخواست داخل کریں—یہ وہی ہے جس کا ماڈل جواب دے گا۔
  4. . تیار کردہ جواب حاصل کرنے کے لیے API جواب پر کارروائی کریں۔

CometAPI مکمل طور پر ہم آہنگ REST API فراہم کرتا ہے — بغیر کسی رکاوٹ کے منتقلی کے لیے۔ کی اہم تفصیلات  API دستاویز:

  • اختتامی نقطہ: https://api.cometapi.com/v1/chat/completions
  • ماڈل پیرامیٹر: gpt-oss-120b
  • توثیق: Bearer YOUR_CometAPI_API_KEY
  • مواد کی قسم: application/json .
  • بنیادی پیرامیٹرزpromptmax_tokens_to_sampletemperaturestop_sequences

اگرچہ GPT-OSS کو مکمل طور پر آف لائن استعمال کیا جا سکتا ہے، یہ سپورٹ بھی کرتا ہے۔ OpenAI سے ہم آہنگ چیٹ APIs جب Hugging Face یا AWS Bedrock جیسی سروسز پر میزبانی کی جاتی ہے۔

Python کا استعمال کرتے ہوئے ایک نمونہ انضمام یہ ہے:

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.cometapi.com/v1/chat/completions",  # or AWS/Azure provider

    api_key=cometapi_key
)

response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "Explain how quantum tunneling works."}
    ]
)

print(response.choices.message.content)

متبادل طور پر، آپ ماڈلز کو مقامی طور پر ٹولز کا استعمال کر کے چلا سکتے ہیں۔ LMDeploy, ٹیکسٹ جنریشن انفرنس (TGI)، یا vLLM.

یہ بھی دیکھتے ہیں GPT-OSS-20B

SHARE THIS BLOG

مزید پڑھیں

500+ ماڈلز ایک API میں

20% تک چھوٹ