GPT-OSS-120B API

CometAPI
AnnaAug 7, 2025
GPT-OSS-120B API

OpenAI'er gpt-oss-120b markerer organisationens første open-weight-udgivelse siden GPT-2, der tilbyder udviklere gennemsigtig, tilpassesog Høj ydeevne AI-kapaciteter under Apache 2.0 licensDesignet til sofistikerede ræsonnement og agent applikationer demokratiserer denne model adgangen til avancerede teknologier til store sprog, hvilket muliggør lokal implementering og dybdegående finjustering.

Kernefunktioner og designfilosofi

GPT-OSS-modeller er designet som generelle, tekstbaserede LLM'er. De understøtter kognitive opgaver på højt niveau, herunder matematisk ræsonnement, struktureret analyse og sprogforståelse. I modsætning til lukkede kommercielle modeller som GPT-4 tillader GPT-OSS fuld download og brug af modelvægte, hvilket giver forskere og udviklere hidtil uset adgang til at inspicere, finjustere og implementere modeller udelukkende på deres infrastruktur.

Grundlæggende oplysninger

  • Driftsparametre117 milliarder i alt, 5.1 milliarder aktiv via Blanding af eksperter (MoE)
  • LicensApache 2.0 til ubegrænset kommerciel og akademisk brug
  • Kontekstvindue: Op til 128 tokens, der understøtter lange input og argumentation i flere dokumenter
  • Chain-of-Thought: Fuld Cot output til revisionsbarhed og finjusteret kontrol
  • Strukturerede udgangeIndbygget understøttelse af JSON, XML og brugerdefinerede skemaer.

Tekniske detaljer

GPT-OSS udnytter en Transformer rygrad forstærket med en Blanding af eksperter (MoE) arkitektur for at opnå sparsom aktivering og reducere inferensomkostninger. gpt-oss-120b modellen indeholder 128 eksperter fordelt på tværs 36 lag, aktiverer 4 eksperter pr. token (5.1 B aktive parametre), mens gpt-oss-20b udnytter 32 eksperter i løbet af 24 lag, aktiverer 4 eksperter pr. token (3.6 B aktive parametre). Den anvender skiftevis tæt og lokalt båndet sparsom opmærksomhed, grupperet opmærksomhed på flere forespørgsler (gruppestørrelse 8), og støtte en 128 k token-kontekstvindue – uovertruffen i åbne løsninger til dato. Hukommelseseffektiviteten forbedres yderligere via **4-bit blandet præcisionskvantisering**, hvilket muliggør større kontekster på almindelig hardware.

GPT-OSS-modeller har gennemgået grundig benchmarking mod velkendte datasæt, hvilket har vist konkurrencedygtig – om ikke overlegen – ydeevne sammenlignet med proprietære modeller af lignende størrelse.

Benchmarking og præstationsevaluering

På standard benchmarks, gpt-oss-120b matcher eller overgår OpenAIs proprietære o4-mini model:

  • MMLU (Massive Multitask Language Understanding)~88% nøjagtighed
  • Codeforces Elo (kodningsræsonnement): ~ 2205
  • AIME (matematikkonkurrence med værktøjer): ~87.9 %
  • SundhedsbænkOvergår o4-mini betydeligt i kliniske QA- og diagnoseopgaver
  • Tau-Bench (Detailhandel + Ræsonnementopgaver)~62% i gennemsnit

Modelversion

  • Standardvariant: gpt-oss-120b (V1.0)
  • Aktive parametre: 5.1 B (dynamisk MoE-valg)
  • Opfølgende udgivelserPlanlagte programrettelser til forbedring sikkerhedsfiltre og finjustering af specialiseret domæne

Begrænsninger

Trods deres styrke har GPT-OSS-modeller visse begrænsninger:

  • Kun tekstbaseret grænsefladeI modsætning til GPT-4o eller Gemini understøtter GPT-OSS ikke multimodale input (billeder, lyd, video).
  • Ingen gennemsigtighed i træningssættetOpenAI har ikke frigivet detaljer om specifikke anvendte datasæt, hvilket kan give anledning til bekymring for akademisk reproducerbarhed eller bias-revision.
  • Uoverensstemmelse i ydeevneNogle benchmarks fra fællesskabet (f.eks. Simple-Bench) rapporterer dårlige resultater i specifikke ræsonnementstests (~22 % på nogle opgaver for 120b), hvilket tyder på Ydeevnen kan variere betydeligt på tværs af domæner.
  • Hardware begrænsninger120B-modellen kræver betydelig beregningskraft for lokal inferens, hvilket gør den utilgængelig for almindelige udviklere uden GPU-adgang.
  • SikkerhedsafvejningerSelvom de er testet under kontradiktoriske finjusteringsscenarier, betyder den åbne karakter, at disse modeller stadig kan misbruges – f.eks. til spam, misinformation eller model-jailbreaks – hvis de ikke styres korrekt.

Ikke desto mindre rapporterer OpenAI, at gpt-oss-modeller ikke øger de nuværende sikkerhedsrisici på grænseniveau, især inden for biorisiko eller cybersikkerhed.

Sådan ringer du gpt-oss-120b API fra CometAPI

gpt-oss-120b API-priser i CometAPI, 20 % rabat på den officielle pris:

Indtast tokens$0.16
Output tokens$0.80

Påkrævede trin

  • Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, bedes du registrere dig først
  • Få adgangslegitimations-API-nøglen til grænsefladen. Klik på "Tilføj token" ved API-tokenet i det personlige center, få token-nøglen: sk-xxxxx og send.
  • Hent url'en til dette websted: https://api.cometapi.com/

Brug metoden

  1. Vælg “gpt-oss-120b” endepunkt for at sende API-anmodningen og indstille anmodningsteksten. Forespørgselsmetoden og anmodningsteksten er hentet fra vores websteds API-dokument. Vores websted tilbyder også Apifox-test for din bekvemmelighed.
  2. Erstatte med din faktiske CometAPI-nøgle fra din konto.
  3. Indsæt dit spørgsmål eller din anmodning i indholdsfeltet – det er det, modellen vil reagere på.
  4. . Behandle API-svaret for at få det genererede svar.

CometAPI leverer en fuldt kompatibel REST API – til problemfri migrering. Vigtige detaljer til  API-dok:

  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Modelparameter: gpt-oss-120b
  • Godkendelse: Bearer YOUR_CometAPI_API_KEY
  • Indholdstype: application/json .
  • Kerneparametrepromptmax_tokens_to_sampletemperaturestop_sequences

Selvom GPT-OSS kan bruges helt offline, understøtter det også OpenAI-kompatible chat-API'er når det hostes på tjenester som Hugging Face eller AWS Bedrock.

Her er et eksempel på en integration ved hjælp af Python:

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.cometapi.com/v1/chat/completions",  # or AWS/Azure provider

    api_key=cometapi_key
)

response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "Explain how quantum tunneling works."}
    ]
)

print(response.choices.message.content)

Alternativt kan du køre modellerne lokalt ved hjælp af værktøjer som LMDeploy, Tekstgenereringsinferens (TGI) eller vLLM.

Se også GPT-OSS-20B

SHARE THIS BLOG

500+ modeller i én API

Op til 20% rabat