GPT-OSS-20B API

CometAPI
AnnaAug 7, 2025
GPT-OSS-20B API

gpt-oss-20b er en bærbar, åben-vægtet ræsonnementmodel tilbyde o3-mini-niveau ydeevne, agentvenlig værktøjsbrug, og fuld støtte til tankekæden under en permissiv licens. Selvom den ikke er lige så kraftfuld som dens 120 B-modstykke, er den unikt egnet til implementeringer på enheden med lav latenstid og privatlivsfølsommeUdviklere bør overveje dens kendte kompositionelle begrænsninger, især på videnstunge opgaver, og tilpas sikkerhedsforanstaltningerne i overensstemmelse hermed.

Grundlæggende oplysninger

gpt-oss-20b er en 21 milliarder parametre åben vægtet ræsonnementsmodel udgivet af OpenAI under Apache 2.0-licens, Så fuld adgang til download, finjustering og omdistributionDet markerer OpenAIs første udgivelse af en model med åben vægt siden GPT-2 i 2019 og er optimeret til kantimplementering og lokal inferens på systemer med ≥ 16 GB VRAM.

  • Parametre: 21 milliarder i alt, hvoraf 3.6 milliarder er aktive pr. token
  • Arkitektur: Transformer med blanding af eksperter (MoE)
  • Kontekstvindue: Op til 128 tokens til langsigtet forståelse
  • Licens: Apache 2.0, der muliggør ubegrænset akademisk og kommerciel brug ().

Funktioner og teknisk arkitektur

Model specifikationer

  • Driftsparametre21 B i alt, 3.6 milliarder aktive pr. token via en blanding af eksperter (MoE) arkitektur med 32 eksperter pr. lag, 4 aktive pr. token .
  • Lag: 24, kontekstvindue op til 128 tokens, maks. outputtokens op til 32K i nogle implementeringer.
  • Opmærksomhed og hukommelseSkiftende tætte + sparsomme opmærksomhedsmønstre; grupperet opmærksomhed med flere forespørgsler (gruppestørrelse = 8) for inferenseffektivitet.

Trænings- og ræsonnementskontroller

  • Trænet i engelskdominerende tekster med fokus på STEM, kodning og almen viden.
  • Understøtter tankekæde (CoT) ræsonnement og justerbar ræsonnementniveauer (Lav, Mellem, Høj) afhængigt af opgavens kompleksitet.

Benchmark ydeevne

  • Matcher eller overgår ydeevnen af OpenAIs o3-mini-model på benchmarks som MMLU, AIME, HLE, HealthBench, Codeforces, Tau-Bench selv i sin mindre størrelse.
  • Overgår proprietære modeller som f.eks. OpenAI o1, GPT-4o og o4-mini inden for sundhed og matematisk ræsonnement opgaver på højt ræsonnementsniveau.
  • Sammenlignet med den større GPT-OSS-120B (117 B), halter den bagefter i opgaver, der er afhængige af dyb symbolsk ræsonnement eller omfattende viden (f.eks. GPQA), men forbliver effektiv inden for kodning og sundhedsdomæner.

20 B varianten imponerer også: den konkurrerer o3-mini på tværs af den samme suite på trods af dens mindre fodaftryk, hvilket viser effektiv skalering af ræsonnementsfunktioner med MoE.

  • MMLU (Massive Multitask Language Understanding)~88% nøjagtighed
  • Codeforces Elo (kodningsræsonnement): ~ 2205
  • AIME (matematikkonkurrence med værktøjer): ~87.9 %
  • SundhedsbænkOvergår o4-mini betydeligt i kliniske QA- og diagnoseopgaver
  • Tau-Bench (Detailhandel + Ræsonnementopgaver)~62% i gennemsnit

Modelversion og sammenligning

ModelParametreAktive parametreHardwarebehovBenchmark ydeevne
gpt-oss-20b21 B3.6 B≥ 16 GB GPU eller på enhedenSammenlignes med o3-mini
gpt-oss-120b117 B5.1 B80 GB+ grafikkortMatcher eller overgår o4-mini

Designet som en letvægtsmodpart til gpt-oss-120BGPT-OSS-20B tilbyder bærbarhed, samtidig med at den opretholder stærk opgaveydelse, hvor ressourcerne er begrænsede. Den skiller sig ud fra proprietære OpenAI-modeller ved at være åbent tilgængelig og justerbar.


Begrænsninger

  • Lavere videnshukommelse på komplekse opgaver som GPQA sammenlignet med større modeller.
  • Rapporter fra brugere indikerer variation i den virkelige præstation, især for kodning eller generelle vidensopgaver; nogle tilskriver dette tidlig implementering eller hurtig misbrug.
  • Sikkerheds- og misbrugsrisiciSelvom OpenAI evaluerede modpartens finjusterede gpt-oss-varianter, nåede selv disse ikke høj kapacitet inden for biorisiko- eller cyberdomæner. Alligevel kan brugere, der implementerer storstilede use cases, have brug for ekstra sikkerhedsforanstaltninger.

Brug cases

OpenAI har udviklet GPT-OSS til at understøtte en bredt spektrum af anvendelsessager, lige fra forbrugerapps til analyser i virksomhedsklassen. 20B-varianten er optimeret til lokal udførelse og kan køre på enheder med så lidt som 16GB RAM, Såsom avancerede bærbare computere eller MacBooks med M-serie chipsGPT-OSS-20B er ideel til:

  • Lokal/offline inferens på Windows-pc'er (via Windows AI Foundry), macOS eller Snapdragon-baserede edge-enheder.
  • Agentiske arbejdsgangeKodeudførelse, værktøjsbrug, browserbaserede agenter eller autonome assistenter i indstillinger med begrænset båndbredde.
  • Hurtig prototyping og finjustering, især for udviklere, der arbejder uden cloudinfrastruktur eller med privatlivsbegrænsninger.

Andre modelsammenligninger

  • gpt-oss-20bvs. o3-mini / o4-miniGPT-OSS-20B konkurrerer med o3-mini i nøjagtighed og fælles ræsonnement; den er mere effektiv og åben end o4-mini, men klarer sig dårligere end gpt-oss-120B på krævende ræsonnementsopgaver.
  • gpt-oss-20b vs. LLaMA 4, GLM-4.5, DeepSeekGPT-OSS-20B bringer fuld åbenvægtstransparens under Apache 2.0, i modsætning til semi-åbne modeller; men brugere rapporterer i nogle tilfælde, at de foretrækker GLM-4.5-AIR på grund af ræsonnementskvalitet.

Sådan ringer du gpt-oss-20b API fra CometAPI

gpt-oss-20b API-priser i CometAPI, 20 % rabat på den officielle pris:

Indtast tokens$0.08
Output tokens$0.32

Påkrævede trin

  • Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, bedes du registrere dig først
  • Få adgangslegitimations-API-nøglen til grænsefladen. Klik på "Tilføj token" ved API-tokenet i det personlige center, få token-nøglen: sk-xxxxx og send.
  • Hent url'en til dette websted: https://api.cometapi.com/

Brug metoden

  1. Vælg "gpt-oss-20b” endepunkt for at sende API-anmodningen og indstille anmodningsteksten. Forespørgselsmetoden og anmodningsteksten er hentet fra vores websteds API-dokument. Vores websted tilbyder også Apifox-test for din bekvemmelighed.
  2. Erstatte med din faktiske CometAPI-nøgle fra din konto.
  3. Indsæt dit spørgsmål eller din anmodning i indholdsfeltet – det er det, modellen vil reagere på.
  4. . Behandle API-svaret for at få det genererede svar.

CometAPI leverer en fuldt kompatibel REST API – til problemfri migrering. Vigtige detaljer til  API-dok:

  • Kerneparametrepromptmax_tokens_to_sampletemperaturestop_sequences
  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Modelparameter: "gpt-oss-20b"
  • Godkendelse: Bearer YOUR_CometAPI_API_KEY
  • Indholdstype: application/json .

Eksempel på API-kald

Selvom GPT-OSS-modeller er åbne, kan de tilgås via API'er som CometAPI og andre. gpt-oss-20B, et typisk kald til CometAPI ser sådan ud:

POST  https://api.cometapi.com/v1/chat/completions
{
  "model": "gpt-oss-20b",
  "messages": [{ "role": "system", "content": "Reasoning: high" },
               { "role": "user", "content": "Solve bilateral integral…" }],
  "max_tokens": 2048,
  "temperature": 0.0
}

Dette understøtter funktionskald, strukturerede outputskemaer, værktøjsintegrationer og ræsonnementskontrol via systemprompter.

Se også GPT-OSS-120B

SHARE THIS BLOG

Læs mere

500+ modeller i én API

Op til 20% rabat