gpt-oss-20b er en bærbar, åben-vægtet ræsonnementmodel tilbyde o3-mini-niveau ydeevne, agentvenlig værktøjsbrug, og fuld støtte til tankekæden under en permissiv licens. Selvom den ikke er lige så kraftfuld som dens 120 B-modstykke, er den unikt egnet til implementeringer på enheden med lav latenstid og privatlivsfølsommeUdviklere bør overveje dens kendte kompositionelle begrænsninger, især på videnstunge opgaver, og tilpas sikkerhedsforanstaltningerne i overensstemmelse hermed.
Grundlæggende oplysninger
gpt-oss-20b er en 21 milliarder parametre åben vægtet ræsonnementsmodel udgivet af OpenAI under Apache 2.0-licens, Så fuld adgang til download, finjustering og omdistributionDet markerer OpenAIs første udgivelse af en model med åben vægt siden GPT-2 i 2019 og er optimeret til kantimplementering og lokal inferens på systemer med ≥ 16 GB VRAM.
- Parametre: 21 milliarder i alt, hvoraf 3.6 milliarder er aktive pr. token
- Arkitektur: Transformer med blanding af eksperter (MoE)
- Kontekstvindue: Op til 128 tokens til langsigtet forståelse
- Licens: Apache 2.0, der muliggør ubegrænset akademisk og kommerciel brug ().
Funktioner og teknisk arkitektur
Model specifikationer
- Driftsparametre21 B i alt, 3.6 milliarder aktive pr. token via en blanding af eksperter (MoE) arkitektur med 32 eksperter pr. lag, 4 aktive pr. token .
- Lag: 24, kontekstvindue op til 128 tokens, maks. outputtokens op til 32K i nogle implementeringer.
- Opmærksomhed og hukommelseSkiftende tætte + sparsomme opmærksomhedsmønstre; grupperet opmærksomhed med flere forespørgsler (gruppestørrelse = 8) for inferenseffektivitet.
Trænings- og ræsonnementskontroller
- Trænet i engelskdominerende tekster med fokus på STEM, kodning og almen viden.
- Understøtter tankekæde (CoT) ræsonnement og justerbar ræsonnementniveauer (Lav, Mellem, Høj) afhængigt af opgavens kompleksitet.
Benchmark ydeevne
- Matcher eller overgår ydeevnen af OpenAIs o3-mini-model på benchmarks som MMLU, AIME, HLE, HealthBench, Codeforces, Tau-Bench selv i sin mindre størrelse.
- Overgår proprietære modeller som f.eks. OpenAI o1, GPT-4o og o4-mini inden for sundhed og matematisk ræsonnement opgaver på højt ræsonnementsniveau.
- Sammenlignet med den større GPT-OSS-120B (117 B), halter den bagefter i opgaver, der er afhængige af dyb symbolsk ræsonnement eller omfattende viden (f.eks. GPQA), men forbliver effektiv inden for kodning og sundhedsdomæner.
20 B varianten imponerer også: den konkurrerer o3-mini på tværs af den samme suite på trods af dens mindre fodaftryk, hvilket viser effektiv skalering af ræsonnementsfunktioner med MoE.
- MMLU (Massive Multitask Language Understanding)~88% nøjagtighed
- Codeforces Elo (kodningsræsonnement): ~ 2205
- AIME (matematikkonkurrence med værktøjer): ~87.9 %
- SundhedsbænkOvergår o4-mini betydeligt i kliniske QA- og diagnoseopgaver
- Tau-Bench (Detailhandel + Ræsonnementopgaver)~62% i gennemsnit
Modelversion og sammenligning
| Model | Parametre | Aktive parametre | Hardwarebehov | Benchmark ydeevne |
|---|---|---|---|---|
gpt-oss-20b | 21 B | 3.6 B | ≥ 16 GB GPU eller på enheden | Sammenlignes med o3-mini |
| gpt-oss-120b | 117 B | 5.1 B | 80 GB+ grafikkort | Matcher eller overgår o4-mini |
Designet som en letvægtsmodpart til gpt-oss-120BGPT-OSS-20B tilbyder bærbarhed, samtidig med at den opretholder stærk opgaveydelse, hvor ressourcerne er begrænsede. Den skiller sig ud fra proprietære OpenAI-modeller ved at være åbent tilgængelig og justerbar.
Begrænsninger
- Lavere videnshukommelse på komplekse opgaver som GPQA sammenlignet med større modeller.
- Rapporter fra brugere indikerer variation i den virkelige præstation, især for kodning eller generelle vidensopgaver; nogle tilskriver dette tidlig implementering eller hurtig misbrug.
- Sikkerheds- og misbrugsrisiciSelvom OpenAI evaluerede modpartens finjusterede gpt-oss-varianter, nåede selv disse ikke høj kapacitet inden for biorisiko- eller cyberdomæner. Alligevel kan brugere, der implementerer storstilede use cases, have brug for ekstra sikkerhedsforanstaltninger.
Brug cases
OpenAI har udviklet GPT-OSS til at understøtte en bredt spektrum af anvendelsessager, lige fra forbrugerapps til analyser i virksomhedsklassen. 20B-varianten er optimeret til lokal udførelse og kan køre på enheder med så lidt som 16GB RAM, Såsom avancerede bærbare computere eller MacBooks med M-serie chipsGPT-OSS-20B er ideel til:
- Lokal/offline inferens på Windows-pc'er (via Windows AI Foundry), macOS eller Snapdragon-baserede edge-enheder.
- Agentiske arbejdsgangeKodeudførelse, værktøjsbrug, browserbaserede agenter eller autonome assistenter i indstillinger med begrænset båndbredde.
- Hurtig prototyping og finjustering, især for udviklere, der arbejder uden cloudinfrastruktur eller med privatlivsbegrænsninger.
Andre modelsammenligninger
gpt-oss-20bvs. o3-mini / o4-miniGPT-OSS-20B konkurrerer med o3-mini i nøjagtighed og fælles ræsonnement; den er mere effektiv og åben end o4-mini, men klarer sig dårligere end gpt-oss-120B på krævende ræsonnementsopgaver.gpt-oss-20bvs. LLaMA 4, GLM-4.5, DeepSeekGPT-OSS-20B bringer fuld åbenvægtstransparens under Apache 2.0, i modsætning til semi-åbne modeller; men brugere rapporterer i nogle tilfælde, at de foretrækker GLM-4.5-AIR på grund af ræsonnementskvalitet.
Sådan ringer du gpt-oss-20b API fra CometAPI
gpt-oss-20b API-priser i CometAPI, 20 % rabat på den officielle pris:
| Indtast tokens | $0.08 |
| Output tokens | $0.32 |
Påkrævede trin
- Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, bedes du registrere dig først
- Få adgangslegitimations-API-nøglen til grænsefladen. Klik på "Tilføj token" ved API-tokenet i det personlige center, få token-nøglen: sk-xxxxx og send.
- Hent url'en til dette websted: https://api.cometapi.com/
Brug metoden
- Vælg "
gpt-oss-20b” endepunkt for at sende API-anmodningen og indstille anmodningsteksten. Forespørgselsmetoden og anmodningsteksten er hentet fra vores websteds API-dokument. Vores websted tilbyder også Apifox-test for din bekvemmelighed. - Erstatte med din faktiske CometAPI-nøgle fra din konto.
- Indsæt dit spørgsmål eller din anmodning i indholdsfeltet – det er det, modellen vil reagere på.
- . Behandle API-svaret for at få det genererede svar.
CometAPI leverer en fuldt kompatibel REST API – til problemfri migrering. Vigtige detaljer til API-dok:
- Kerneparametre:
prompt,max_tokens_to_sample,temperature,stop_sequences - Endpoint: https://api.cometapi.com/v1/chat/completions
- Modelparameter: "
gpt-oss-20b" - Godkendelse:
Bearer YOUR_CometAPI_API_KEY - Indholdstype:
application/json.
Eksempel på API-kald
Selvom GPT-OSS-modeller er åbne, kan de tilgås via API'er som CometAPI og andre. gpt-oss-20B, et typisk kald til CometAPI ser sådan ud:
POST https://api.cometapi.com/v1/chat/completions
{
"model": "gpt-oss-20b",
"messages": [{ "role": "system", "content": "Reasoning: high" },
{ "role": "user", "content": "Solve bilateral integral…" }],
"max_tokens": 2048,
"temperature": 0.0
}
Dette understøtter funktionskald, strukturerede outputskemaer, værktøjsintegrationer og ræsonnementskontrol via systemprompter.
Se også GPT-OSS-120B


