gpt-oss-20b er en bærbar, åpen resonneringsmodell tilby o3-mini-nivå ytelse, agentvennlig verktøybruk, og full støtte for tankekjeden under en permissiv lisens. Selv om den ikke er like kraftig som sin 120 B-motpart, er den unikt egnet for implementeringer på enheten, med lav latens og personvernsensitiveUtviklere bør vurdere dens kjente komposisjonsbegrensninger, spesielt på kunnskapstunge oppgaver, og skreddersy sikkerhetstiltak deretter.
Grunnleggende informasjon
gpt-oss-20b er en 21 milliarder parametere med åpen vekt-resonnementsmodell utgitt av OpenAI under Apache 2.0-lisens, Slik at full vekttilgang for nedlasting, finjustering og omdistribusjonDet markerer OpenAIs første utgivelse av en modell med åpen vekt siden GPT-2 i 2019 og er optimalisert for kantdistribusjon og lokal inferens på systemer med ≥ 16 GB VRAM.
- Parametere: 21 milliarder totalt, hvorav 3.6 milliarder er aktive per token
- Arkitektur: Transformator med blanding av eksperter (MoE)
- Kontekstvindu: Opptil 128 000 tokens for forståelse i langformat
- Tillatelse: Apache 2.0, som muliggjør ubegrenset akademisk og kommersiell bruk ().
Funksjoner og teknisk arkitektur
Modellspesifikasjoner
- ParametreTotalt 21 B, 3.6 milliarder aktive per token via en blanding av eksperter (MoE)-arkitektur med 32 eksperter per lag, 4 aktive per token .
- Lag: 24, kontekstvindu opptil 128 XNUMX tokens, maks utgangstokener opptil 32K i noen utplasseringer.
- Oppmerksomhet og hukommelseAlternerende tette + spredte oppmerksomhetsmønstre; gruppert flerspørringsoppmerksomhet (gruppestørrelse = 8) for effektiv slutning.
Trenings- og resonneringskontroller
- Opplært i engelskdominerende tekst med fokus på STEM, koding og generell kunnskap.
- Støtter tankekjede (CoT) resonnement og justerbar resonneringsnivåer (Lav, Middels, Høy) avhengig av oppgavens kompleksitet.
Benchmark ytelse
- Matcher eller overgår ytelsen til OpenAIs o3-mini-modell på benchmarks som MMLU, AIME, HLE, HealthBench, Codeforces, Tau-Bench selv i sin mindre størrelse.
- Overgår proprietære modeller som OpenAI o1, GPT-4o og o4-mini innen helse og matematisk resonnering oppgaver på høyt resonneringsnivå.
- Sammenlignet med den større GPT-OSS-120B (117 B), henger den etter i oppgaver som er avhengige av dyp symbolsk resonnement eller omfattende kunnskap (f.eks. GPQA), men er fortsatt effektiv innen koding og helsedomener.
Ocuco 20 B varianten imponerer også: den konkurrerer o3-mini på tvers av samme suite til tross for det mindre fotavtrykket, noe som viser effektiv skalering av resonneringsmuligheter med MoE.
- MMLU (Massive Multitask Language Understanding)~88 % nøyaktighet
- Codeforces Elo (kodingsresonnement): ~2205 XNUMX
- AIME (mattekonkurranse med verktøy): ~87.9 %
- HelsebenkOvergår o4-mini betydelig i kliniske kvalitetssikrings- og diagnoseoppgaver
- Tau-Bench (Detaljhandel + Resonneringsoppgaver)~62 % i gjennomsnitt
Modellversjon og sammenligning
| Modell | Params | Aktive parametere | Maskinvarebehov | Benchmark ytelse |
|---|---|---|---|---|
gpt-oss-20b | 21 B | 3.6 B | ≥ 16 GB GPU eller på enheten | Sammenlignbart med o3-mini |
| gpt-oss-120b | 117 B | 5.1 B | 80 GB+ GPU | Samsvarer med eller overgår o4-mini |
Utviklet som en lettvektsmotpart til gpt-oss-120BGPT-OSS-20B tilbyr portabilitet samtidig som den opprettholder god oppgaveytelse der ressurser er begrenset. Den skiller seg ut fra proprietære OpenAI-modeller ved å være åpent tilgjengelig og justerbar.
Begrensninger
- Lavere kunnskapshukommelse på komplekse oppgaver som GPQA sammenlignet med større modeller.
- Rapporter fra brukere indikerer variasjon i ytelse i den virkelige verden, spesielt for koding eller generelle kunnskapsoppgaver; noen tilskriver dette tidlig implementering eller umiddelbar misbruk.
- Sikkerhets- og misbruksrisikoerSelv om OpenAI evaluerte fiendtlige, finjusterte gpt-oss-varianter, oppnådde ikke engang disse høy kapasitet innen biorisiko- eller cyberdomener. Likevel kan brukere som distribuerer storskala brukstilfeller kreve ekstra sikkerhetstiltak.
Brukstilfeller
OpenAI har utviklet GPT-OSS for å støtte en bredt spekter av brukstilfeller, alt fra forbrukerapper til analyser i bedriftsklassen. 20B-varianten er optimalisert for lokal utførelse, og kan kjøre på enheter med så lite som 16GB RAM, Eksempel avanserte bærbare datamaskiner eller MacBooks med M-seriebrikkerGPT-OSS-20B er ideell for:
- Lokal/offline-inferens på Windows-PC-er (via Windows AI Foundry), macOS eller Snapdragon-baserte edge-enheter.
- Agentiske arbeidsflyter: kodeutførelse, verktøybruk, nettleserbaserte agenter eller autonome assistenter i innstillinger med begrenset båndbredde.
- Rask prototyping og finjustering, spesielt for utviklere som jobber uten skyinfrastruktur eller med personvernbegrensninger.
Andre modellsammenligninger
gpt-oss-20bvs. o3-mini / o4-miniGPT-OSS-20B konkurrerer med o3-mini i nøyaktighet og samordnet resonnement; den er mer effektiv og åpen enn o4-mini, men yter dårligere enn gpt-oss-120B på krevende resonneringsoppgaver.gpt-oss-20bvs. LLaMA 4, GLM-4.5, DeepSeekGPT-OSS-20B gir full åpen vekt-transparens under Apache 2.0, i motsetning til semi-åpne modeller; men brukere rapporterer i noen tilfeller at de foretrekker GLM-4.5-AIR på grunn av resonnementkvalitet.
Hvordan ringe gpt-oss-20b API fra CometAPI
gpt-oss-20b API-priser i CometAPI, 20 % avslag på den offisielle prisen:
| Skriv inn tokens | $0.08 |
| Output tokens | $0.32 |
Nødvendige trinn
- Logg på cometapi.com. Hvis du ikke er vår bruker ennå, vennligst registrer deg først
- Få tilgangslegitimasjons-API-nøkkelen til grensesnittet. Klikk "Legg til token" ved API-tokenet i det personlige senteret, hent tokennøkkelen: sk-xxxxx og send inn.
- Få url til dette nettstedet: https://api.cometapi.com/
Bruk metoden
- Velg "
gpt-oss-20b” endepunkt for å sende API-forespørselen og angi forespørselsteksten. Forespørselsmetoden og forespørselsteksten er hentet fra vårt API-dokument for nettstedet vårt. Vårt nettsted gir også Apifox-test for din bekvemmelighet. - Erstatt med din faktiske CometAPI-nøkkel fra kontoen din.
- Sett inn spørsmålet eller forespørselen din i innholdsfeltet – det er dette modellen vil svare på.
- . Behandle API-svaret for å få det genererte svaret.
CometAPI tilbyr et fullt kompatibelt REST API – for sømløs migrering. Viktige detaljer for API-dok:
- Kjerneparametere:
prompt,max_tokens_to_sample,temperature,stop_sequences - endepunkt: https://api.cometapi.com/v1/chat/completions
- Modellparameter: "
gpt-oss-20b" - Autentisering:
Bearer YOUR_CometAPI_API_KEY - Innholdstype:
application/json.
Eksempel på API-kall
Selv om de er åpne, kan GPT-OSS-modeller nås via API-er som CometAPI og andre. gpt-oss-20B, et typisk kall til CometAPI ser slik ut:
POST https://api.cometapi.com/v1/chat/completions
{
"model": "gpt-oss-20b",
"messages": [{ "role": "system", "content": "Reasoning: high" },
{ "role": "user", "content": "Solve bilateral integral…" }],
"max_tokens": 2048,
"temperature": 0.0
}
Dette støtter funksjonskall, strukturerte utdataskjemaer, verktøyintegrasjoner og resonnementskontroll via systemprompter.
Se også GPT-OSS-120B


