GPT-OSS-20B API

CometAPI
AnnaAug 7, 2025
GPT-OSS-20B API

gpt-oss-20b er en bærbar, åpen resonneringsmodell tilby o3-mini-nivå ytelse, agentvennlig verktøybruk, og full støtte for tankekjeden under en permissiv lisens. Selv om den ikke er like kraftig som sin 120 B-motpart, er den unikt egnet for implementeringer på enheten, med lav latens og personvernsensitiveUtviklere bør vurdere dens kjente komposisjonsbegrensninger, spesielt på kunnskapstunge oppgaver, og skreddersy sikkerhetstiltak deretter.

Grunnleggende informasjon

gpt-oss-20b er en 21 milliarder parametere med åpen vekt-resonnementsmodell utgitt av OpenAI under Apache 2.0-lisens, Slik at full vekttilgang for nedlasting, finjustering og omdistribusjonDet markerer OpenAIs første utgivelse av en modell med åpen vekt siden GPT-2 i 2019 og er optimalisert for kantdistribusjon og lokal inferens på systemer med ≥ 16 GB VRAM.

  • Parametere: 21 milliarder totalt, hvorav 3.6 milliarder er aktive per token
  • Arkitektur: Transformator med blanding av eksperter (MoE)
  • Kontekstvindu: Opptil 128 000 tokens for forståelse i langformat
  • Tillatelse: Apache 2.0, som muliggjør ubegrenset akademisk og kommersiell bruk ().

Funksjoner og teknisk arkitektur

Modellspesifikasjoner

  • ParametreTotalt 21 B, 3.6 milliarder aktive per token via en blanding av eksperter (MoE)-arkitektur med 32 eksperter per lag, 4 aktive per token .
  • Lag: 24, kontekstvindu opptil 128 XNUMX tokens, maks utgangstokener opptil 32K i noen utplasseringer.
  • Oppmerksomhet og hukommelseAlternerende tette + spredte oppmerksomhetsmønstre; gruppert flerspørringsoppmerksomhet (gruppestørrelse = 8) for effektiv slutning.

Trenings- og resonneringskontroller

  • Opplært i engelskdominerende tekst med fokus på STEM, koding og generell kunnskap.
  • Støtter tankekjede (CoT) resonnement og justerbar resonneringsnivåer (Lav, Middels, Høy) avhengig av oppgavens kompleksitet.

Benchmark ytelse

  • Matcher eller overgår ytelsen til OpenAIs o3-mini-modell på benchmarks som MMLU, AIME, HLE, HealthBench, Codeforces, Tau-Bench selv i sin mindre størrelse.
  • Overgår proprietære modeller som OpenAI o1, GPT-4o og o4-mini innen helse og matematisk resonnering oppgaver på høyt resonneringsnivå.
  • Sammenlignet med den større GPT-OSS-120B (117 B), henger den etter i oppgaver som er avhengige av dyp symbolsk resonnement eller omfattende kunnskap (f.eks. GPQA), men er fortsatt effektiv innen koding og helsedomener.

Ocuco 20 B varianten imponerer også: den konkurrerer o3-mini på tvers av samme suite til tross for det mindre fotavtrykket, noe som viser effektiv skalering av resonneringsmuligheter med MoE.

  • MMLU (Massive Multitask Language Understanding)~88 % nøyaktighet
  • Codeforces Elo (kodingsresonnement): ~2205 XNUMX
  • AIME (mattekonkurranse med verktøy): ~87.9 %
  • HelsebenkOvergår o4-mini betydelig i kliniske kvalitetssikrings- og diagnoseoppgaver
  • Tau-Bench (Detaljhandel + Resonneringsoppgaver)~62 % i gjennomsnitt

Modellversjon og sammenligning

ModellParamsAktive parametereMaskinvarebehovBenchmark ytelse
gpt-oss-20b21 B3.6 B≥ 16 GB GPU eller på enhetenSammenlignbart med o3-mini
gpt-oss-120b117 B5.1 B80 GB+ GPUSamsvarer med eller overgår o4-mini

Utviklet som en lettvektsmotpart til gpt-oss-120BGPT-OSS-20B tilbyr portabilitet samtidig som den opprettholder god oppgaveytelse der ressurser er begrenset. Den skiller seg ut fra proprietære OpenAI-modeller ved å være åpent tilgjengelig og justerbar.


Begrensninger

  • Lavere kunnskapshukommelse på komplekse oppgaver som GPQA sammenlignet med større modeller.
  • Rapporter fra brukere indikerer variasjon i ytelse i den virkelige verden, spesielt for koding eller generelle kunnskapsoppgaver; noen tilskriver dette tidlig implementering eller umiddelbar misbruk.
  • Sikkerhets- og misbruksrisikoerSelv om OpenAI evaluerte fiendtlige, finjusterte gpt-oss-varianter, oppnådde ikke engang disse høy kapasitet innen biorisiko- eller cyberdomener. Likevel kan brukere som distribuerer storskala brukstilfeller kreve ekstra sikkerhetstiltak.

Brukstilfeller

OpenAI har utviklet GPT-OSS for å støtte en bredt spekter av brukstilfeller, alt fra forbrukerapper til analyser i bedriftsklassen. 20B-varianten er optimalisert for lokal utførelse, og kan kjøre på enheter med så lite som 16GB RAM, Eksempel avanserte bærbare datamaskiner eller MacBooks med M-seriebrikkerGPT-OSS-20B er ideell for:

  • Lokal/offline-inferens på Windows-PC-er (via Windows AI Foundry), macOS eller Snapdragon-baserte edge-enheter.
  • Agentiske arbeidsflyter: kodeutførelse, verktøybruk, nettleserbaserte agenter eller autonome assistenter i innstillinger med begrenset båndbredde.
  • Rask prototyping og finjustering, spesielt for utviklere som jobber uten skyinfrastruktur eller med personvernbegrensninger.

Andre modellsammenligninger

  • gpt-oss-20bvs. o3-mini / o4-miniGPT-OSS-20B konkurrerer med o3-mini i nøyaktighet og samordnet resonnement; den er mer effektiv og åpen enn o4-mini, men yter dårligere enn gpt-oss-120B på krevende resonneringsoppgaver.
  • gpt-oss-20b vs. LLaMA 4, GLM-4.5, DeepSeekGPT-OSS-20B gir full åpen vekt-transparens under Apache 2.0, i motsetning til semi-åpne modeller; men brukere rapporterer i noen tilfeller at de foretrekker GLM-4.5-AIR på grunn av resonnementkvalitet.

Hvordan ringe gpt-oss-20b API fra CometAPI

gpt-oss-20b API-priser i CometAPI, 20 % avslag på den offisielle prisen:

Skriv inn tokens$0.08
Output tokens$0.32

Nødvendige trinn

  • Logg på cometapi.com. Hvis du ikke er vår bruker ennå, vennligst registrer deg først
  • Få tilgangslegitimasjons-API-nøkkelen til grensesnittet. Klikk "Legg til token" ved API-tokenet i det personlige senteret, hent tokennøkkelen: sk-xxxxx og send inn.
  • Få url til dette nettstedet: https://api.cometapi.com/

Bruk metoden

  1. Velg "gpt-oss-20b” endepunkt for å sende API-forespørselen og angi forespørselsteksten. Forespørselsmetoden og forespørselsteksten er hentet fra vårt API-dokument for nettstedet vårt. Vårt nettsted gir også Apifox-test for din bekvemmelighet.
  2. Erstatt med din faktiske CometAPI-nøkkel fra kontoen din.
  3. Sett inn spørsmålet eller forespørselen din i innholdsfeltet – det er dette modellen vil svare på.
  4. . Behandle API-svaret for å få det genererte svaret.

CometAPI tilbyr et fullt kompatibelt REST API – for sømløs migrering. Viktige detaljer for  API-dok:

  • Kjerneparameterepromptmax_tokens_to_sampletemperaturestop_sequences
  • endepunkt: https://api.cometapi.com/v1/chat/completions
  • Modellparameter: "gpt-oss-20b"
  • Autentisering: Bearer YOUR_CometAPI_API_KEY
  • Innholdstype: application/json .

Eksempel på API-kall

Selv om de er åpne, kan GPT-OSS-modeller nås via API-er som CometAPI og andre. gpt-oss-20B, et typisk kall til CometAPI ser slik ut:

POST  https://api.cometapi.com/v1/chat/completions
{
  "model": "gpt-oss-20b",
  "messages": [{ "role": "system", "content": "Reasoning: high" },
               { "role": "user", "content": "Solve bilateral integral…" }],
  "max_tokens": 2048,
  "temperature": 0.0
}

Dette støtter funksjonskall, strukturerte utdataskjemaer, verktøyintegrasjoner og resonnementskontroll via systemprompter.

Se også GPT-OSS-120B

SHARE THIS BLOG

500+ modeller i ett API

Opptil 20 % rabatt