gpt-oss-20b is een draagbaar, open-gewicht redeneermodel het aanbieden van o3-mini-niveau prestaties, agentvriendelijk toolgebruik, en vol ondersteuning van de gedachteketen onder een permissieve licentie. Hoewel het niet zo krachtig is als zijn 120B-tegenhanger, is het uniek geschikt voor implementaties op het apparaat, met lage latentie en privacygevoeligOntwikkelaars moeten de bekende factoren in overweging nemen samenstellingsbeperkingen, vooral bij taken die veel kennis vereisen, en pas de veiligheidsmaatregelen hierop aan.
Algemene informatie
gpt-oss-20b is een Open-gewicht redeneermodel met 21 miljard parameters vrijgegeven door OpenAI onder de Apache 2.0-licentie, Waardoor volledige gewichtstoegang voor downloaden, fijnafstemming en herdistributieHet markeert de eerste open-gewicht modelrelease van OpenAI sinds GPT-2 in 2019 en is geoptimaliseerd voor edge-implementatie en lokale inferentie op systemen met ≥ 16 GB VRAM.
- parameters: Totaal 21 miljard, waarvan 3.6 miljard per token actief zijn
- architectuur: Transformator met mengsel van deskundigen (MoE)
- Contextvenster: Tot 128 tokens voor uitgebreide kennisdeling
- Licentie: Apache 2.0, waardoor onbeperkt academisch en commercieel gebruik mogelijk is ().
Functies en technische architectuur
Modelspecificaties
- Kenmerken : 21 B totaal, 3.6 B actief per token via Mixture-of-Experts (MoE) architectuur met 32 experts per laag, 4 actief per token .
- Lagen: 24, contextvenster tot 128 penningen, maximale uitvoertokens tot 32K in sommige implementaties.
- Aandacht en geheugen: Afwisselende dichte + schaarse aandachtspatronen; gegroepeerde aandacht voor meerdere query's (groepsgrootte = 8) voor efficiëntere gevolgtrekkingen.
Training en redeneringscontroles
- Getraind met Engelstalige teksten, met de nadruk op STEM, programmeren en algemene kennis.
- steunen gedachteketen (CoT) redenering en aanpasbaar redeneringsniveaus (Laag, Gemiddeld, Hoog) afhankelijk van de complexiteit van de taak.
Benchmarkprestaties
- Komt overeen of overtreft de prestaties van het o3-mini-model van OpenAI op benchmarks zoals MMLU, AIME, HLE, HealthBench, Codeforces, Tau-Bench zelfs in zijn kleinere formaat.
- Presteert beter dan gepatenteerde modellen zoals OpenAI o1, GPT‑4o en o4‑mini in gezondheids- en wiskundige redeneringen taken op een hoog redeneerniveau.
- Vergeleken met de grotere GPT‑OSS‑120B (117 B) presteert deze processor minder goed bij taken die afhankelijk zijn van diepgaand symbolisch redeneren of uitgebreide kennis (bijv. GPQA), maar blijft hij efficiënt in de domeinen van codering en gezondheid.
Het 20 B variant maakt ook indruk: hij kan wedijveren met o3-mini in dezelfde suite ondanks de kleinere omvang, wat een efficiënte schaalbaarheid van redeneermogelijkheden met MoE aantoont.
- MMLU (Massive Multitask Language Understanding): ~88% nauwkeurigheid
- Codeforces Elo (coderingsredenering): ~2205
- AIME (wiskundewedstrijd met hulpmiddelen): ~ 87.9%
- HealthBench: Presteert aanzienlijk beter dan o4-mini bij klinische QA- en diagnosetaken
- Tau-Bench (Retail + Redeneertaken): ~62% gemiddeld
Modelversie en vergelijking
| Model | params | Actieve parameters | Hardwarebehoefte | Benchmarkprestaties |
|---|---|---|---|---|
gpt-oss-20b | 21 miljard | 3.6 miljard | ≥ 16 GB GPU of op het apparaat | Vergelijkbaar met o3‑mini |
| gpt‑oss‑120b | 117 miljard | 5.1 miljard | 80 GB+ GPU | Komt overeen met of overtreft o4‑mini |
Ontworpen als een lichtgewicht tegenhanger van gpt‑oss‑120BGPT-OSS-20B biedt portabiliteit met behoud van sterke taakprestaties wanneer de resources beperkt zijn. Het onderscheidt zich van gepatenteerde OpenAI-modellen door open toegankelijkheid en aanpasbaarheid.
Beperkingen
- Lagere kennisherinnering bij complexe taken zoals GPQA vergeleken met grotere modellen.
- Rapporten van gebruikers duiden op variatie in prestaties in de praktijk, vooral bij codering of algemene kennisvragen. Sommigen wijten dit aan een te vroege implementatie of verkeerd gebruik van de vraag.
- Veiligheids- en misbruikrisico's:Hoewel OpenAI nauwkeurig afgestemde gpt-oss-varianten voor vijandige aanvallen heeft geëvalueerd, bereikten zelfs die geen hoge capaciteit in biorisico- of cyberdomeinen. Toch hebben gebruikers die grootschalige use cases implementeren mogelijk extra beschermingsmaatregelen nodig.
Gebruikers verhalen
OpenAI heeft GPT-OSS ontworpen om een breed spectrum aan use cases, variërend van consumentenapps tot analyses op ondernemingsniveau. De 20B-variant is geoptimaliseerd voor lokale uitvoering en kan worden uitgevoerd op apparaten met slechts 16GB RAM, zoals high-end laptops of MacBooks met M-serie chipsGPT‑OSS‑20B is ideaal voor:
- Lokale/offline inferentie op Windows-pc's (via Windows AI Foundry), macOS of Snapdragon-gebaseerde edge-apparaten.
- Agentische workflows: code-uitvoering, toolgebruik, browsergebaseerde agents of autonome assistenten in instellingen met beperkte bandbreedte.
- Snelle prototyping en finetuning, vooral voor ontwikkelaars die zonder cloudinfrastructuur of met privacybeperkingen werken.
Andere modelvergelijkingen
gpt-oss-20bversus o3-mini / o4-mini: De GPT-OSS-20B kan concurreren met de o3-mini in nauwkeurigheid en co-thought-redenering; hij is efficiënter en opener dan de o4-mini, maar presteert minder goed vergeleken met de oXNUMX-mini. gpt‑oss‑120B bij veeleisende redeneeropdrachten.gpt-oss-20bversus LLaMA 4, GLM‑4.5, DeepSeek: GPT‑OSS‑20B biedt volledige open-gewicht transparantie onder Apache 2.0, in tegenstelling tot semi‑open modellen; maar gebruikers melden in sommige gevallen dat ze de voorkeur geven aan GLM‑4.5‑AIR vanwege de redeneerkwaliteit.
Hoe te bellen gpt-oss-20b API van CometAPI
gpt-oss-20b API-prijzen in CometAPI, 20% korting op de officiële prijs:
| Invoertokens | $0.08 |
| Uitvoertokens | $0.32 |
Vereiste stappen
- Inloggen cometapi.com. Als u nog geen gebruiker van ons bent, registreer u dan eerst
- Haal de API-sleutel voor de toegangsgegevens van de interface op. Klik op 'Token toevoegen' bij de API-token in het persoonlijke centrum, haal de tokensleutel op: sk-xxxxx en verstuur.
- Haal de url van deze site op: https://api.cometapi.com/
Gebruik methode
- Selecteer de optie "
gpt-oss-20b"eindpunt om de API-aanvraag te versturen en de aanvraagbody in te stellen. De aanvraagmethode en de aanvraagbody zijn te vinden in de API-documentatie op onze website. Onze website biedt ook een Apifox-test voor uw gemak. - Vervangen met uw werkelijke CometAPI-sleutel van uw account.
- Vul het inhoudsveld in en het model zal hierop reageren.
- Verwerk het API-antwoord om het gegenereerde antwoord te verkrijgen.
CometAPI biedt een volledig compatibele REST API voor een naadloze migratie. Belangrijke details voor API-document:
- Kernparameters:
prompt,max_tokens_to_sample,temperature,stop_sequences - eindpunt: https://api.cometapi.com/v1/chat/completions
- Modelparameter: "
gpt-oss-20b" - authenticatie:
Bearer YOUR_CometAPI_API_KEY - Content-Type:
application/json.
API-oproepvoorbeeld
Hoewel GPT-OSS-modellen open-gewicht zijn, zijn ze toegankelijk via API's zoals CometAPI en andere. gpt‑oss‑20BEen typische aanroep van CometAPI ziet er als volgt uit:
POST https://api.cometapi.com/v1/chat/completions
{
"model": "gpt-oss-20b",
"messages": [{ "role": "system", "content": "Reasoning: high" },
{ "role": "user", "content": "Solve bilateral integral…" }],
"max_tokens": 2048,
"temperature": 0.0
}
Dit ondersteunt functieaanroepen, gestructureerde uitvoerschema's, integratie van hulpmiddelen en redeneercontrole via systeemprompts.
Zie ook GPT-OSS-120B


