gpt-oss-120-b
Dec 2, 2025
gpt-oss-120-b
gpt-oss-20-b
Hvor mye datakraft kreves for GPT-OSS-distribusjon?
OpenAIs nylige gpt-oss-familie (spesielt gpt-oss-20B- og gpt-oss-120B-utgivelsene) retter seg eksplisitt mot to forskjellige klasser av distribusjon: lett lokal inferens (forbruker/kant) og storskala datasenterinferens. Denne utgivelsen – og mengden av fellesskapsverktøy rundt kvantisering, lavrangerte adaptere og sparse/Mixture-of-Experts (MoE) designmønstre – gjør det verdt å spørre: hvor mye databehandling trenger du faktisk for å kjøre, finjustere og betjene disse modellene i produksjon?
Dec 2, 2025
gpt-oss-120-b
gpt-oss-20-b
OpenAI GPT-OSS: Slik kjører du det lokalt eller hoster det selv i skyen, maskinvarekrav
GPT-OSS er usedvanlig godt konstruert for tilgjengelighet: gpt-oss-20B-varianten er designet for å kjøre på en enkelt forbruker-GPU (~16 GB VRAM) eller nyere high-end
Aug 7, 2025
gpt-oss-120-b
GPT-OSS-120B API
OpenAIs gpt-oss-120b markerer organisasjonens første open-weight-utgivelse siden GPT-2, og tilbyr utviklere transparent, tilpassbar og høytytende AI.
Aug 7, 2025
gpt-oss-120-b
gpt-oss-20-b
Kan GPT-OSS være fremtiden for lokal AI-distribusjon?
OpenAI har annonsert utgivelsen av GPT-OSS, en familie av to åpne språkmodeller – gpt-oss-120b og gpt-oss-20b – under den permissive Apache 2.0-lisensen.