OpenAI GPT-OSS: Sådan køres det lokalt eller hostes det selv i skyen, hardwarekrav

CometAPI
AnnaDec 2, 2025
OpenAI GPT-OSS: Sådan køres det lokalt eller hostes det selv i skyen, hardwarekrav

GPT-OSS er usædvanligt veludviklet med hensyn til tilgængelighed: gpt-oss-20B varianten er designet til at køre på en enkelt forbruger-GPU (~16 GB VRAM) eller nyere high-end bærbare computere, der bruger kvantiserede GGUF-builds, mens gpt-oss-120B—på trods af dens samlede parametre på 117B — leveres med MoE/aktive parameter-tricks og en MXFP4-kvantisering, der lader den køre på enkelte H100-klasse GPU'er (≈80 GB) eller på multi-GPU-opsætninger. Implementering af en open source GPT-lignende model (ofte kaldet "GPT OSS") — hvad enten det er en kompakt 6-7B-model til lokale apps eller en 70B+-model til produktionstjenester — rejser det samme kernespørgsmål: Sådan kører du GPT-OSS lokalt eller selvhoster i skyen, hardwarekrav

Hvad er GPT-OSS-modeller, og hvad er deres hardwarekrav?

Hvad er GPT-OSS?

GPT-OSS er OpenAIs nyligt udgivne open-weight-familie af store sprogmodeller (to overordnede varianter på udgivelsen: ~20B og ~120B parameterversioner). De leveres med optimerede valg (mixture-of-experts, MXFP4 native kvantisering i OpenAIs distribution, sparse/dense innovationer), der lader disse relativt store parameterantal køre på betydeligt mindre hukommelse end naive FP32/FP16-kopier ville kræve. Udgivelsen var eksplicit beregnet til at gøre kraftfulde modeller mere bredt kørelige og brugerdefinerede, kun uden for hyperscalers.

Vigtige produktfakta (bærende):

  • gpt-oss-20B er beregnet til at køre på en enkelt forbruger-GPU med ~16 GB VRAM (og kan bruges på stationære/bærbare computere med GGUF-kvantiseringer).
  • gpt-oss-120B (≈117 milliarder parametre, ~5.1 milliarder) aktiv parametre i OpenAIs MoE-design) er konstrueret, så modellen kan passe i en enkelt 80 GB H100 / A100, når MXFP4 og specifik runtime-understøttelse bruges, eller på opsætninger med flere GPU'er.

Hardwarefaktorer, der bestemmer kravene

  1. Modelstørrelse og arkitektur – MoE og sparse/dense lag kan ændre aktivering og arbejdshukommelse. (GPT-OSS bruger komponenter i en blanding af eksperter.)
  2. Præcision og kvantisering – FP32, FP16, BF16, 8-bit, 4-bit (GPTQ/AWQ/MXFP4). Lavere præcisioner reducerer hukommelse, men kan påvirke latenstid og numerisk nøjagtighed. OpenAI leverer MXFP4-kvantiserede vægte til GPT-OSS.
  3. Kontekstlængde (sekvenslængde) – længere kontekster øger brugen af ​​aktiveringscache proportionalt; GPT-OSS understøtter ekstremt lange kontekster (op til meget store token-vinduer i deres design), hvilket mangedobler hukommelsesbehovet.
  4. Batchstørrelse og samtidighed – betjening af flere samtidige brugere multiplicerer hukommelsen til aktiveringer og cache. Frameworks som vLLM, DeepSpeed ​​og Triton forsøger effektivt at batch-opdele og dele aktiveringer på tværs af anmodninger.
  5. Overhead for servering af rammeværk – forskellige inferensservere (vLLM, text-generation-inference, llama.cpp, ONNX Runtime) tilføjer forskellige overheads og optimeringer.

Hvad "passer" hvor: grove hukommelsesregler

To koncepter er vigtige for hardwareplanlægning:

  1. Samlet parameterantal — en øvre grænse for modelstørrelse (117B vs. 21B).
  2. Aktiveret/fungerende sæt — i MoE eller visse præcisionsindstillinger kan den aktive hukommelse, der kræves ved inferens, være meget mindre end rå parameterbytes.

Praktiske tommelfingerregler:

  • 16 GB klasse GPU'er/edge bærbare computere → muligt for gpt-oss-20b hvis du bruger modellens medfølgende hukommelseseffektive konfiguration (eller kvantiserer aggressivt til 4-bit/NF4/AWQ).
  • 80 GB H100 / A100 80 GB → hosting med én GPU til gpt-oss-120b i deres anbefalede opsætning. Til produktionsgennemstrømning kan du stadig have brug for flere GPU'er til batching, redundans eller lavere latenstid under samtidighed.
  • Store multi-GPU-opsætninger (A100/H100-klynger) → påkrævet, hvis du vil køre mange samtidige brugere med lav latenstid eller udføre tung finjustering/træning. DeepSpeed/ZeRO og automatisk tensorparallelisme giver dig mulighed for at opdele store modeller på tværs af GPU'er.

Kort konklusion: Til eksperimentering og let lokal brug, planlæg med en 16-24 GB GPU (eller CPU + kraftig kvantisering). Til produktion af single-GPU-inferens af den store gpt-oss-model vil du sigte mod en 80 GB H100, ellers brug multi-GPU-partitionering.

Hvor meget computerkraft kræves der i praksis til GPT-OSS-implementering?

Inferens vs. træning: vidt forskellige budgetter

  • InferensDen dominerende omkostning er GPU-hukommelse (VRAM) og optimerede kerner. Med optimerede runtimes (vLLM, TensorRT, DeepSpeed-Inference) og kvantisering er inferens på gpt-oss-20b mulig på en 16 GB forbruger-GPU; 120B MoE-modellen er konstrueret til at passe til en 80 GB H100.
  • Finjustering / fuldskala træning: størrelsesordener større — du skal bruge mange GPU'er eller specialiserede træningsinstanser (multi-node H100/A100-klynger, DFLOP-budget og storage I/O). Denne artikel fokuserer primært på inferens/selvhosting og lette finjusteringsopskrifter (QLoRA/LoRA), ikke flerugers forudgående træning.

CPU vs. GPU vs. specialiserede acceleratorer

  • Kun CPUMuligt med GGUF/llama.cpp og små kvantiserede builds, hvor latenstid kan reduceres. Det er upraktisk at køre 20B på CPU uden kvantisering. Brug CPU'en, når privatliv eller lokal offline-drift er afgørende, og dine behov for gennemløb er lave.
  • GPUForetrukket af hensyn til latenstid og gennemløbshastighed. Moderne ML GPU'er (A100/H100/4090/4080) varierer meget afhængigt af HBM/VRAM og inter-GPU fabric. Gpt-oss-dokumentationen anbefaler H100-klassen til 120B-varianten.
  • TPU / AMD MI300X: understøttes af nogle runtime-versioner (vLLM/ROCm-builds) og kan være omkostningseffektiv i visse cloud-løsninger — tjek udbyderens dokumentation, når du vælger hardware.

Hvordan kører man GPT-OSS lokalt med et begrænset budget? (kode + trin-for-trin)

Nedenfor er to praktiske tilgange: (A) GPU bærbar/stationær computer med ~16-24 GB VRAM ved hjælp af 4-bit kvantisering, og (B) CPU/lav-GPU (offline) ved hjælp af llama.cpp (GGUF) eller små kvantiserede builds. Begge bruges i vid udstrækning af praktikere, når penge og strøm er begrænsede.

Bemærk: Disse instruktioner forudsætter, at du har et fungerende Python-miljø (Linux anbefales for den bedste CUDA-understøttelse). Til Windows skal du bruge WSL2 for at opnå den bedste kompatibilitet med GPU-værktøjskæder.

A. GPU-rute (anbefales for den bedste latenstid på et budget) — kvantiser + indlæs med bitsandbytes (4-bit)

Denne sti har til formål at løbe openai/gpt-oss-20b på en enkelt forbruger-GPU (f.eks. 24 GB 4090 eller 16 GB 4080). Den bruger bitsandbytes 4-bit kvantisering og Hugging Face transformers enheds-kort/accelerer.

Trin 1 — Installer det grundlæggende

# Linux + CUDA (example); pick the correct torch CUDA wheel for your driver

python -m pip install -U pip
pip install torch --index-url https://download.pytorch.org/whl/cu121  # pick your CUDA version

pip install -U transformers accelerate bitsandbytes safetensors

(Hvis du bruger conda, skal du oprette et miljø og installere det CUDA-kompatible brænderhjul til din platform.)

Trin 2 — (Valgfrit) Log ind med Hugging Face for at downloade store filer

huggingface-cli login

Trin 3 — Python-eksempel (indlæs kvantiseret 4-bit model)

# save as run_gptoss_4bit.py

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig

model_id = "openai/gpt-oss-20b"

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_compute_dtype=torch.float16,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4"   # or "fp4"/"nf4" depending on support

)

tokenizer = AutoTokenizer.from_pretrained(model_id, use_fast=True)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    device_map="auto",                 # let transformers pick GPU + CPU offload if needed

    quantization_config=bnb_config,
    torch_dtype=torch.float16,
    trust_remote_code=True
)

prompt = "Write a concise summary of quantization for LLMs."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
out = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(out, skip_special_tokens=True))

Noter og tips

  • Brug device_map="auto" so transformers bruger CPU/GPU-offload automatisk. Hvis du har en enkelt GPU, device_map="auto" vil normalt lægge alt på GPU'en og aflaste det, der skal være på CPU'en.
  • Hvis du løber tør for VRAM, skal du tilføje --offload_folder ./offload (eller sæt offload_folder in from_pretrained) for at aflaste tensorer til NVMe.
  • Hugging Face + bitsandbytes-tilgangen er bredt dokumenteret; se 4-bit transformers-guiden for detaljer.

B. CPU / tiny-budget-rute (llama.cpp / GGUF)

Hvis du ikke har nogen GPU eller en meget lille GPU, llama.cpp / GGUF-builds (og AWQ/GPTQ-kvantiserede filer) lader dig køre modeller på CPU med acceptabel latenstid for enkeltbrugere.

Trin 1 — Installer llama.cpp / Python-bindinger

# Download and build (Linux)

git clone --recursive https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make
# Python bindings (optional)

pip install llama-cpp-python

Trin 2 — Konverter safetensorer → GGUF (hvis konverteringsskripter er tilgængelige for gpt-oss)
OpenAI/Hugging Face leverer safetensorer; community-konvertere (eller scripts i llama.cpp) konvertere til GGUF. Den nøjagtige kommando afhænger af den aktuelle llama.cpp værktøjer; tjek repository README for convert.py/convert-safetensors-to-gguf. (Fællesskabstråde diskuterer konvertering til nye modeller.)

Trin 3 — Kør modellen med llama.cpp

# basic inference (example)

./main -m ./gpt-oss-20b.gguf -p "Explain GGUF and quantization in one paragraph." -n 256

Noter og afvejninger

  • CPU-kørsler er meget langsommere. Brug denne rute til test, privatliv eller lokale agenter med meget lav samtidighed.
  • Det er ikke praktisk at generere lange output eller betjene mange samtidige brugere på CPU'en; flyt til en GPU til produktion.

Kvantiserede builds på disk (GPTQ/AWQ)

Hvis du har brug for at presse en stor model ind i en lille GPU (f.eks. 8-12 GB), viser resultater fra fællesskabet, at kvantisering i GPTQ/AWQ-stil kan få nogle 20B-modeller til at køre på GPU'er med lav VRAM - men konvertering kræver ofte mere CPU RAM og én mellemliggende GPU under konvertering. Værktøjer: GPTQ-for-LLaMa, AutoGPTQ (arkiveret), AWQog QLLM.

Praktiske tips til et begrænset budget

  • Foretrækker 4-bit kvantiserede kontrolpunkter (GPTQ/AWQ/MXFP4) — ofte forskellen mellem "kører på 12 GB" og "kræver 80 GB".
  • Begræns kontekstlængde For budgetinferens: lange kontekster øger aktiveringscachen. Hvis du skal gemme lange kontekster, bør du overveje strategier til at aflaste.
  • Brug unified memory / nvmem offload omhyggeligt — frameworks kan tilbyde CPU/NVMe-offload (DeepSpeed ​​ZeRO-Offload / ZeRO-Infinity), men dette øger latensen.

Hvordan hoster man GPT-OSS selv hos cloud-udbydere (praktisk guide og omkostningstips)?

Hvilken cloud-hardware skal man vælge?

  • Enkelt GPU 80 GB H100: god til hosting af gpt-oss-120b til lille til mellemstor trafik. I AWS-termer leverer P5-instanser H100-hardware; varianter med én GPU (annonceret i 2025) gør det billigere at tilpasse størrelsen til inferens. Brug P5 / ND H100-familien afhængigt af udbyderen.
  • **Multi-GPU (8× H100)**For høj kapacitet og redundans, brug p5.48x, p5dn eller en sammenlignelig klynge. NVidia NVLink/NVSwitch reducerer i samme instans kommunikationsoverhead mellem GPU'er.
  • Alternative skyerCoreWeave, Lambda Labs, Paperspace, Runpod — ofte billigere spot/ondemand GPU-leje til bursty inferens. Brug dem til udvikling, før du forpligter dig til langsigtet infrastruktur.
  • Avanceret / tung produktion: AWS p5 (H100) (8 × H100 80 GB pr. instans) — for den højeste gennemløbshastighed pr. node og behov for enkelt-GPU 80+ GB, eller til 120B+ med mindre opdeling. P5 leverer H100'er og stor lokal NVMe-lagring.

rmere, tekstgenereringsinferens (TGI)/NVIDIA TGI-containere eller opsæt DeepSpeed-inferens.

  1. Klargør hurtig lokal NVMe hvis du planlægger at aflaste store aktiveringstilstande (ZeRO-Infinity). P4/P5-noder har ofte lokal NVMe og meget høj netværksbåndbredde. ()
  2. Sikkerhed og netværk — placere inferens-slutpunkter bag load balancers, bruge autoskaleringsgrupper til frontends og adskille bekymringer (modelservering vs. anmodningsrouting).
  3. Overvågning og SLO'er — spor GPU-udnyttelse, hukommelse, token/sek, latenstid p95 og fejl; brug Prometheus + Grafana til metrikker.

Eksempel på workflow for selvhosting i cloud (AWS P4/P5)

  1. Vælg forekomst (p4d/p5) baseret på modellens hukommelsesbehov. For gpt-oss-20B er en enkelt instans på 16-32 GB tilstrækkelig; for gpt-oss-120B skal du vælge en 80 GB HBM-instans eller multi-GPU.
  2. Forbered AMI / billede — brug en leverandør-AMI, der bundter CUDA, cuDNN og optimeret PyTorch (eller leverandørbilleder med NVIDIA-drivere).
  3. Installer serveringsstakvLLM, transformers, text-generation-inference (TGI)/NVIDIA TGI-containere eller opsæt DeepSpeed-inferens.
  4. Klargør hurtig lokal NVMe hvis du planlægger at aflaste store aktiveringstilstande (ZeRO-Infinity). P4/P5-noder har ofte lokal NVMe og meget høj netværksbåndbredde.
  5. Sikkerhed og netværk — placere inferens-slutpunkter bag load balancers, bruge autoskaleringsgrupper til frontends og adskille bekymringer (modelservering vs. anmodningsrouting).
  6. Overvågning og SLO'er — spor GPU-udnyttelse, hukommelse, token/sek, latenstid p95 og fejl; brug Prometheus + Grafana til metrikker.

Eksempel på selvhostingplan (gpt-oss-20b, produktion i lille skala)

Mål: betjener ~20 samtidige brugere, responsmål på 1-2 sekunder, omkostningsfølsom.

  1. Instans1× A10G / 1× 24 GB GPU (f.eks. G5 / A10G / RTX 6000) til model + 1× bootstrap-server med lille CPU.
  2. RuntimevLLM som modelserver (kontinuerlig batching) + CometAPI gateway.
  3. AutoskalaBrug autoskaleringsgruppen med GPU AMI og en ALB + horisontal autoskalering efter CPU/GPU-målinger.
  4. OpbevaringNVMe lokal til modelcaching; objektlager (S3) til kold modellagring.
  5. OvervågningPrometheus + Grafana, spor GPU-udnyttelse, latenstid, kølængde.
  6. SikkerhedVPC, private undernet, IAM-roller til modellagring, TLS-certifikater.

Eksempel på selvhostingplan (gpt-oss-120b, produktion)

Mål: lav latenstid for mange samtidige brugere/virksomheder.

  1. Instans1× H100 80 GB (single-GPU) som baseline; skaler horisontalt eller brug p5-instanser med flere GPU'er til gennemløb. For høj gennemløb, repliker enten single-GPU-tjenesten (dataparallel) eller shard modellen på tværs af GPU'er ved hjælp af DeepSpeed ​​(tensor/pipeline).
  2. RuntimeDeepSpeed-Inference med automatisk TP eller NVIDIA TensorRT (hvor tilgængelig). vLLM's understøttelse af MoE/Multi-GPU og tunede kerner kan også være nyttig.
  3. KubernetesBrug K8'er med enheds-plugins og lokal NVMe; brug kaostestning for tilgængelighed.
  4. OmkostningsoptimeringReserverede instanser til forudsigelig belastning; spotinstanser til batch-arbejdsbelastninger.

Eksempel: start en vLLM-servercontainer for gpt-oss-20b

# assume vllm is installed and CUDA is set up

vllm serve --model openai/gpt-oss-20b --port 8000 --num-gpus 1

Ret derefter din frontend mod http://<host>:8000/v1/chat/completions (vLLM understøtter OpenAI-kompatibel API).

Tips til omkostningsoptimering

  • Spot/forebyggelige VM'er er 50-80% billigere, men kræver checkpointing eller hurtige genoplivningsstrategier.
  • Modelkvantisering reducerer behovet for instanstyper (f.eks. kan en kvantiseret 120B muligvis serveres på færre GPU'er, hvis motorerne understøtter on-the-fly dekvantisering).
  • Brug kun inferensoptimerede instansfamilier (P5/P4/A2 Ultra) med høj NVLink/NVSwitch ved parallelisme mellem flere GPU'er; netværksbåndbredden er vigtig for sharding mellem GPU'er.

Sådan balancerer du omkostninger, latenstid og modelkvalitet

Kvantisering: hastighed vs. kvalitet

Aggressiv kvantisering (2-4 bit, AWQ/GPTQ) → store hukommelsesbesparelser og ofte beskedent kvalitetstab for mange opgaver. Brug AWQ/GPTQ til produktion, hvis du benchmarker den specifikke arbejdsbyrde. Konvertering kan kræve stor CPU-hukommelse under kvantisering.

Blandet præcision og kerneoptimering

Brug fp16, bf16 hvor understøttet; kombiner med specialiserede CUDA-kerner (FasterTransformer, TensorRT) for maksimal gennemløbshastighed. Nvidia/TensorRT tilbyder spekulativ afkodning og optimerede kerner til mange transformere (NVIDIA leverer optimerede GPT-OSS-adaptere).

Sikkerhed og observerbarhed

Åbne modeller betyder, at du er ansvarlig for at overvåge misbrug, datalækage og drift. Implementer anmodningslogning, indholdsfiltre, hastighedsbegrænsning og human-in-the-loop-moderering. OpenAIs udgivelsesnoter og modelkort understreger deres interne test og eksterne evalueringer – men selvhosting flytter sikkerhedsområdet til dig.

Afsluttende tanker

GPT-OSS sætter skub i udviklingen: modeller, der tidligere krævede massiv skræddersyet infrastruktur, er nu mere tilgængelige takket være omhyggelige arkitekturvalg og kvantiserede fordelinger. Implementering forbliver en disciplinHardwarestørrelser skal tage højde for modelpræcision, kontekstlængde og din apps samtidighedsprofil. Brug små testmiljøer (kvantiseret 20B) til at måle token/sek og p95-latens, og multiplicer derefter for at estimere cloud computing og produktionsomkostninger.

Sådan får du adgang til GPT-OSS API'en

CometAPI er en samlet API-platform, der samler over 500 AI-modeller fra førende udbydere – såsom OpenAIs GPT-serie, Googles Gemini, Anthropics Claude, Midjourney, Suno og flere – i en enkelt, udviklervenlig grænseflade. Ved at tilbyde ensartet godkendelse, formatering af anmodninger og svarhåndtering forenkler CometAPI dramatisk integrationen af ​​AI-funktioner i dine applikationer. Uanset om du bygger chatbots, billedgeneratorer, musikkomponister eller datadrevne analysepipelines, giver CometAPI dig mulighed for at iterere hurtigere, kontrollere omkostninger og forblive leverandøruafhængig – alt imens du udnytter de seneste gennembrud på tværs af AI-økosystemet.

Udviklere kan få adgang GPT-OSS-20B og GPT-OSS-120B ved CometAPI, de seneste modelversioner, der er anført, er fra artiklens udgivelsesdato. For at begynde med, skal du udforske modellens muligheder i Legeplads og konsulter API guide for detaljerede instruktioner. Før du får adgang, skal du sørge for at være logget ind på CometAPI og have fået API-nøglen. CometAPI tilbyde en pris, der er langt lavere end den officielle pris, for at hjælpe dig med at integrere.

SHARE THIS BLOG

500+ modeller i én API

Op til 20% rabat