gpt-oss-120-b
Dec 2, 2025
gpt-oss-120-b
gpt-oss-20-b
Wie viel Rechenleistung wird für die GPT-OSS-Bereitstellung benötigt?
Die aktuelle gpt-oss-Familie von OpenAI (insbesondere die Versionen gpt-oss-20B und gpt-oss-120B) zielt explizit auf zwei verschiedene Bereitstellungsklassen ab: leichte lokale Inferenz (Consumer/Edge) und groß angelegte Inferenz in Rechenzentren. Diese Version – und die Vielzahl an Community-Tools rund um Quantisierung, Low-Rank-Adapter und Sparse/Mixture-of-Experts (MoE)-Designmuster – wirft die Frage auf: Wie viel Rechenleistung benötigen Sie tatsächlich, um diese Modelle in der Produktion auszuführen, zu optimieren und bereitzustellen?
Dec 2, 2025
gpt-oss-120-b
gpt-oss-20-b
OpenAI GPT-OSS: So führen Sie es lokal aus oder hosten es selbst in der Cloud, Hardwareanforderungen
GPT-OSS ist ungewöhnlich gut für die Zugänglichkeit entwickelt: Die Variante gpt-oss-20B ist für den Betrieb auf einer einzelnen Consumer-GPU (~16 GB VRAM) oder aktuellen High-End-
Aug 7, 2025
gpt-oss-120-b
GPT-OSS-120B-API
OpenAIs gpt-oss-120b ist die erste Open-Weight-Version der Organisation seit GPT-2 und bietet Entwicklern transparente, anpassbare und leistungsstarke KI
Aug 7, 2025
gpt-oss-120-b
gpt-oss-20-b
Könnte GPT-OSS die Zukunft der lokalen KI-Bereitstellung sein?
OpenAI hat die Veröffentlichung von GPT-OSS angekündigt, einer Familie von zwei Open-Wide-Sprachmodellen – gpt-oss-120b und gpt-oss-20b – unter der freizügigen Apache 2.0-Lizenz.