模型
定价
企业
资源
免费开始
免费开始
gpt-oss-120b 博客
gpt-oss-120b 博客
Jan 6, 2026
gpt-oss-120b
gpt-oss-20b
部署 GPT-OSS 需要多少算力?
OpenAI 最近的 gpt-oss 系列(尤其是 gpt-oss-20B 和 gpt-oss-120B)明确面向两类部署:轻量级本地推理(消费级/边缘端)和大规模数据中心推理。该发布——以及围绕量化、低秩适配器和稀疏/专家混合(MoE)设计模式的社区工具的迅速涌现——引出了一个值得思考的问题:在生产环境中,运行、微调并提供这些模型的服务究竟需要多少算力?
Jan 6, 2026
gpt-oss-120b
gpt-oss-20b
OpenAI GPT-OSS: 如何在本地运行或在云端自托管,硬件要求
GPT-OSS 在可访问性方面的工程设计格外出色:gpt-oss-20B 变体旨在运行于单块消费级 GPU(~16 GB VRAM)或近期的高端
Jan 6, 2026
gpt-oss-120b
gpt-oss-20b
GPT-OSS 会成为本地 AI 部署的未来吗?
OpenAI 宣布发布 GPT-OSS,一个由两个开放权重语言模型——gpt-oss-120b 和 gpt-oss-20b——组成的系列,采用宽松的 Apache 2.0 许可协议,
Jan 6, 2026
gpt-oss-120b
GPT-OSS-120B API
OpenAI 的 gpt-oss-120b 标志着该组织自 GPT-2 以来的首个开放权重发布,为开发者提供透明、可定制且高性能的 AI。