OpenAI 宣布发布 GPT-OSS,这是由两个开放权重语言模型——gpt-oss-120b 和 gpt-oss-20b——组成的系列,采用宽松的 Apache 2.0 许可证,这是自 GPT-2 以来其首个重要的开放权重发布。该公告发表于 2025 年 8 月 5 日,强调这些模型在推理能力上达到业界先进水平,同时成本仅为专有替代方案的一小部分,并且关键在于既可部署在本地也可部署在云端基础设施。
技术架构
GPT-OSS 系列采用 Mixture-of-Experts (MoE) Transformer 架构,以平衡性能与效率。
- gpt-oss-120b:总参数 1170 亿,每个 token 激活 51 亿参数,采用 128 个专家(每个 token 激活 4 个),共 36 层。
- gpt-oss-20b:总参数 210 亿,每个 token 激活 36 亿参数,采用 32 个专家(每个 token 激活 4 个),共 24 层。
两个模型均使用交替的稠密与局部带状稀疏注意力模式,以及分组多查询注意力,以实现内存高效的推理。
性能与安全评估
OpenAI 报告称,gpt-oss-120b 在多项内部基准上与其专有的 o4-mini 模型相当或更优,包括竞赛编程(Codeforces)、通用问题求解(MMLU 和 HLE)以及健康相关查询(HealthBench)。同时,gpt-oss-20b 在竞赛数学(AIME 2024 & 2025)和健康任务上优于更早的 o3-mini,尽管其规模更小。
此外,外部专家审查了安全方法论,确认其遵循与 OpenAI 闭源权重产品相同的严格安全标准。OpenAI 的安全咨询小组还对 gpt-oss-120b 进行了对抗式微调,以探测高风险能力(生物、化学、网络),未发现开放权重发布在这些威胁向量上较现有开源模型有显著推进的证据。
可访问性与部署
GPT OSS 的一个关键里程碑是本地运行:
- gpt-oss-20b 可在配备现代 GPU 的高端笔记本电脑上运行,支持离线或本地(on-premises)应用。
- gpt-oss-120b 优化为可在单块企业级 GPU 上运行,使中型组织无需大型计算集群即可使用。
- **数据主权与隐私:**通过将所有推理保留在本地,GPT-OSS 将监管与安全风险降至最低——这对金融、医疗和政府等行业至关重要。
- **无缝集成:**在 Hugging Face Transformers(v4.55.0)中的预配置支持以及来自 Northflank 的容器化部署指南,使启动 GPT-OSS 如同运行本地服务器般简单。
“借助 GPT OSS,我们正在赋能开发者和组织,将最前沿的 AI 作为完全自有、可定制的资产加以利用,”OpenAI CEO Sam Altman 表示。“这次发布标志着在民主化先进语言模型访问方面的转折点,同时坚持最高标准的安全与性能。”
通过开源这些强大的模型,OpenAI 旨在培育更加活跃的创新生态——鼓励定制化微调、全新插件以及推动 AI 发展的创意应用。开发者与企业可立即从 OpenAI 的 GitHub 仓库下载模型,开始尝试本地推理、定制集成以及专项安全评估。
入门
CometAPI 是一个统一的 API 平台,聚合了来自领先提供商的 500+ 款 AI 模型——例如 OpenAI 的 GPT 系列、Google 的 Gemini、Anthropic 的 Claude、Midjourney、Suno 等——并通过单一、对开发者友好的接口提供服务。凭借一致的认证、请求格式与响应处理,CometAPI 显著简化了 AI 能力在应用中的集成。无论你在构建聊天机器人、图像生成器、音乐创作器,还是数据驱动的分析管道,CometAPI 都能让你更快迭代、控制成本并保持供应商无关,同时紧跟 AI 生态的最新突破。
开发者可通过 CometAPI 访问 [GPT-OSS-20B](https://www.cometapi.com/claude-opus-4-1-api/) 和 GPT-OSS-120B,文中列出的模型版本以文章发布之日为准。开始之前,请在 Playground 探索模型能力,并查阅 API guide 获取详细说明。访问前请确保已登录 CometAPI 并获取 API key。CometAPI 提供远低于官方价格的方案,帮助你完成集成。
