什么是 Qwen?
Qwen(Tongyi Qianwen)是由 Alibaba Cloud 开发的一系列大型语言模型(LLMs)与多模态模型,于 2023 年 4 月以测试版首次发布。到 2024 年 7 月,它在某些基准中被评为顶尖中文语言模型,并在全球排名第三,仅次于 Anthropic 和 OpenAI 的领先模型。名称 “Tongyi Qianwen” 的含义是 “Truth from a Thousand Questions”,体现了其在各类问题上提供准确回答的能力。
该系列基于多语种数据构建,尤其强调中文与英语,同时也支持西班牙语、法语、日语等其他语言。模型规模从 18 亿参数(1.8B)到 720 亿参数(72B),适用于从科研到企业的广泛应用。该系列已演进至版本 2(于 2024 年 6 月推出)与版本 2.5(于 2025 年初更新),引入了专家混合(MoE)架构与实时多模态处理等创新。

Qwen 的开源政策如何演变?
Alibaba 的模型开源路径是动态的,在促进协作与保持竞争优势之间寻求平衡。2023 年 12 月,Alibaba 开源了其 72B 与 1.8B 模型,随后在同年 8 月开源了 7B 模型。这些早期发布意义重大,让研究人员与开发者在特定许可协议下获得强大 AI 模型的使用权。
随着版本 2 于 2024 年 6 月推出,Alibaba 调整了策略:将最先进的模型保持为专有,同时选择性地开源其他模型。这一趋势在 2.5 系列继续延续,例如 2.5-VL-32B-Instruct(于 2025 年 3 月发布)与 2.5-Omni-7B(于 2025 年 3 月发布)以 Apache 2.0 许可开源,而 2.5-Max 仍为闭源。这种混合方式引发了关于在 AI 行业中开放获取与专有控制之间取舍的讨论。
是什么驱动 Alibaba 的混合策略?
- 社区参与:开源诸如 Qwen2.5-Omni-7B 的模型,鼓励开发者构建应用并为生态做出贡献,其在 Hugging Face 与 GitHub 等平台上的可用性正体现了这一点。
- 竞争优势:将 Qwen2.5-Max 等先进模型保持为专有,使 Alibaba 能够维持技术领先并通过云服务实现商业化。
- 监管因素:在中国运营的 Alibaba 必须遵循政府监管,这可能影响其许可决策。
这一策略与行业趋势相符,OpenAI 与 Meta AI 等公司也在开源与闭源之间寻求平衡,以推动创新同时保护商业利益。
哪些具体的 Qwen 模型是开源的?
Qwen 家族涵盖多种模型,开源状态不尽相同。以下是关键模型及其许可的详细概览:
| 模型 | 是否开源 | 许可 | 获取渠道 |
|---|---|---|---|
| Qwen2.5-VL-32B-Instruct | 是 | Apache 2.0 | Hugging Face, ModelScope, GitHub |
| Qwen2.5-Omni-7B | 是 | Apache 2.0 | Hugging Face, ModelScope, GitHub, Qwen Chat |
| Qwen-72B, Qwen-14B, Qwen-7B | 是 | Tongyi Qianwen LICENSE AGREEMENT(商用需申请) | Hugging Face, ModelScope |
| Qwen-1.8B | 是 | Tongyi Qianwen RESEARCH LICENSE AGREEMENT(商用需联系) | Hugging Face, ModelScope |
| Qwen2.5-Max | 否 | 专有(仅限 API 访问) | Qwen Chat, Alibaba Cloud Model Studio |
- Qwen2.5-VL-32B-Instruct:于 2025 年 3 月发布,这是一款擅长处理图像与文本的视觉-语言模型。其以 Apache 2.0 许可开源,可自由使用与修改。
- Qwen2.5-Omni-7B:于 2025 年 3 月推出,这是一款多模态模型,能够处理文本、图像、音频与视频,并可部署在手机等边缘设备上,同样以 Apache 2.0 开源。
- Qwen-72B、Qwen-14B、Qwen-7B:这些早期模型以 Tongyi Qianwen LICENSE AGREEMENT 提供,允许研究用途,商用需申请。
- Qwen-1.8B:以 Tongyi Qianwen RESEARCH LICENSE AGREEMENT 授权,主要面向研究用途,商用需与 Alibaba 直接联系。
- Qwen2.5-Max:该模型在 20 万亿 token 上训练,非开源,权重保密,仅可通过 Qwen Chat 等 API 访问。
Qwen 的源代码通常在 GitHub 上以 Apache 2.0 许可提供,开发者可在许可条款约束下进行修改与构建。

开源模型如何惠及开发者?
开源的 Qwen 模型带来多重优势:
- 定制化:开发者可以针对特定应用微调模型,如 Abacus AI 的 “Liberated Qwen”。
- 成本效益:免费访问降低了初创公司与研究者的门槛,使其无需巨额投入即可进行试验。
- 透明度:开源模型便于独立审计,增强对其性能与伦理使用的信任。
然而,像 Qwen2.5-Max 这样的专有模型在灵活性上有所限制,开发者需要依赖 Alibaba 的基础设施。

Qwen2.5-Max 是否开源?
Qwen2.5-Max 作为 Qwen 家族的旗舰模型,并非开源。其权重未公开,开发者无法直接下载或修改模型。相反,访问方式是通过 API,例如 Qwen Chat 与 Alibaba Cloud 的 Model Studio。该模型于 2025 年 1 月发布,在多个基准上优于 GPT-4o、DeepSeek-V3 与 Llama-3.1-405B,因而是一款强大但受限的工具)。
为什么将 Qwen2.5-Max 保持为专有?
Alibaba 将 Qwen2.5-Max 保持为专有的决定可能出于以下考虑:
- 市场定位:对先进模型保留控制权,确保在 AI 市场中的竞争优势。
- 营收路径:通过 API 与云服务实现商业化,支持持续的研发投入。
- 使用监管:专有模型便于 Alibaba 在受监管市场中执行伦理与法律规范。
这一做法与 OpenAI 等公司的策略类似:限制对最先进模型的直接访问,提供基于 API 的解决方案。
Qwen 与其他开源模型相比如何?
Qwen 的开源模型为不断壮大的开源 AI 生态做出贡献,其中包括 Meta 的 Llama(Qwen 部分基于其)与来自 Hugging Face 的模型。Qwen 的独特性在于其强大的多语种能力,特别是在中文领域,这在西方开发的模型中并不常见。
此外,Qwen 2 及其后续版本采用的 MoE 架构代表了模型规模与效率的前沿方向,吸引了研究社区的关注。以下是 Qwen 与其他开源模型的简要比较:
| 模型 | 开发者 | 多语种能力 | 架构创新 | 开放程度 |
|---|---|---|---|---|
| Qwen | Alibaba Cloud | 强(聚焦中文) | MoE(Qwen 2+) | 部分开源 |
| Llama | Meta AI | 中等 | 传统 Transformer | 对研究开放 |
| Hugging Face | 社区驱动 | 多样 | 多种 | 广泛开放 |
Qwen 的开源政策未来走向如何?
截至 2025 年 4 月,Alibaba 正准备发布升级版旗舰模型 Qwen 3,可能在本月稍晚推出。尽管 Qwen 3 的开源状态尚不明确,但 Alibaba 近期举措显示将延续混合方式。2025 年 3 月以 Apache 2.0 发布的 Qwen2.5-Omni-7B 表明其对开源贡献的承诺。
此外,2025 年 3 月 Manus AI 与 Qwen 团队达成的战略合作体现了协作姿态,可能促进更多开源举措。该合作旨在开发先进的 AI 代理,开源模型或将有助于加速采用。
结论:
Qwen 并非完全开源,而是开源与专有的混合体。像 Qwen-72B、Qwen-1.8B、Qwen-7B 以及 Qwen 2 与 Qwen 2.5 的部分模型在 Apache 2.0 等许可下开源,为 AI 社区提供了重要资源。然而,某些先进模型仍保持专有,体现了 Alibaba 在开放与商业利益之间的平衡。
这一策略既有助于 Qwen 促进广泛采用与创新,又能维持 Alibaba 在 AI 领域的竞争地位。随着 Qwen 持续发展,其开源策略将继续成为 AI 社区讨论的重点。
面向开发者:API 访问
CometAPI 提供远低于官方价格的方案,帮助你集成 Qwen API,注册并登录即可获得账户内 $1!欢迎注册并体验 CometAPI。
CometAPI 作为多个领先 AI 模型 API 的集中枢纽,让你无需分别对接多个 API 提供商。
请参考 Qwen 2.5 Max API 获取集成详情。CometAPI 已更新最新的 QwQ-32B API。
