DeepSeek,这家在 2025 年初以其 R1 推理模型首次登上头条的中国 AI 初创公司,引发了关于开源 AI 状态及其更广泛影响的激烈争论。尽管大量关注聚焦于其令人印象深刻的性能——可与 OpenAI 和 Alibaba 等美国公司的模型比肩——但有关 DeepSeek 是否在精神与实践上真正“开源”的问题仍未有定论。本文深入探讨围绕 DeepSeek 的最新进展,审视其开源资质,与 GPT-4.1 等模型进行比较,并评估其对全球 AI 版图的影响。
什么是 DeepSeek,它如何崛起?
DeepSeek 的起源与雄心
DeepSeek 以 Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd. 为名成立,由 Liang Wenfeng(亦作 Wenfeng Liang)担任核心愿景领导者。其理念与许多硅谷初创公司有所不同:DeepSeek 并未优先追求快速商业化,而是强调研究效率与成本效益。到 2025 年初,DeepSeek 的 R1 模型已因在数学推理与代码生成方面匹配或超越领先基准而引发关注,尽管其开发受到美国对高端 AI 芯片的出口管制限制 。
推理模型的突破
2025 年 1 月,DeepSeek 以 MIT License——一种开源的宽松许可——发布了 R1,称 R1 在“AIME 2024 上实现 79.8% 的 Pass@1,略微超过 OpenAI-o1-1217”,并在“MATH-500 上取得 97.3% 的得分,与 o1 相当且优于其他公开模型” 。在编程任务上,R1 在 Codeforces 上达到 2,029 的 Elo 评级,超过 96.3% 的人类参与者,表明该模型不仅是理论练习,而是一款适用于现实应用的高性能工具 。
通过利用混合专家(MoE)层等技术,以及在较弱的 AI 芯片上训练——这源于贸易限制的必要性——DeepSeek 大幅降低了训练成本。观察人士指出,其方法不仅挑战了对顶级硬件的既定依赖,还在业内引发“冲击波”,导致 Nvidia 的市值在单个交易时段下跌约 6000 亿美元——“美国股市历史上单一公司最大的跌幅”。
DeepSeek 是否真正开源?
许可与可用性
DeepSeek 的 R1 模型于 2025 年 1 月在 Hugging Face 上以 MIT License 发布,允许对模型权重及相关代码进行不受限制的商业使用、修改和再分发 。这一许可选择在技术层面将 R1归类为开源项目,但在实践中存在细微差别。尽管模型权重与推理代码已公开,它并未发布完整的训练数据集或精确的训练流水线。此缺失引发了其是否在“端到端可复现性”意义上“完全”开源的疑问。例如,尽管任何人都可以下载并对 R1 进行微调,但在无法获取专有数据与集群配置(例如使用 5,000 张 A100 GPU 的 Fire-Flyer 集群)的情况下,无法复制 DeepSeek 的原始训练过程 。
训练数据透明度
开源纯粹主义者通常强调的不仅是模型权重与代码的可用性,还包括训练数据、预处理脚本与评测基准的透明性。在其案例中,公司分享了高层次细节——例如使用“由 R1 生成的合成数据”来微调蒸馏变体,以及为 R1-Zero 引入基于规则的奖励函数——但保留了关于数据来源与整理流程的具体细节。缺少这些信息,外部研究者无法全面审计潜在偏见、数据污染或无意的隐私泄漏,从而使模型的伦理与安全影响问题悬而未决。
社区参与与分支
自开源发布以来,DeepSeek-R1 在 Hugging Face 等平台上吸引了分支与社区驱动的实验。开发者报告称,他们将较小的“蒸馏”变体(范围从 15 亿到 700 亿参数)适配在消费级硬件(如消费者 GPU)上运行,从而扩大了可及性。然而,尚未出现从零开始完全独立复现 R1 的挑战,部分原因在于所需的巨大算力及未公开的原始数据集。与 LLaMA 不同,其催生了多项社区官方复现努力,DeepSeek 的“开源”主张主要依托于权重的公开,而非促成完整的社区主导研究透明度 。
DeepSeek 与其他 AI 模型相比如何?
与 OpenAI o1、o3 和 GPT-4.1 的基准对比
DeepSeek-R1 的性能指标将其定位于推理模型的顶级行列。根据在 UC Berkeley、MIT 和 Cornell 共同开发的 LiveCodeBench 上的内部基准,DeepSeek 更新的 R1-0528 在代码生成上排名略低于 OpenAI 的 o4-mini 与 o3,但超过 xAI 的 Grok 3-mini 以及 Alibaba 的 Qwen 3 mini 。与此同时,OpenAI 于 2025 年 4 月 14 日发布的 GPT-4.1 拥有一百万 token 的上下文窗口,并在相较前代 GPT-4o 的编码、指令跟随与长上下文任务上表现出色。
将 R1 与 GPT-4.1 比较时,出现以下因素:
- 性能(代码与数学基准):R1 在 AIME 2024 上实现 79.8% 的 Pass@1,并在 MATH-500 上取得 97.3% 的分数,略微超过 o1。反过来,GPT-4.1 在编码(SWE-bench Verified)上估计约 ~54.6%,并在长上下文任务上达 72%——这些指标虽令人印象深刻,但与 R1 的专项推理基准并不直接可比。
- 上下文窗口:GPT-4.1 支持最多一百万 token,能够在一次传递中处理整本书或冗长的代码库。DeepSeek 的 R1 并未匹配这一上下文长度,而是将重心放在短输入上的推理与推断效率 。
- 成本效率:在 Hugging Face 上,R1 的 API 访问成本最高可比 OpenAI 的 o1 低 95%,对预算有限的初创公司与研究者具有吸引力 。GPT-4.1 的基础定价为每百万输入 token 2 美元、每百万输出 token 8 美元,其 mini 与 nano 变体价格更低($0.40/$1.60 与 $0.10/$0.40)。DeepSeek 的蒸馏模型可在笔记本电脑上运行,在硬件需求层面提供另一种成本节省。
架构差异
DeepSeek 的 R1 模型采用混合专家(MoE)架构,其中网络的大部分仅在需要时激活,显著降低推理计算成本。MoE 层与异步通信库(例如 hfreduce)及 Fire-Flyer DDP 框架相结合,使 DeepSeek 能在受贸易限制的较弱硬件集群上扩展推理任务 。
相较之下,GPT-4.1 在整个网络中使用稠密 Transformer 层来处理一百万 token 的上下文窗口。这虽带来长上下文任务上的卓越表现,但训练与推理也需要大量算力,因此 GPT-4.1 的定价相对小型模型(如 GPT-4.1 mini 与 nano)更为高端。
DeepSeek 的开源做法意味着什么?
对全球 AI 竞争的影响
DeepSeek 的开源发布颠覆了传统硅谷关于专有模型与数据封锁的玩法。通过以 MIT 许可公开 R1,DeepSeek 挑战了高性能 AI 必须保持封闭或专属授权的观念。直接影响显而易见:美国科技巨头调整定价(例如 OpenAI 推出更低价的 GPT-4.1 mini 与 nano),并加速开发自身以推理为中心的模型,如 o4-mini,以维持市场份额。行业评论者称 DeepSeek 的出现可能成为美国 AI 的“Sputnik moment”,标志着对基础 AI 能力的霸权性控制发生转变。
DeepSeek 的开源策略也影响了风险投资情绪。尽管一些投资者担心,如果中国的开源替代方案迅速扩散,支持美国 AI 公司的回报可能递减,另一些人则将其视为多元化全球 AI 研究合作的机会。风险投资人 Marc Andreessen 称赞 R1 是“最令人惊叹与印象深刻的突破之一”,并是“对世界的深刻礼物”。与此同时,OpenAI 于 2025 年 4 月发布的 GPT-4.1 在某种程度上可视为对 DeepSeek 成本效益型开源模型的应对,表明开放访问并不必然牺牲前沿性能。
安全与隐私担忧
尽管对开源 AI 民主化的热情高涨,DeepSeek 的背景仍引发隐私倡导者与政府机构的警惕。2025 年 1 月,South Korea’s Personal Information Protection Commission (PIPC) 确认其在线服务将韩国用户数据发送至位于中国的 ByteDance 服务器,促使其在合规问题解决前暂停新的应用下载 。随后在 2025 年 1 月下旬发生的数据泄露事件,由于云存储数据库配置错误,暴露了超过一百万条敏感条目——聊天消息、API 密钥与系统日志——加剧了对 DeepSeek 数据安全实践的担忧。
鉴于中国法规可能要求公司向国家当局共享数据,一些西方政府与企业在将 DeepSeek 集成至关键工作流方面仍保持谨慎。尽管 DeepSeek 采取了安全措施(例如在一小时内修补了暴露的数据库),关于潜在后门或被用于影响行动的怀疑仍然存在。Wired 报道称,其在线服务将数据发送至本国“或将为更严格审查铺垫”,而欧洲与美国的监管机构亦暗示将在 GDPR 与 CCPA 框架下进行更密切的审查 。
对硬件与基础设施成本的影响
DeepSeek 展示了在非最优硬件上训练与部署高性能推理模型的能力,这对更广泛的 AI 基础设施市场产生了连锁反应。通过证明 MoE 层与优化的并行化(例如 HaiScale DDP)能够在推理准确性上与全稠密模型相当,DeepSeek 促使主要云服务商——Microsoft Azure、AWS 与 Google Cloud——评估整合其优化技术。Microsoft 与 Amazon reportedly 已开始将 DeepSeek-R1 作为其 AI 服务目录的一部分,满足寻求 GPT-4.1 或 o1 API 低成本替代方案的客户需求 。
此外,NVIDIA 作为历史上占主导地位的 GPU 供应商,通过强调专用硬件(例如支持 HBM3 的 GPU 与 NVLink 拓扑)来回应其以 MoE 驱动的效率,以保持竞争优势。NVIDIA 股价在其上涨后的波动凸显了算法效率的突破如何重塑硬件需求预测。因此,即便未发布专有硬件,DeepSeek 也间接影响了未来 AI 加速器的路线图。
最新的 R1-0528 更新透露了 DeepSeek 对开放性的何种承诺?
R1-0528 的技术改进
于 2025 年 5 月 28 日宣布的 R1-0528 更新,承诺在数学推理、编程任务以及减轻幻觉(AI 生成信息的错误)方面取得显著改进。尽管 DeepSeek 将此版本描述为“小型试验性升级”,但在 UC Berkeley、MIT 与 Cornell 的 LiveCodeBench 上的基准显示,R1-0528 与 OpenAI 的 o3 与 o4-mini 模型相比具有竞争力。此次更新也通过在公告后不久将新权重与推理代码发布至 Hugging Face,重申其透明的开源政策,强化其对社区驱动开发与协同优化的承诺 。
社区接纳与反馈
开发者社区对 R1-0528 反应积极,称其降低了幻觉率并提升了输出的逻辑一致性。Hugging Face 与 GitHub 等论坛上的讨论显示,研究者认可在不牺牲 MIT License 宽松性的前提下带来的切实性能提升。然而,一些贡献者指出,关于训练数据的不透明性与可能存在的国家指令对微调的影响仍令人担忧,强调仅有开源许可并不保证完全透明。这些对话凸显了持续开展社区互动的必要性,以确保其开源精神转化为可审计、值得信赖的 AI 系统 。
结论
DeepSeek 对开源 AI 的探索重新定义了可及性、性能与成本效益的预期。尽管其 R1 模型在 MIT 许可下在技术层面属开源,但缺乏完整的训练数据与流水线透明度,使其“完全”开源的界定更为复杂。尽管如此,其成就——在硬件受限条件下训练强大的推理模型并广泛开放——已在全球 AI 社区中同时激发兴奋与谨慎审视。
与 OpenAI 的 GPT-4.1 的比较揭示了一个细致的格局:DeepSeek 在面向特定推理任务与成本敏感场景中表现出色,而 GPT-4.1 的超大上下文窗口与广泛基准优势,则使其成为高端企业应用的首选。随着 DeepSeek 推进 R2 模型并扩大与云服务商的合作,其前景将取决于解决数据隐私问题、确保监管合规,以及可能在研究流程上拥抱更高透明度。
归根结底,DeepSeek 的崛起表明开源 AI 不再是理论理想,而是一股重塑竞争的现实力量。通过挑战既有巨头,DeepSeek 加速了创新周期,促使成熟公司与新进入者重新思考其开发、许可与部署 AI 系统的方式。在这一动态环境中——GPT-4.1 树立一类标杆,DeepSeek-R1 树立另一类标杆——开源 AI 的未来看起来前景更为光明,也更为动荡。
开始使用
CometAPI 提供统一的 REST 接口,聚合数百个 AI 模型——在一个一致的端点下,内置 API 密钥管理、使用配额与计费仪表板。开发者无需同时处理多个供应商的 URL 与凭据,只需将客户端指向 base url,并在每个请求中指定目标模型。
开发者可通过 CometAPI 访问 DeepSeek 的 API,例如 DeepSeek-V3(model name: deepseek-v3-250324)与 Deepseek R1(model name: deepseek-r1-0528)。To begin, explore the model’s capabilities in the Playground 并查阅 API guide 获取详细说明。在访问之前,请确保你已登录 CometAPI 并获得 API key。
New to CometAPI? Start a free 1$ trial 并释放 Sora 的能力来应对你最棘手的任务。
我们迫不及待地想看到你将构建什么。如果发现有不对劲的地方,请点击反馈按钮——告诉我们哪里出了问题是让它更快变好的最佳方式。
