在一项在全球 AI 社区引发波澜的举措中,DeepSeek 已在网页端低调上线其备受期待的 V4 模型的灰度测试。泄露的界面截图显示出一个具有变革性的三模式系统——快速、专家和视觉——将 DeepSeek V4 定位为拥有深度推理能力的多模态强者,可能与 Claude Opus 和 GPT-5 系列等领先模型匹敌甚至超越。
这不仅仅是又一次小幅更新。凭借传闻中的 1 trillion 参数、由新型 Engram 内存架构驱动的 1 million token 上下文窗口,以及原生图像/视频处理能力,DeepSeek V4 有望以面向企业级的性能、面向消费者的成本,带来强劲表现。无论你是构建智能体的开发者、处理复杂分析的研究者,还是寻求前沿多模态 AI 的企业,这份指南都涵盖了你需要了解的一切。
在 CometAPI,我们一直密切跟踪 DeepSeek 的演进。作为一个统一的 AI API 平台,我们已通过与 OpenAI 兼容的端点,以低至官方定价 8 折的价格提供 DeepSeek V3.2 及更早版本,对 V4 的集成同样令人期待。本文后面将展示,当 V4 全面上线后,CometAPI 如何为你的工作流提供面向未来的保障。
What Is DeepSeek V4?
DeepSeek V4 代表了这家中国 AI 实验室旗舰 V 系列的下一次进化。在 DeepSeek-V3 与 V3.2 成功基础之上——它们引入了“思考/不思考”混合模式与强大的智能体能力——V4 在规模、智能与通用性方面实现了大幅跃升。
行业分析师估计,V4 是一个超过 1 trillion 总参数的专家混合(MoE)模型,为提高效率,每个 token 仅有 ~37-40 billion 处于激活状态。该架构在 V3 的 MoE 基础上精炼而来,能够动态激活专门的“专家”,在提升编码、数学与长上下文任务性能的同时,大幅削减推理成本。
关键差异化包括:
- 原生多模态支持(文本 + 图像 + 视频)。
- 通过 Engram 条件记忆实现最高 1M tokens 的超长上下文。
- 国产硬件优化——V4 主要面向华为 Ascend 芯片运行,契合中国在技术自立方面的推进。
DeepSeek 一直有在 Apache 2.0 协议下开源模型的记录,使得 V4 有可能成为最易获取的前沿模型之一。泄露的基准测试显示,它或可在 HumanEval 上达到 90%,在 SWE-bench Verified 上超过 80%,直接对标 Claude Opus 4.5/4.6 与 GPT-5 Codex 系列。V4 并非一次简单的增量更新——它代表着面向不同用户需求的分层模式的完整产品矩阵重构,类似于 Kimi 的 Fast/Expert 分层,但新增了 Vision。
Latest Updates Regarding DeepSeek V4
截至 2026 年 4 月,DeepSeek V4 仍处于有限的灰度测试阶段,并非全面公开发布。多位程序员与微博博主在 4 月 7–8 日分享了更新后的聊天界面截图,相比此前的双选项(Deep Thinking R1 / Smart Search)布局,这是一次大刀阔斧的改版。
全新的 UI 引入了醒目的模式切换,包括三个选项:
- 快速模式(默认,日常任务不限量)。
- 专家模式。
- 视觉模式。
V4 将利用华为最新芯片,预计在 4 月上旬后的“几周内”正式上线。
快速模式(又称 Instant)为默认,日常使用不限量。专家模式强调深度思考,在部分测试中显示更高的 token 吞吐(~64 tokens/s,相比快速模式的 ~49)。视觉模式支持直接上传图像/视频并进行分析。
- 一些早期测试者报告称支持 1M context 和更新后的知识截止(包含 2025 年之后数据);也有人指出专家模式仍更像经过优化的 V3.2,限于 128K——这印证了灰度测试的渐进性。
公司尚未就正式命名发声,但界面变化、多模态暗示与此前泄露(在国产芯片上的三模型套件)高度一致,这些都强烈表明这些确实是处于测试中的 V4 变体。全面上线普遍被认为会在“本月”(2026 年 4 月)发生。
What Is the New Functional Architecture of DeepSeek V4? (Quick Version vs. Expert Version Speculation)
泄露细节指向了一个复杂的三层架构,将日常效率与高风险推理及多模态处理加以分离。
快速模式(Quick Version):为即时响应与高吞吐的日常对话而优化。分析人士认为,该模式路由到一个轻量蒸馏变体,或 MoE 模型中较小的激活参数切片。它支持文件上传与基础任务,延迟极低——非常适合快速查询或原型开发。不限量的每日使用让它成为休闲用户的理想选择。
专家模式(Deep Reasoning Version):被广泛认为是真正的“DeepSeek V4”核心。它强调多步推理、领域特定增强、思考过程可视化与更强的引用溯源。有内部人士将其与 DeepSeek 领导层署名论文中描述的“新记忆架构”(Engram 条件记忆)联系起来。Engram 将静态知识(O(1) 哈希查找)与动态推理相分离,能够在不使计算成本爆炸的前提下支撑稳定的 1M-token 上下文。早期测试者报告其在复杂问题上的逻辑稳定性与自我校正能力更强。
视觉模式:多模态旗舰,具备原生图像/视频理解与生成能力。不同于传统将视觉模型附挂在文本模型之上的 VLM,传言称其采用“深度统一世界模型”架构——可能将视觉 token 直接融入 MoE 路由,实现跨模态的无缝推理。
这种“快速 vs 专家”的分拆让 DeepSeek 能够同时服务大众用户(快速)与高阶用户(专家/视觉),且互不妥协。全面商用后,专家/视觉模式可能引入配额,而快速模式则保持免费/不限量。
DeepSeek V4’s Visual and Expert Mode by Gray-Scale Test
灰度曝光成为引爆关注的最大催化剂。我的测试:
- 专家模式会触发更长的内部“思考”(在某些视图中可见思维链),并产出更准确、带来源标注的结果。
- 在附加图像时,视觉模式会自动接管,将提示重定向到分析或生成任务。
这些能力与 DeepSeek 已发表的关于 manifold-constrained hyper-connections(mHC)与 DeepSeek Sparse Attention(DSA)的研究相一致——这些创新在 trillion 级参数规模下稳定训练,并提升了长周期智能体任务的表现。
专家模式可能已经运行了早期的 V4 checkpoint,这解释了感知到的智能跃升。视觉模式的独立性表明,它并非简单的外挂,而是核心架构支柱。
How to Access and Use DeepSeek V4 on the Web: Step-by-Step Guide
访问灰度版本的流程很直接,但目前有限:
- 访问官方平台:前往 chat.deepseek.com 或 platform.deepseek.com,并使用你的 DeepSeek 账号登录(可免费注册)。
- 查找模式选择器:如果你在灰度测试队列中,你会看到新的 快速/专家/视觉 按钮。并非人人可见——按批次逐步放量。
- 选择你的模式:
- 从快速模式开始,用于日常聊天。
- 切换到专家模式,用于复杂推理、编码或研究。
- 上传图像/视频以触发视觉模式。
- 有效提示:对于专家模式,使用诸如“逐步思考并验证你的逻辑”这类详细指令。对于视觉模式,精确描述图像(例如:“分析这张图表的趋势并生成一份摘要表格”)。
- 关注限制:快速模式不限量;在测试期间,专家与视觉模式可能有每日配额。
小贴士:在可用的情况下启用网页搜索或文件上传,以获得更丰富的上下文。
如果尚未获得灰度访问权限,你仍可以在同一网站使用当前的生产模型 DeepSeek-V3.2。V4 的全面发布即将到来——关注 CometAPI 的最新进展。
How to Integrate DeepSeek V4 into Your Workflow via API
虽然网页端便于探索,但生产使用需要可靠的 API。官方 DeepSeek API 目前提供 V3.2(128K 上下文),但 V4 端点预计很快推出。
Enter CometAPI:作为一站式 AI API 聚合平台,CometAPI 已通过与 OpenAI 兼容的端点,提供 DeepSeek V3、V3.1、V3.2 与 R1 模型,价格低 20%,并提供免费初始额度、使用分析与跨供应商自动故障切换。当 V4 上线时,无需改代码即可接入——我们会无缝新增支持。
在 CometAPI 上快速设置:
- 在 cometapi.com 注册。
- 生成 API key(sk-xxx)。
- 使用基础 URL
https://api.cometapi.com和类似deepseek-v4-expert的模型名(上线后可用)。 - Python 示例调用:
from openai import OpenAI
client = OpenAI(api_key="your_cometapi_key", base_url="https://api.cometapi.com")
response = client.chat.completions.create(
model="deepseek-v4-expert", # 或视觉变体
messages=[{"role": "user", "content": "在此输入你的提示"}]
)
CometAPI 的 playground 让你在不切换控制台的情况下,将 V4 各模式与 Claude 或 GPT 并排测试。对企业来说,这意味着更低成本、可预测的计费与无供应商锁定——非常适合扩展智能体工作流或多模态应用。
Key Capabilities and Benchmarks of DeepSeek V4
泄露数据描绘了令人印象深刻的图景:
- 编码:~90% HumanEval,80%+ SWE-bench Verified(预计可匹敌或超越 Claude Opus 4.6)。
- 推理:增强的 MATH-500(~96%)与长上下文 Needle-in-Haystack(1M tokens 下 97%)。
- 多模态:原生图像/视频理解,加上远优于 V3 的 SVG/代码生成。
- 效率:MoE 保持低成本;Engram 内存使 VRAM 需求较稠密模型降低 ~45%。
在专家模式的真实测试中,相比 V3.2,其自我校正与仓库级编码能力更强。
How Does DeepSeek V4 Compare to Other Leading AI Models?
| Feature | DeepSeek V4 (projected) | Claude Opus 4.6 | GPT-5.4 Codex |
|---|---|---|---|
| Parameters (total/active) | ~1T / ~37B | Undisclosed | Undisclosed |
| Context Window | 1M tokens | 200K-256K | ~200K |
| Multimodal (native) | Yes (Vision Mode) | Yes | Yes |
| Coding (SWE-bench) | 80%+ | 80.9% | ~80% |
| Pricing (est. output) | Very low (open trajectory) | High | High |
| Open Weights | Likely | No | No |
V4 的优势在于成本-性能与开放可及性,使得前沿 AI 能为更小的团队所用。
What Are Practical Use Cases for DeepSeek V4?
- 软件开发:使用专家模式进行多文件重构、缺陷检测与完整仓库分析。
- 多模态分析:上传图表、示意图或视频,获取即时洞察(视觉模式)。
- 智能体工作流:超长上下文记忆支撑自主研究型智能体。
- 内容与设计:从描述生成精确的 SVG/代码;分析视觉数据。
- 教育/研究:提供带可信引用的逐步解释。
Why Choose CometAPI for DeepSeek V4 and Beyond?
对开发者与企业而言,网页聊天只是起点——可扩展的生产级应用需要坚实的基础设施。CometAPI 正好提供了这一点:今天即可用折扣价接入 DeepSeek(V3.2 每百万 tokens $0.22–$0.35),并拥有清晰的向 V4 迁移路径。提示缓存、分析与多模型路由等特性可以在降低 20–30% 成本的同时消除停机风险。无论你是在构建下一代智能体,还是嵌入视觉能力,V4 API 一旦发布,CometAPI 确保你随时就绪。
Conclusion
通过以分层模式免费提供前沿级多模态智能,DeepSeek 在优化国产算力的同时,正在让先进 AI 更加普惠。这在性能与价格上对西方实验室形成压力,推动整个行业向更高效、更易获得的模型演进。
DeepSeek V4 不只是一场升级——它是高效、可及超级智能的蓝图。立即在网页端开始实验,并通过 CometAPI 为明天的无缝扩展做好准备。
.webp&w=3840&q=75)