在一項在全球 AI 社群引發漣漪的舉措中,DeepSeek 已在網頁端低調上線其備受期待的 V4 模型灰度測試。洩露的介面截圖顯示一套具有變革性的三模式系統——Fast、Expert 和 Vision——將 DeepSeek V4 定位為具備深度推理能力的多模態強者,有望與 Claude Opus 和 GPT-5 變體等領先模型匹敵或超越。
這不僅僅是一次增量更新。據傳參數量達 1 兆、由新穎的 Engram 記憶架構支撐的 100 萬 token 上下文視窗,以及原生影像/影片處理能力,DeepSeek V4 有望以親民成本提供企業級效能。無論你是構建代理的開發者、處理複雜分析的研究者,或是尋求尖端多模態 AI 的企業,這份指南涵蓋你需要了解的一切。
在 CometAPI,我們一直密切追蹤 DeepSeek 的發展。作為一個統一的 AI API 平台,提供 DeepSeek V3.2 及更早型號,透過與 OpenAI 相容的端點,價格最多較官方低 20%,我們對 V4 的整合感到興奮。本文稍後將展示 CometAPI 如何在 V4 完全上線後讓你的工作流程具備前瞻性。
什麼是 DeepSeek V4?
DeepSeek V4 代表這家中國 AI 實驗室旗艦 V 系列的下一步演進。基於 DeepSeek-V3 與 V3.2 的成功——引入了「思考/非思考」混合模式與強大的代理能力——V4 在規模、智能與多樣性上實現大幅擴展。
業界分析人士估計,V4 是一個超過 1 兆總參數的 Mixture-of-Experts(MoE)模型,每個 token 僅有 ~37-40 億參數處於活躍狀態以提升效率。該架構從 V3 的 MoE 基礎進一步打磨,能動態啟用專門「專家」,在降低推理成本的同時,提升在程式設計、數學與長上下文任務上的表現。
關鍵差異點包括:
- 原生多模態支援(文字 + 影像 + 影片)。
- 透過 Engram 條件式記憶實現 超長上下文 長達 1M tokens。
- 國產硬體最佳化——V4 主要面向華為 Ascend 晶片運行,呼應中國推動科技自主的方向。
DeepSeek 一直以 Apache 2.0 開源模型見長,使得 V4 有望成為最易於取得的前沿模型之一。洩露的基準測試顯示,其 HumanEval 或可達 90%、SWE-bench Verified 80% 以上,與 Claude Opus 4.5/4.6 與 GPT-5 Codex 變體直接競爭。V4 不是 一次簡單的增量更新——它是針對不同用戶需求分層的完整產品矩陣重塑,類似 Kimi 的 Fast/Expert 分層,但新增了 Vision。
關於 DeepSeek V4 的最新進展
截至 2026 年 4 月,DeepSeek V4 處於有限的灰度測試階段,尚未全面公測。多位程式員與微博博主於 4 月 7–8 日分享了更新後的聊天介面截圖,與此前的雙選項(Deep Thinking R1/Smart Search)佈局相比有大幅調整。
新的 UI 引入一個醒目的模式切換器,包含三個選項:
- Fast Mode(預設,日用不限,用於日常任務)。
- Expert Mode。
- Vision Mode。
V4 將利用華為最新晶片,並預計在 4 月上旬起的「未來數週」內全面上線。
Fast Mode(亦稱 Instant)為預設,日常使用不限。Expert Mode 強調深度思考,在部分測試中顯示更高的 token 吞吐(~64 tokens/s,Fast 約 ~49)。Vision Mode 支援直接上傳影像/影片並進行分析。
- 有早期測試者回報 1M 上下文 與更新後的知識截斷(涵蓋 2025 年之後的資料);也有人反映 Expert 仍較像優化版 V3.2,僅 128K 限制——印證灰度測試的漸進特性。
官方對命名仍保持沉默,但介面變化、多模態暗示與先前洩露(在國產晶片上的三模型套件)高度一致,強烈指向這些就是測試中的 V4 變體。外界普遍預期全面上線時間為本月(2026 年 4 月)。
DeepSeek V4 的新功能架構是什麼?(快速版 vs. 專家版的推測)
洩露細節指向一套精巧的三級架構,將日常效率、關鍵場景推理與多模態處理分層。
Fast Mode(Quick Version):面向即時回應與高吞吐日常對話的最佳化。分析者認為其路由至輕量蒸餾變體,或 MoE 模型中較小的活躍參數切片。支援檔案上傳與基礎任務,延遲極低——非常適合快問快答或原型製作。每日不限額度,對一般用戶友好。
Expert Mode(Deep Reasoning Version):被廣泛認為是「真正的」DeepSeek V4 核心。強調多步推理、領域增強、思考過程可視化與加強引文追溯。內部人士將其與領導層署名論文中詳述的「新記憶架構」(Engram 條件式記憶)相連。Engram 將靜態知識(O(1) 雜湊查詢)與動態推理分離,讓 1M-token 上下文保持穩定而不致計算成本爆炸。早測者回報在複雜問題上的邏輯穩定性與自我修正更佳。
Vision Mode:多模態旗艦,具備原生影像/影片理解與生成能力。有別於傳統附掛於文字模型的 VLM,外界推測其採用「深度統一世界模型」架構——或將視覺 token 直接整合至 MoE 路由,以達成無縫跨模態推理。
這種 Quick 與 Expert 的分離,讓 DeepSeek 同時服務大眾用戶(Fast)與高階用戶(Expert/Vision)而不相互妥協。全面商用後,Expert/Vision 可能會設置配額,而 Fast 保持免費/不限。
灰度測試中的 DeepSeek V4 視覺與專家模式
灰度曝光點燃了外界的最大期待。我的測試:
- Expert Mode 觸發更長的內部「思考」(部分視圖可見 chain-of-thought),輸出更準確並附帶引用。
- 當附加影像時,Vision Mode 會自動啟用,重定向提示以供分析或生成。
這些特徵與 DeepSeek 發表的關於流形約束超連接(mHC)與 DeepSeek 稀疏注意力(DSA)的研究一致——這些創新在兆級參數規模下穩定訓練,並改進長期視野的代理任務。
Expert Mode 可能已運行早期的 V4 檢查點,這可解釋其智力提升的體感。Vision Mode 的獨立性顯示它並非簡單附加組件,而是核心架構支柱。
如何在網頁上存取與使用 DeepSeek V4:逐步指南
存取灰度版很簡單,但目前有限:
- 造訪官方平台:前往 chat.deepseek.com 或 platform.deepseek.com,使用你的 DeepSeek 帳號登入(可免費註冊)。
- 尋找模式選擇器:如果你位於灰度測試群組,會看到新的 Fast/Expert/Vision 按鈕。不是每個人都可見——採分階段推出。
- 選擇你的模式:
- 以 Fast Mode 開始日常對話。
- 針對複雜推理、編碼或研究切換至 Expert Mode。
- 上傳影像/影片以觸發 Vision Mode。
- 有效撰寫提示:對於 Expert,使用詳細指令,例如「逐步思考並驗證你的邏輯」。對於 Vision,精確描述影像(例如:「分析這張圖表的趨勢並生成摘要表格」)。
- 留意限制:Fast 不限額;在測試期間,Expert 與 Vision 可能有每日配額。
小技巧:在可用處啟用網路搜尋或檔案上傳,以獲取更豐富上下文。
若暫無灰度存取,你仍可使用同站上的 DeepSeek-V3.2(當前生產模型)。V4 全面發佈在即——關注 CometAPI。
如何透過 API 將 DeepSeek V4 納入你的工作流程
雖然網頁端適合探索,但生產使用需要可靠的 API。官方 DeepSeek API 目前提供 V3.2(128K 上下文),但預期很快會新增 V4 端點。
CometAPI 登場:作為一站式 AI API 聚合平台,CometAPI 已透過與 OpenAI 相容的端點提供 DeepSeek V3、V3.1、V3.2 與 R1,價格低 20%,附免費初始點數、用量分析,並可在供應商間自動故障切換。當 V4 上線時無需改動程式碼——我們將無縫加入。
在 CometAPI 上快速設定:
- 在 cometapi.com 註冊。
- 產生 API 金鑰(sk-xxx)。
- 使用基礎 URL
https://api.cometapi.com與類似deepseek-v4-expert的模型名稱(上線後)。 - Python 範例呼叫:
from openai import OpenAI
client = OpenAI(api_key="your_cometapi_key", base_url="https://api.cometapi.com")
response = client.chat.completions.create(
model="deepseek-v4-expert", # 或 Vision 變體
messages=[{"role": "user", "content": "在此輸入你的提示"}]
)
CometAPI 的 Playground 讓你在不切換控制台的情況下,將 V4 模式與 Claude 或 GPT 並排測試。對企業而言,這意味著更低成本、可預期的計費,且無供應商綁定——非常適合擴展代理型工作流程或多模態應用。
DeepSeek V4 的關鍵能力與基準
洩露數據描繪出令人印象深刻的圖景:
- 程式設計:~90% HumanEval、80%+ SWE-bench Verified(預計可匹敵或超越 Claude Opus 4.6)。
- 推理:強化的 MATH-500(~96%)與長上下文 Needle-in-Haystack(1M tokens 下 97%)。
- 多模態:原生影像/影片理解,加上大幅優於 V3 的 SVG/程式碼生成。
- 效率:MoE 保持成本低;Engram 記憶將 VRAM 需求降低約 ~45%(相較稠密模型)。
在 Expert Mode 的實測中,相比 V3.2,表現出更強的自我修正與倉庫層級程式開發能力。
DeepSeek V4 與其他領先 AI 模型有何比較?
| Feature | DeepSeek V4 (projected) | Claude Opus 4.6 | GPT-5.4 Codex |
|---|---|---|---|
| Parameters (total/active) | ~1T / ~37B | Undisclosed | Undisclosed |
| Context Window | 1M tokens | 200K-256K | ~200K |
| Multimodal (native) | Yes (Vision Mode) | Yes | Yes |
| Coding (SWE-bench) | 80%+ | 80.9% | ~80% |
| Pricing (est. output) | Very low (open trajectory) | High | High |
| Open Weights | Likely | No | No |
V4 的優勢在於成本效能與開放可及性,使前沿 AI 為小型團隊所用。
DeepSeek V4 的實際使用場景有哪些?
- 軟體開發:以 Expert Mode 進行多檔案重構、錯誤檢測與整個倉庫分析。
- 多模態分析:上傳圖表、圖示或影片以即時獲得洞察(Vision Mode)。
- 代理型工作流程:長上下文記憶驅動自主研究代理。
- 內容與設計:從描述生成準確的 SVG/程式碼;分析視覺資料。
- 教育/研究:提供逐步講解並附可驗證引用。
為何選擇 CometAPI 以應對 DeepSeek V4 與未來?
對開發者與企業而言,網頁聊天只是起點——可擴展的生產部署需要穩健的基礎設施。CometAPI 正是如此:今日即可折扣使用 DeepSeek(V3.2 每百萬 tokens 價格 $0.22–$0.35),並有清晰的升級路徑至 V4。Prompt 快取、分析與多模型路由等功能可再降本 20–30%,同時消除停機風險。無論你在打造下一代 AI 代理,或嵌入視覺能力,CometAPI 都確保你能在 V4 API 上線那一刻即刻就緒。
結論
透過免費提供具分層模式的前沿多模態智能,DeepSeek 在最佳化國產算力的同時,將高階 AI 民主化。這在效能與價格上對西方實驗室形成壓力,並加速整個產業朝更高效、更易取得的模型演進。
DeepSeek V4 不只是一次升級——它是高效、可及超級智能的藍圖。今天就從網頁端開始試驗,並用 CometAPI 為明天的無縫擴展做好準備。
.webp&w=3840&q=75)