DeepSeek v4 現已可在網路上使用:如何存取與測試它

CometAPI
AnnaApr 9, 2026
DeepSeek v4 現已可在網路上使用:如何存取與測試它

在一項在全球 AI 社群引發漣漪的舉措中,DeepSeek 已在網頁端低調上線其備受期待的 V4 模型灰度測試。洩露的介面截圖顯示一套具有變革性的三模式系統——Fast、Expert 和 Vision——將 DeepSeek V4 定位為具備深度推理能力的多模態強者,有望與 Claude Opus 和 GPT-5 變體等領先模型匹敵或超越。

這不僅僅是一次增量更新。據傳參數量達 1 兆、由新穎的 Engram 記憶架構支撐的 100 萬 token 上下文視窗,以及原生影像/影片處理能力,DeepSeek V4 有望以親民成本提供企業級效能。無論你是構建代理的開發者、處理複雜分析的研究者,或是尋求尖端多模態 AI 的企業,這份指南涵蓋你需要了解的一切。

在 CometAPI,我們一直密切追蹤 DeepSeek 的發展。作為一個統一的 AI API 平台,提供 DeepSeek V3.2 及更早型號,透過與 OpenAI 相容的端點,價格最多較官方低 20%,我們對 V4 的整合感到興奮。本文稍後將展示 CometAPI 如何在 V4 完全上線後讓你的工作流程具備前瞻性。

什麼是 DeepSeek V4?

DeepSeek V4 代表這家中國 AI 實驗室旗艦 V 系列的下一步演進。基於 DeepSeek-V3 與 V3.2 的成功——引入了「思考/非思考」混合模式與強大的代理能力——V4 在規模、智能與多樣性上實現大幅擴展。

業界分析人士估計,V4 是一個超過 1 兆總參數的 Mixture-of-Experts(MoE)模型,每個 token 僅有 ~37-40 億參數處於活躍狀態以提升效率。該架構從 V3 的 MoE 基礎進一步打磨,能動態啟用專門「專家」,在降低推理成本的同時,提升在程式設計、數學與長上下文任務上的表現。

關鍵差異點包括:

  • 原生多模態支援(文字 + 影像 + 影片)。
  • 透過 Engram 條件式記憶實現 超長上下文 長達 1M tokens。
  • 國產硬體最佳化——V4 主要面向華為 Ascend 晶片運行,呼應中國推動科技自主的方向。

DeepSeek 一直以 Apache 2.0 開源模型見長,使得 V4 有望成為最易於取得的前沿模型之一。洩露的基準測試顯示,其 HumanEval 或可達 90%、SWE-bench Verified 80% 以上,與 Claude Opus 4.5/4.6 與 GPT-5 Codex 變體直接競爭。V4 不是 一次簡單的增量更新——它是針對不同用戶需求分層的完整產品矩陣重塑,類似 Kimi 的 Fast/Expert 分層,但新增了 Vision。

關於 DeepSeek V4 的最新進展

截至 2026 年 4 月,DeepSeek V4 處於有限的灰度測試階段,尚未全面公測。多位程式員與微博博主於 4 月 7–8 日分享了更新後的聊天介面截圖,與此前的雙選項(Deep Thinking R1/Smart Search)佈局相比有大幅調整。

新的 UI 引入一個醒目的模式切換器,包含三個選項:

  • Fast Mode(預設,日用不限,用於日常任務)。
  • Expert Mode
  • Vision Mode

V4 將利用華為最新晶片,並預計在 4 月上旬起的「未來數週」內全面上線。

Fast Mode(亦稱 Instant)為預設,日常使用不限。Expert Mode 強調深度思考,在部分測試中顯示更高的 token 吞吐(~64 tokens/s,Fast 約 ~49)。Vision Mode 支援直接上傳影像/影片並進行分析。

  • 有早期測試者回報 1M 上下文 與更新後的知識截斷(涵蓋 2025 年之後的資料);也有人反映 Expert 仍較像優化版 V3.2,僅 128K 限制——印證灰度測試的漸進特性。

官方對命名仍保持沉默,但介面變化、多模態暗示與先前洩露(在國產晶片上的三模型套件)高度一致,強烈指向這些就是測試中的 V4 變體。外界普遍預期全面上線時間為本月(2026 年 4 月)。

DeepSeek V4 的新功能架構是什麼?(快速版 vs. 專家版的推測)

洩露細節指向一套精巧的三級架構,將日常效率、關鍵場景推理與多模態處理分層。

Fast Mode(Quick Version):面向即時回應與高吞吐日常對話的最佳化。分析者認為其路由至輕量蒸餾變體,或 MoE 模型中較小的活躍參數切片。支援檔案上傳與基礎任務,延遲極低——非常適合快問快答或原型製作。每日不限額度,對一般用戶友好。

Expert Mode(Deep Reasoning Version):被廣泛認為是「真正的」DeepSeek V4 核心。強調多步推理、領域增強、思考過程可視化與加強引文追溯。內部人士將其與領導層署名論文中詳述的「新記憶架構」(Engram 條件式記憶)相連。Engram 將靜態知識(O(1) 雜湊查詢)與動態推理分離,讓 1M-token 上下文保持穩定而不致計算成本爆炸。早測者回報在複雜問題上的邏輯穩定性與自我修正更佳。

Vision Mode:多模態旗艦,具備原生影像/影片理解與生成能力。有別於傳統附掛於文字模型的 VLM,外界推測其採用「深度統一世界模型」架構——或將視覺 token 直接整合至 MoE 路由,以達成無縫跨模態推理。

這種 Quick 與 Expert 的分離,讓 DeepSeek 同時服務大眾用戶(Fast)與高階用戶(Expert/Vision)而不相互妥協。全面商用後,Expert/Vision 可能會設置配額,而 Fast 保持免費/不限。

灰度測試中的 DeepSeek V4 視覺與專家模式

灰度曝光點燃了外界的最大期待。我的測試:

  • Expert Mode 觸發更長的內部「思考」(部分視圖可見 chain-of-thought),輸出更準確並附帶引用。
  • 當附加影像時,Vision Mode 會自動啟用,重定向提示以供分析或生成。

這些特徵與 DeepSeek 發表的關於流形約束超連接(mHC)與 DeepSeek 稀疏注意力(DSA)的研究一致——這些創新在兆級參數規模下穩定訓練,並改進長期視野的代理任務。

Expert Mode 可能已運行早期的 V4 檢查點,這可解釋其智力提升的體感。Vision Mode 的獨立性顯示它並非簡單附加組件,而是核心架構支柱。

如何在網頁上存取與使用 DeepSeek V4:逐步指南

存取灰度版很簡單,但目前有限:

  1. 造訪官方平台:前往 chat.deepseek.com 或 platform.deepseek.com,使用你的 DeepSeek 帳號登入(可免費註冊)。
  2. 尋找模式選擇器:如果你位於灰度測試群組,會看到新的 Fast/Expert/Vision 按鈕。不是每個人都可見——採分階段推出。
  3. 選擇你的模式
  • Fast Mode 開始日常對話。
  • 針對複雜推理、編碼或研究切換至 Expert Mode
  • 上傳影像/影片以觸發 Vision Mode
  1. 有效撰寫提示:對於 Expert,使用詳細指令,例如「逐步思考並驗證你的邏輯」。對於 Vision,精確描述影像(例如:「分析這張圖表的趨勢並生成摘要表格」)。
  2. 留意限制:Fast 不限額;在測試期間,Expert 與 Vision 可能有每日配額。

小技巧:在可用處啟用網路搜尋或檔案上傳,以獲取更豐富上下文。

若暫無灰度存取,你仍可使用同站上的 DeepSeek-V3.2(當前生產模型)。V4 全面發佈在即——關注 CometAPI。

如何透過 API 將 DeepSeek V4 納入你的工作流程

雖然網頁端適合探索,但生產使用需要可靠的 API。官方 DeepSeek API 目前提供 V3.2(128K 上下文),但預期很快會新增 V4 端點。

CometAPI 登場:作為一站式 AI API 聚合平台,CometAPI 已透過與 OpenAI 相容的端點提供 DeepSeek V3、V3.1、V3.2 與 R1,價格低 20%,附免費初始點數、用量分析,並可在供應商間自動故障切換。當 V4 上線時無需改動程式碼——我們將無縫加入。

在 CometAPI 上快速設定

  • cometapi.com 註冊。
  • 產生 API 金鑰(sk-xxx)。
  • 使用基礎 URL https://api.cometapi.com 與類似 deepseek-v4-expert 的模型名稱(上線後)。
  • Python 範例呼叫:
  from openai import OpenAI
  client = OpenAI(api_key="your_cometapi_key", base_url="https://api.cometapi.com")
  response = client.chat.completions.create(
      model="deepseek-v4-expert",  # 或 Vision 變體
      messages=[{"role": "user", "content": "在此輸入你的提示"}]
  )

CometAPI 的 Playground 讓你在不切換控制台的情況下,將 V4 模式與 Claude 或 GPT 並排測試。對企業而言,這意味著更低成本、可預期的計費,且無供應商綁定——非常適合擴展代理型工作流程或多模態應用。

DeepSeek V4 的關鍵能力與基準

洩露數據描繪出令人印象深刻的圖景:

  • 程式設計:~90% HumanEval、80%+ SWE-bench Verified(預計可匹敵或超越 Claude Opus 4.6)。
  • 推理:強化的 MATH-500(~96%)與長上下文 Needle-in-Haystack(1M tokens 下 97%)。
  • 多模態:原生影像/影片理解,加上大幅優於 V3 的 SVG/程式碼生成。
  • 效率:MoE 保持成本低;Engram 記憶將 VRAM 需求降低約 ~45%(相較稠密模型)。

在 Expert Mode 的實測中,相比 V3.2,表現出更強的自我修正與倉庫層級程式開發能力。

DeepSeek V4 與其他領先 AI 模型有何比較?

FeatureDeepSeek V4 (projected)Claude Opus 4.6GPT-5.4 Codex
Parameters (total/active)~1T / ~37BUndisclosedUndisclosed
Context Window1M tokens200K-256K~200K
Multimodal (native)Yes (Vision Mode)YesYes
Coding (SWE-bench)80%+80.9%~80%
Pricing (est. output)Very low (open trajectory)HighHigh
Open WeightsLikelyNoNo

V4 的優勢在於成本效能與開放可及性,使前沿 AI 為小型團隊所用。

DeepSeek V4 的實際使用場景有哪些?

  • 軟體開發:以 Expert Mode 進行多檔案重構、錯誤檢測與整個倉庫分析。
  • 多模態分析:上傳圖表、圖示或影片以即時獲得洞察(Vision Mode)。
  • 代理型工作流程:長上下文記憶驅動自主研究代理。
  • 內容與設計:從描述生成準確的 SVG/程式碼;分析視覺資料。
  • 教育/研究:提供逐步講解並附可驗證引用。

為何選擇 CometAPI 以應對 DeepSeek V4 與未來?

對開發者與企業而言,網頁聊天只是起點——可擴展的生產部署需要穩健的基礎設施。CometAPI 正是如此:今日即可折扣使用 DeepSeek(V3.2 每百萬 tokens 價格 $0.22–$0.35),並有清晰的升級路徑至 V4。Prompt 快取、分析與多模型路由等功能可再降本 20–30%,同時消除停機風險。無論你在打造下一代 AI 代理,或嵌入視覺能力,CometAPI 都確保你能在 V4 API 上線那一刻即刻就緒。

結論

透過免費提供具分層模式的前沿多模態智能,DeepSeek 在最佳化國產算力的同時,將高階 AI 民主化。這在效能與價格上對西方實驗室形成壓力,並加速整個產業朝更高效、更易取得的模型演進。

DeepSeek V4 不只是一次升級——它是高效、可及超級智能的藍圖。今天就從網頁端開始試驗,並用 CometAPI 為明天的無縫擴展做好準備。

以低成本 存取頂級模型

閱讀更多