技術規格
| 項目 | DeepSeek-V4-Pro |
|---|---|
| 提供者 | DeepSeek |
| API 模型名稱 | deepseek-v4-pro |
| 基礎 URL | https://api.deepseek.com 與 https://api.deepseek.com/anthropic |
| 輸入類型 | 文字 |
| 輸出類型 | 文字、工具呼叫、推理輸出 |
| 上下文長度 | 1,000,000 個 token |
| 最大輸出 | 384,000 個 token |
| 推理模式 | 非思考、思考(預設) |
| 代理/程式碼預設 | reasoning_effort 可設為 high;複雜的代理請求可能使用 max |
| 支援功能 | JSON 輸出、工具呼叫、Chat 前綴補全(測試版)、FIM 補全(非思考模式下的測試版) |
| 本地/開源權重發佈 | 1.6T 總參數、49B 啟用參數、FP4 + FP8 混合精度 |
| 授權(模型卡) | MIT |
| 參考模型卡 | DeepSeek-V4-Pro 在 Hugging Face 上的預覽 |
什麼是 DeepSeek-V4-Pro?
DeepSeek-V4-Pro 是 DeepSeek 的 V4 預覽家族中更強大的成員。官方模型卡將其描述為一個具有 1.6T 參數、49B 啟用參數與百萬 token 上下文視窗的 MoE 模型,定位於長期知識工作、程式碼生成與代理任務。API 文件透過標準的 DeepSeek 聊天補全介面提供,並同時支援 OpenAI 與 Anthropic SDK 風格。
主要特性
- 百萬 token 上下文:DeepSeek 記錄了 1M token 的上下文長度,使得該模型適合非常大型的文檔集、程式庫以及多步驟的代理工作流程。
- 兩種推理模式:API 支援非思考與思考模式;思考為預設,文件指出像 Claude Code 或 OpenCode 這類複雜代理請求可能會自動使用「max」努力等級。
- 支援工具呼叫:DeepSeek 的思考模式支援工具呼叫,這對需要搜尋、檔案操作或外部函式的代理而言非常重要。
- 長上下文效能:模型卡表示 V4 採用混合注意力設計,使用 Compressed Sparse Attention 與 Heavily Compressed Attention,相較於 V3.2 降低長上下文的運算與 KV 快取成本。 citeturn980363view2
- 聚焦程式編碼與推理:DeepSeek 表示 V4-Pro-Max 推理模式在程式基準上有進展,並在推理與代理任務上縮小與領先閉源模型之間的差距。 citeturn980363view2
- SDK 彈性:可透過相容 OpenAI 的標準聊天補全或使用 DeepSeek 的 Anthropic 相容端點進行偏工具導向的工作流程。
基準測試表現
官方 DeepSeek 模型卡報告了基礎模型家族及 V4-Pro-Max 比較組的以下評估結果。在基礎模型表中,V4-Pro 在多項知識與長上下文基準上優於 V3.2-Base,包括 MMLU-Pro(73.5 vs. 65.5)、FACTS Parametric(62.6 vs. 27.1)與 LongBench-V2(51.5 vs. 40.2)。
| 基準 | V3.2-Base | V4-Flash-Base | V4-Pro-Base |
|---|---|---|---|
| MMLU-Pro(EM) | 65.5 | 68.3 | 73.5 |
| FACTS Parametric(EM) | 27.1 | 33.9 | 62.6 |
| HumanEval(Pass@1) | 62.8 | 69.5 | 76.8 |
| LongBench-V2(EM) | 40.2 | 44.7 | 51.5 |
同一份模型卡也顯示 V4-Pro-Max 在特定任務上仍具備與前沿頂級模型競爭的能力。例如,在已發布的比較表中,其在 MMLU-Pro 取得 87.5、SimpleQA-Verified 57.9、GPQA Diamond 90.1、Terminal Bench 2.0 67.9。
DeepSeek-V4-Pro 與 DeepSeek-V4-Flash 與 DeepSeek-V3.2 的比較
| 模型 | 最佳適用 | 上下文 | 備註 |
|---|---|---|---|
| DeepSeek-V4-Pro | 重度推理、程式編碼、代理、長文檔 | 1M | V4 系列中最大模型,49B 啟用參數,整體能力最強。 citeturn980363view2turn980363view0 |
| DeepSeek-V4-Flash | 更快、更輕量的一般用途 | 1M | 較小的 284B/13B 模型,仍支援思考模式與工具呼叫。 citeturn980363view2turn980363view0 |
| DeepSeek-V3.2 | 前一代長上下文基線 | 早期 API 文件為 128K;V4 採用不同的 1M 上下文設計 | 可作為效率提升的參考;V4-Pro 的模型卡報告相較於 V3.2 在長上下文的 FLOPs 與 KV 快取上有大幅降低。 citeturn321011view1turn980363view2 |
最佳使用情境
- 存放庫規模的程式助理與重構工具
- 長文檔分析與綜合
- 需要多輪推理的工具型代理
- 受惠於長期記憶與結構化輸出的技術支援工作流程
- 中文與多語知識任務,模型卡在相關基準上表現強勁
如何存取並使用 Deepseek v4 pro API
步驟 1:申請 API 金鑰
登入 cometapi.com。若您尚未成為我們的使用者,請先註冊。登入您的 CometAPI console。取得介面的存取憑證 API 金鑰。在個人中心的 API token 處點選「Add Token」,取得 token 金鑰:sk-xxxxx 並提交。
步驟 2:將請求發送至 Deepseek v4 proAPI
選擇 “deepseek-v4-pro” 端點來發送 API 請求並設定請求本文。請求方法與請求本文可從我們網站的 API 文件取得。我們的網站也提供 Apifox 測試以利使用。將 <YOUR_API_KEY> 替換為您帳戶中的實際 CometAPI 金鑰。Where to call it: Anthropic Messages 格式與 Chat 格式。
將您的問題或請求插入到 content 欄位——模型會回應此內容。處理 API 回應以取得生成的答案。
步驟 3:擷取並驗證結果
處理 API 回應以取得生成的答案。處理後,API 會回傳任務狀態與輸出資料。可透過標準參數啟用串流、提示快取或長上下文處理等功能。