基本功能(提供的內容)
- 雙重推理模式:deepseek-chat(非思考/更快)與 deepseek-reasoner(思考/更強的思維鏈與代理技能)。UI 為終端使用者提供 “DeepThink” 切換。
- 長上下文:官方資料與社群報告強調 128k token 上下文視窗,支援端到端處理超長文件。
- 改進的工具/代理處理:後訓練優化聚焦於可靠的工具調用、多步驟代理工作流程與外掛/工具整合。
技術細節(架構、訓練與實作)
訓練語料與長上下文工程。 Deepseek V3.1 更新著重於在早期 V3 檢查點之上進行 兩階段長上下文擴展:公開說明指出在 32k 與 128k 擴展階段投入了大量額外 token(DeepSeek 報告在這些擴展步驟中使用了數千億個 token)。此版本亦更新了 分詞器配置 以支援更大的上下文設定。
模型規模與推理階段的微縮配置。 公開與社群報告對參數總量的敘述略有差異(新版本常見的情況):部分第三方索引與鏡像在執行期描述中列出 約 671B 參數(37B 活躍),而其他社群摘要則報告 約 685B 作為該混合式推理架構的名義規模。
推理模式與工程取捨。 Deepseek V3.1 提供兩種務實的推理模式:deepseek-chat(針對標準回合式聊天最佳化、低延遲)與 deepseek-reasoner(「思考」模式,優先考慮思維鏈與結構化推理)。
限制與風險
- 基準成熟度與可重現性: 許多效能主張仍屬早期、由社群驅動或具選擇性。獨立且標準化的評估仍在跟進中。(風險:過度宣稱)。
- 安全與幻覺: 與所有大型語言模型相同,Deepseek V3.1 存在幻覺與有害內容風險;更強的推理模式有時可能產生自信但不正確的多步驟輸出。對關鍵輸出應採用安全層與人工審核。(無論廠商或獨立來源皆未宣稱可消除幻覺。)
- 推理成本與延遲: 推理模式以延遲換取能力;對大規模消費端推理而言將增加成本。一些評論者指出,市場對開放、廉價、高速模型的反應可能波動不定。
常見且具吸引力的使用情境
- 長文件分析與摘要: 法律、研發、文獻綜述——善用 128k token 視窗進行端到端摘要。
- 代理工作流程與工具編排: 需要多步驟工具調用(API、搜尋、計算器)的自動化。Deepseek V3.1 的後訓練代理調校旨在提升此處的可靠性。
- 程式碼生成與軟體協助: 早期基準報告強調其出色的程式能力;適用於結對編程、程式碼審查與生成(需人為監督)。
- 在成本/延遲選擇重要的企業部署: 對於便宜/更快的對話助理選擇 chat 模式;對於離線或高階深度推理任務選擇 reasoner。
- 如何存取 deepseek-v3.1 API
Step 1: 註冊取得 API Key
登入 cometapi.com。如果您尚非用戶,請先註冊。登入您的 CometAPI 控制台。取得介面的存取憑證 API Key。在個人中心的 API token 處點擊「Add Token」,取得 token key:sk-xxxxx 並提交。
Step 2: 向 deepseek-v3.1 API 發送請求
選擇「deepseek-v3.1」端點發送 API 請求並設定請求體。請求方法與請求體可於我們網站的 API 文件取得。我們的網站亦提供 Apifox 測試以便您使用。將 <YOUR_API_KEY> 替換為您帳戶中的實際 CometAPI 金鑰。base url 為 Chat 格式。
將您的問題或請求插入 content 欄位——模型將對此作出回應。處理 API 回應以獲取生成的答案。
Step 3: 擷取並驗證結果
處理 API 回應以獲取生成的答案。處理後,API 會回傳任務狀態與輸出資料。
