Mô hìnhGiáDoanh nghiệp
500+ API Mô hình AI, Tất cả trong Một API. Chỉ cần CometAPI
API Mô hình
Nhà phát triển
Bắt đầu nhanhTài liệuBảng Điều Khiển API
Công ty
Về chúng tôiDoanh nghiệp
Tài nguyên
Mô hình AIBlogNhật ký thay đổiHỗ trợ
Điều khoản Dịch vụChính sách Bảo mật
© 2026 CometAPI · All rights reserved
Home/Models/DeepSeek/DeepSeek V4 Pro
D

DeepSeek V4 Pro

Đầu vào:$0.416/M
Đầu ra:$0.832/M
DeepSeek V4 Pro là một mô hình Mixture-of-Experts quy mô lớn từ DeepSeek với 1.6T tham số tổng cộng và 49B tham số được kích hoạt, hỗ trợ cửa sổ ngữ cảnh 1M-token. Mô hình này được thiết kế cho suy luận nâng cao, lập trình và các quy trình tác tử dài hạn, với hiệu năng mạnh mẽ trên các benchmark về kiến thức, toán học và kỹ thuật phần mềm.
Mới
Sử dụng thương mại
Playground
Tổng quan
Tính năng
Giá cả
API
Phiên bản

Thông số kỹ thuật

Hạng mụcDeepSeek-V4-Pro
Nhà cung cấpDeepSeek
Tên mô hình APIdeepseek-v4-pro
URL cơ sởhttps://api.deepseek.com and https://api.deepseek.com/anthropic
Kiểu đầu vàoText
Kiểu đầu raText, tool calls, reasoning output
Độ dài ngữ cảnh1,000,000 tokens
Đầu ra tối đa384,000 tokens
Chế độ suy luậnNon-thinking, thinking (default)
Mặc định agent/lập mãreasoning_effort có thể đặt ở mức cao; các yêu cầu agent phức tạp có thể dùng max
Tính năng được hỗ trợJSON Output, Tool Calls, Chat Prefix Completion (beta), FIM Completion (beta in non-thinking mode)
Bản phát hành local/open-weights1.6T total parameters, 49B activated parameters, FP4 + FP8 mixed precision
Giấy phép (model card)MIT
Model card tham chiếuDeepSeek-V4-Pro preview on Hugging Face

DeepSeek-V4-Pro là gì?

DeepSeek-V4-Pro là thành viên mạnh hơn trong dòng xem trước V4 của DeepSeek. Model card chính thức mô tả đây là mô hình MoE với 1,6T tham số, 49B tham số được kích hoạt và cửa sổ ngữ cảnh một triệu token, hướng đến công việc tri thức dài hạn, sinh mã và các tác vụ agent. Tài liệu API cung cấp mô hình qua bề mặt chat-completions chuẩn của DeepSeek và hỗ trợ cả phong cách SDK của OpenAI và Anthropic.

Tính năng chính

  • Ngữ cảnh một triệu token: DeepSeek công bố độ dài ngữ cảnh 1M token, giúp mô hình phù hợp với tập tài liệu rất lớn, kho mã và các phiên agent nhiều bước.
  • Hai chế độ suy luận: API hỗ trợ chế độ non-thinking và thinking; thinking là mặc định, và tài liệu lưu ý rằng các yêu cầu agent phức tạp như Claude Code hoặc OpenCode có thể tự động dùng nỗ lực max.
  • Hỗ trợ gọi công cụ: Chế độ thinking của DeepSeek hỗ trợ tool calls, quan trọng cho các agent cần tìm kiếm, thao tác tệp hoặc gọi hàm bên ngoài.
  • Hiệu quả với ngữ cảnh dài: Model card cho biết V4 dùng thiết kế attention lai với Compressed Sparse Attention và Heavily Compressed Attention để giảm chi phí tính toán ngữ cảnh dài và KV cache so với V3.2. citeturn980363view2
  • Tập trung vào lập mã và suy luận: DeepSeek cho biết chế độ suy luận V4-Pro-Max cải thiện các chuẩn lập mã và thu hẹp phần lớn khoảng cách với các mô hình đóng hàng đầu về nhiệm vụ suy luận và tác tử. citeturn980363view2
  • Tính linh hoạt về SDK: Có thể truy cập qua chat completions tương thích OpenAI chuẩn hoặc qua endpoint tương thích Anthropic của DeepSeek cho các quy trình định hướng công cụ.

Hiệu năng trên benchmark

Model card chính thức của DeepSeek báo cáo kết quả đánh giá sau cho họ mô hình cơ sở và tập so sánh V4-Pro-Max. Trong bảng mô hình cơ sở, V4-Pro đạt điểm cao hơn V3.2-Base trên một số benchmark về tri thức và ngữ cảnh dài, bao gồm MMLU-Pro (73.5 so với 65.5), FACTS Parametric (62.6 so với 27.1) và LongBench-V2 (51.5 so với 40.2).

BenchmarkV3.2-BaseV4-Flash-BaseV4-Pro-Base
MMLU-Pro (EM)65.568.373.5
FACTS Parametric (EM)27.133.962.6
HumanEval (Pass@1)62.869.576.8
LongBench-V2 (EM)40.244.751.5

Model card tương tự cũng cho thấy V4-Pro-Max vẫn cạnh tranh với các mô hình tiên phong hàng đầu ở một số tác vụ đã chọn. Ví dụ, mô hình đạt 87.5 trên MMLU-Pro, 57.9 trên SimpleQA-Verified, 90.1 trên GPQA Diamond và 67.9 trên Terminal Bench 2.0 trong bảng so sánh đã công bố.

DeepSeek-V4-Pro vs DeepSeek-V4-Flash vs DeepSeek-V3.2

Mô hìnhPhù hợp nhấtNgữ cảnhGhi chú
DeepSeek-V4-ProSuy luận nặng, lập mã, agent, tài liệu lớn1MMô hình V4 lớn nhất, 49B tham số được kích hoạt, năng lực tổng thể mạnh nhất trong dòng. citeturn980363view2turn980363view0
DeepSeek-V4-FlashNhanh hơn, nhẹ hơn cho sử dụng chung1MMô hình nhỏ hơn 284B/13B, vẫn hỗ trợ thinking và tool calls. citeturn980363view2turn980363view0
DeepSeek-V3.2Baseline thế hệ trước cho ngữ cảnh dài128K trong tài liệu API trước; V4 dùng thiết kế ngữ cảnh 1M khácHữu ích làm điểm tham chiếu cho cải thiện hiệu suất; model card của V4-Pro báo cáo giảm lớn FLOPs ngữ cảnh dài và KV cache so với V3.2. citeturn321011view1turn980363view2

Trường hợp sử dụng phù hợp nhất

  • Trợ lý lập mã và công cụ tái cấu trúc ở quy mô kho mã
  • Phân tích và tổng hợp tài liệu dài
  • Agent sử dụng công cụ cần suy luận đa lượt
  • Quy trình hỗ trợ kỹ thuật hưởng lợi từ bộ nhớ dài và đầu ra có cấu trúc
  • Nhiệm vụ kiến thức tiếng Trung và đa ngôn ngữ nơi model card cho thấy hiệu năng benchmark mạnh

Cách truy cập và sử dụng API Deepseek v4 pro

Bước 1: Đăng ký khóa API

Đăng nhập vào cometapi.com. Nếu bạn chưa là người dùng của chúng tôi, vui lòng đăng ký trước. Đăng nhập vào CometAPI console. Lấy khóa API (thông tin xác thực truy cập) của giao diện. Nhấp “Add Token” tại mục API token trong trung tâm cá nhân, lấy khóa token: sk-xxxxx và gửi.

Bước 2: Gửi yêu cầu tới Deepseek v4 pro API

Chọn endpoint “deepseek-v4-pro” để gửi yêu cầu API và thiết lập nội dung body. Phương thức và body của yêu cầu được lấy từ tài liệu API trên trang web của chúng tôi. Trang web của chúng tôi cũng cung cấp thử nghiệm Apifox để bạn tiện sử dụng. Thay thế <YOUR_API_KEY> bằng CometAPI key thực tế từ tài khoản của bạn. Nơi để gọi: Anthropic Messages format và Chat format.

Chèn câu hỏi hoặc yêu cầu của bạn vào trường content — đây là nội dung mà mô hình sẽ phản hồi. Xử lý phản hồi API để lấy câu trả lời được tạo.

Bước 3: Truy xuất và xác minh kết quả

Xử lý phản hồi API để lấy câu trả lời được tạo. Sau khi xử lý, API sẽ phản hồi trạng thái tác vụ và dữ liệu đầu ra. Bật các tính năng như streaming, prompt caching hoặc xử lý ngữ cảnh dài thông qua tham số chuẩn.

Câu Hỏi Thường Gặp

Can DeepSeek-V4-Pro handle 1M-token documents in the API?

Yes. DeepSeek-V4-Pro with a 1M-token context length and up to 384K output tokens, so it is built for very long documents and multi-file workflows.

Does DeepSeek-V4-Pro support thinking mode and tool calls?

Yes. DeepSeek-V4-Pro supports both thinking and non-thinking modes, plus JSON output and tool calls.

When should I use DeepSeek-V4-Pro instead of DeepSeek-V4-Flash?

Use DeepSeek-V4-Pro when accuracy and agentic coding matter more than speed. DeepSeek says V4-Flash is the faster, more economical option, while V4-Pro is stronger on coding and broader agent evaluations.

Is DeepSeek-V4-Pro good for coding agents like Claude Code or OpenCode?

Yes. DeepSeek-V4-Pro configured for Claude Code and OpenCode, with reasoningEffort set to max and thinking enabled.

How do I integrate DeepSeek-V4-Pro with OpenAI-compatible SDKs?

Use the CometAPI base URL https://api.cometapi.com with the model name deepseek-v4-pro

Is DeepSeek-V4-Pro suitable for search-heavy research workflows?

Yes. V4-Pro performs strongly on search and retrieval-style tasks, and it outperforms DeepSeek-V3.2 by a substantial margin in both objective and subjective Q&A categories.

Giá cả cho DeepSeek V4 Pro

Khám phá mức giá cạnh tranh cho DeepSeek V4 Pro, được thiết kế để phù hợp với nhiều ngân sách và nhu cầu sử dụng khác nhau. Các gói linh hoạt của chúng tôi đảm bảo bạn chỉ trả tiền cho những gì bạn sử dụng, giúp dễ dàng mở rộng quy mô khi yêu cầu của bạn tăng lên. Khám phá cách DeepSeek V4 Pro có thể nâng cao các dự án của bạn trong khi vẫn kiểm soát được chi phí.
Giá Comet (USD / M Tokens)Giá Chính Thức (USD / M Tokens)Giảm giá
Đầu vào:$0.416/M
Đầu ra:$0.832/M
Đầu vào:$0.52/M
Đầu ra:$1.04/M
-20%

Mã mẫu và API cho DeepSeek V4 Pro

Truy cập mã mẫu toàn diện và tài nguyên API cho DeepSeek V4 Pro để tối ưu hóa quy trình tích hợp của bạn. Tài liệu chi tiết của chúng tôi cung cấp hướng dẫn từng bước, giúp bạn khai thác toàn bộ tiềm năng của DeepSeek V4 Pro trong các dự án của mình.
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

stream = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Which number is greater, 9.11 or 9.8? Answer with one sentence."},
    ],
    stream=True,
    max_tokens=256,
    reasoning_effort="high",
    extra_body={"thinking": {"type": "enabled"}},
)

thinking = False
for chunk in stream:
    delta = chunk.choices[0].delta
    reasoning = (delta.model_extra or {}).get("reasoning_content") or ""
    content = delta.content or ""

    if reasoning:
        if not thinking:
            print("<reasoning>")
            thinking = True
        print(reasoning, end="", flush=True)

    if content:
        if thinking:
            print("
</reasoning>

<answer>")
            thinking = False
        print(content, end="", flush=True)

print()

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

stream = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Which number is greater, 9.11 or 9.8? Answer with one sentence."},
    ],
    stream=True,
    max_tokens=256,
    reasoning_effort="high",
    extra_body={"thinking": {"type": "enabled"}},
)

thinking = False
for chunk in stream:
    delta = chunk.choices[0].delta
    reasoning = (delta.model_extra or {}).get("reasoning_content") or ""
    content = delta.content or ""

    if reasoning:
        if not thinking:
            print("<reasoning>")
            thinking = True
        print(reasoning, end="", flush=True)

    if content:
        if thinking:
            print("\n</reasoning>\n\n<answer>")
            thinking = False
        print(content, end="", flush=True)

print()

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const stream = await client.chat.completions.create({
  model: "deepseek-v4-pro",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Which number is greater, 9.11 or 9.8? Answer with one sentence." },
  ],
  thinking: { type: "enabled" },
  reasoning_effort: "high",
  max_tokens: 256,
  stream: true,
});

let thinking = false;
for await (const chunk of stream) {
  const delta = chunk.choices[0]?.delta ?? {};
  const reasoning = delta.reasoning_content ?? "";
  const content = delta.content ?? "";

  if (reasoning) {
    if (!thinking) {
      process.stdout.write("<reasoning>\n");
      thinking = true;
    }
    process.stdout.write(reasoning);
  }

  if (content) {
    if (thinking) {
      process.stdout.write("\n</reasoning>\n\n<answer>\n");
      thinking = false;
    }
    process.stdout.write(content);
  }
}

process.stdout.write("\n");

Curl Code Example

#!/usr/bin/env bash
# Get your CometAPI key from https://www.cometapi.com/console/token
# Export it as: export COMETAPI_KEY="your-key-here"

if ! command -v jq >/dev/null 2>&1; then
  echo "jq is required to parse streamed reasoning_content in this shell example." >&2
  exit 1
fi

thinking=false

curl --silent --no-buffer --location --request POST "https://api.cometapi.com/v1/chat/completions" \
  --header "Authorization: Bearer $COMETAPI_KEY" \
  --header "Content-Type: application/json" \
  --data-raw '{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Which number is greater, 9.11 or 9.8? Answer with one sentence."}
    ],
    "thinking": {"type": "enabled"},
    "reasoning_effort": "high",
    "max_tokens": 256,
    "stream": true
  }' | while IFS= read -r line; do
    case "$line" in
      data:\ *) data=${line#data: } ;;
      *) continue ;;
    esac

    [ "$data" = "[DONE]" ] && break

    reasoning=$(printf '%s' "$data" | jq -r '.choices[0].delta.reasoning_content // empty')
    content=$(printf '%s' "$data" | jq -r '.choices[0].delta.content // empty')

    if [ -n "$reasoning" ]; then
      if [ "$thinking" = false ]; then
        printf '<reasoning>\n'
        thinking=true
      fi
      printf '%s' "$reasoning"
    fi

    if [ -n "$content" ]; then
      if [ "$thinking" = true ]; then
        printf '\n</reasoning>\n\n<answer>\n'
        thinking=false
      fi
      printf '%s' "$content"
    fi
  done

printf '\n'

Các phiên bản của DeepSeek V4 Pro

Lý do DeepSeek V4 Pro có nhiều snapshot có thể bao gồm các yếu tố tiềm năng như: sự thay đổi đầu ra sau các bản cập nhật cần các snapshot cũ để đảm bảo tính nhất quán, cung cấp cho nhà phát triển thời gian chuyển tiếp để thích ứng và di chuyển, cũng như các snapshot khác nhau tương ứng với các endpoint toàn cầu hoặc khu vực nhằm tối ưu hóa trải nghiệm người dùng. Để biết chi tiết về sự khác biệt giữa các phiên bản, vui lòng tham khảo tài liệu chính thức.
version
deepseek-v4-pro