Cách sử dụng API Deepseek v3.2

CometAPI
AnnaDec 3, 2025
Cách sử dụng API Deepseek v3.2

DeepSeek đã được phát hành DeepSeek V3.2 và một biến thể tính toán cao DeepSeek-V3.2-Đặc biệt, với công cụ chú ý thưa thớt (DSA) mới, cải thiện hành vi của tác nhân/công cụ và chế độ "suy nghĩ" (chuỗi suy nghĩ) làm nổi bật lý luận nội bộ. Cả hai mô hình đều có sẵn thông qua API của DeepSeek (các điểm cuối tương thích với OpenAI) và các hiện vật mô hình/báo cáo kỹ thuật được công bố công khai.

DeepSeek V3.2 là gì?

DeepSeek V3.2 là phiên bản kế nhiệm sản xuất trong họ DeepSeek V3 — một họ mô hình tạo ngữ cảnh dài, lớn được thiết kế rõ ràng cho lý luận đầu tiên quy trình làm việc và sử dụng tác nhân. V3.2 hợp nhất các cải tiến thử nghiệm trước đó (V3.2-Exp) thành một dòng mô hình chính thống được trình bày thông qua ứng dụng, giao diện người dùng web và API của DeepSeek. Nó hỗ trợ cả đầu ra hội thoại nhanh và một Suy nghĩ Chế độ (chuỗi suy nghĩ) phù hợp với các nhiệm vụ suy luận nhiều bước như toán học, gỡ lỗi và lập kế hoạch.

Tại sao V3.2 lại quan trọng (bối cảnh nhanh)

DeepSeek V3.2 đáng chú ý vì ba lý do thực tế:

  • Bối cảnh dài: Cửa sổ ngữ cảnh mã thông báo lên đến 128k, phù hợp với các tài liệu dài, hợp đồng pháp lý hoặc nghiên cứu nhiều tài liệu.
  • Thiết kế lý luận trước tiên: Mô hình này tích hợp chuỗi suy nghĩ (“suy nghĩ”) vào quy trình làm việc và cách sử dụng công cụ — một sự chuyển dịch sang các ứng dụng tác nhân cần các bước suy luận trung gian.
  • Chi phí và hiệu quả: Việc giới thiệu DSA (sự chú ý thưa thớt) làm giảm khả năng tính toán cho các chuỗi dài, cho phép suy luận rẻ hơn nhiều cho các bối cảnh lớn.

DeepSeek-V3.2-Speciale là gì và nó khác với phiên bản cơ sở v3.2 như thế nào?

Điều gì làm cho phiên bản “Speciale” trở nên đặc biệt?

DeepSeek V3.2-Speciale là một tính toán cao, lý luận cao Phiên bản của họ v3.2. So với phiên bản v3.2 cân bằng, Speciale được tinh chỉnh (và đào tạo hậu kỳ) đặc biệt cho các tác vụ suy luận nhiều bước, toán học và tác nhân; nó sử dụng phương pháp học tăng cường bổ sung từ phản hồi của con người (RLHF) và chuỗi suy nghĩ nội bộ mở rộng trong quá trình đào tạo. Điểm cuối tạm thời đó và quyền truy cập API Speciale được công bố là có giới hạn thời gian (tham khảo điểm cuối hết hạn vào ngày 15 tháng 12 năm 2025 cho đường dẫn Speciale).

Hiệu suất và điểm chuẩn

DeepSeek-V3.2-Speciale là phiên bản V3.2 được tối ưu hóa về mặt tính toán và suy luận. Phiên bản Speciale tích hợp mô hình toán học trước đó là DeepSeek-Math-V2. Nó được định vị là mô hình được sử dụng khi khối lượng công việc yêu cầu chuỗi suy nghĩ sâu sắc nhất có thể, giải quyết vấn đề nhiều bước, lập luận cạnh tranh (ví dụ, phong cách thi Olympic toán học) và phối hợp tác nhân phức tạp.

Nó có thể tự chứng minh các định lý toán học và xác minh suy luận logic; Nó đã đạt được những kết quả đáng chú ý trong nhiều cuộc thi đẳng cấp thế giới:

  • Huy chương vàng IMO (Olympic Toán học quốc tế)
  • Huy chương vàng CMO (Olympic Toán học Trung Quốc)
  • Giải Nhì ICPC (Cuộc thi Lập trình máy tính quốc tế) (Cuộc thi dành cho người)
  • Giải 10 cuộc thi IOI (Olympic Tin học Quốc tế) (Cuộc thi dành cho người)

Cách sử dụng API Deepseek v3.2

Chế độ suy luận trong DeepSeek v3.2 là gì?

DeepSeek phơi bày một cách rõ ràng chế độ suy nghĩ / lý luận điều này khiến cho mô hình tạo ra một Chuỗi suy nghĩ (CoT) như một phần rời rạc của đầu ra trước câu trả lời cuối cùng. API hiển thị CoT này để các ứng dụng khách có thể kiểm tra, hiển thị hoặc chắt lọc nó.

Cơ chế — những gì API cung cấp

  • reasoning_content lĩnh vực: khi chế độ suy nghĩ được kích hoạt, cấu trúc phản hồi bao gồm reasoning_content lĩnh vực (CoT) ở cùng cấp độ với trận chung kết content. Điều này cho phép khách hàng truy cập các bước nội bộ theo chương trình.
  • Công cụ gọi trong khi suy nghĩ: V3.2 tuyên bố hỗ trợ các lệnh gọi công cụ ở trong quỹ đạo suy nghĩ: mô hình có thể xen kẽ các bước lý luận và sử dụng công cụ, giúp cải thiện hiệu suất của các tác vụ phức tạp.

API DeepSeek v3.2 triển khai lý luận như thế nào

Phiên bản 3.2 giới thiệu cơ chế API chuỗi lý luận chuẩn hóa để duy trì logic lý luận nhất quán trong các cuộc hội thoại nhiều lượt:

  • Mỗi yêu cầu lý luận chứa một reasoning_content trường trong mô hình;
  • Nếu người dùng muốn mô hình tiếp tục suy luận, trường này phải được chuyển lại cho lượt tiếp theo;
  • Khi một câu hỏi mới bắt đầu, câu hỏi cũ reasoning_content phải được dọn sạch để tránh ô nhiễm hợp lý;
  • Mô hình có thể thực hiện vòng lặp “lý luận → gọi công cụ → lý luận lại” nhiều lần ở chế độ lý luận.

Làm thế nào để tôi truy cập và sử dụng API DeepSeek v3.2

Ngắn hạn: CometAPI là một cổng thông tin theo phong cách OpenAI giúp hiển thị nhiều mô hình (bao gồm cả các họ DeepSeek) thông qua https://api.cometapi.com/v1 vì vậy bạn có thể hoán đổi các mô hình bằng cách thay đổi model chuỗi trong yêu cầu. Đăng ký tại CometAPI và nhận khóa API của bạn trước.

Tại sao nên sử dụng CometAPI thay vì DeepSeek trực tiếp?

  • CometAPI tập trung hóa việc lập hóa đơn, giới hạn giá và lựa chọn mô hình (tiện lợi nếu bạn có kế hoạch chuyển đổi nhà cung cấp mà không cần thay đổi mã).
  • Điểm cuối DeepSeek trực tiếp (ví dụ: https://api.deepseek.com/v1) vẫn tồn tại và đôi khi hiển thị các tính năng dành riêng cho nhà cung cấp; hãy chọn CometAPI để thuận tiện hoặc điểm cuối trực tiếp của nhà cung cấp cho các điều khiển gốc của nhà cung cấp. Hãy xác minh những tính năng nào (ví dụ: Speciale, điểm cuối thử nghiệm) có sẵn thông qua CometAPI trước khi sử dụng chúng.

Bước A — Tạo tài khoản CometAPI và nhận khóa API

  1. Truy cập CometAPI (đăng ký/bảng điều khiển) và tạo khóa API (bảng điều khiển thường hiển thị sk-...). Hãy giữ bí mật. Sao chổiAPI

Bước B — Xác nhận tên model chính xác có sẵn

  1. Truy vấn danh sách mô hình để xác nhận chuỗi mô hình chính xác mà CometAPI hiển thị (tên mô hình có thể bao gồm hậu tố biến thể). Sử dụng điểm cuối mô hình trước khi mã hóa cứng tên:
curl -s -H "Authorization: Bearer $COMET_KEY" \
  https://api.cometapi.com/v1/models | jq .

Tìm kiếm mục nhập DeepSeek (ví dụ: deepseek-v3.2 or deepseek-v3.2-exp) và lưu ý id chính xác. CometAPI hiển thị một /v1/models niêm yết.

Bước C — Thực hiện cuộc gọi trò chuyện cơ bản (curl)

Thay thế <COMET_KEY>deepseek-v3.2 với ID mô hình bạn đã xác nhận:

curl https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <COMET_KEY>" \
  -d '{
    "model": "deepseek-v3.2",
    "messages": [
      {"role":"system","content":"You are a helpful assistant."},
      {"role":"user","content":"Summarize DeepSeek v3.2 in two sentences."}
    ],
    "max_tokens":300
  }'

Đây là mẫu lệnh gọi theo phong cách OpenAI — CometAPI chuyển tiếp đến nhà cung cấp đã chọn.

Khả năng tương thích và các biện pháp phòng ngừa

  • Hỗ trợ bật Chế độ suy nghĩ trong môi trường Claude Code;
  • Trong dòng lệnh (CLI), chỉ cần nhập tên mô hình deepseek-reasoner;
  • Tuy nhiên, hiện tại nó có thể không tương thích với các công cụ không chuẩn như Cline và RooCode;
  • Nên sử dụng Chế độ không suy nghĩ cho các tác vụ thông thường và Chế độ suy nghĩ cho các suy luận logic phức tạp.

Các mô hình áp dụng thực tế: một số kiến ​​trúc ví dụ

1 — Công cụ hỗ trợ cho quy trình làm việc của nhà phát triển

  • Mode: Chế độ đặc biệt (chế độ suy nghĩ) được sử dụng để tạo mã phức tạp và thử nghiệm; chế độ trò chuyện nhanh cho trợ lý nội tuyến.
  • An toàn: Sử dụng kiểm tra đường ống CI và thực thi thử nghiệm trong môi trường sandbox cho mã được tạo.
  • Lưu trữ: API hoặc tự lưu trữ trên vLLM + cụm đa GPU cho bối cảnh lớn.

2 — Phân tích tài liệu cho nhóm pháp lý/tài chính

  • Mode: Phiên bản 3.2 với tính năng tối ưu hóa ngữ cảnh dài DSA để xử lý các hợp đồng dài và tạo ra các bản tóm tắt có cấu trúc và danh sách hành động.
  • An toàn: Có sự chấp thuận của luật sư đối với các quyết định tiếp theo; biên tập PII trước khi gửi đến các điểm cuối được lưu trữ.

3 — Bộ điều phối đường ống dữ liệu tự động

  • Mode: Chế độ suy nghĩ để lập kế hoạch cho các tác vụ ETL nhiều bước, gọi các công cụ để truy vấn cơ sở dữ liệu và gọi các bài kiểm tra xác thực.
  • An toàn: Thực hiện xác nhận hành động và kiểm tra có thể xác minh trước bất kỳ thao tác không thể đảo ngược nào (ví dụ: ghi dữ liệu phá hủy).

Mỗi mô hình trên đều khả thi với các mô hình họ V3.2 hiện nay, nhưng bạn phải kết hợp mô hình với công cụ xác minh và quản trị bảo thủ.

Làm thế nào để tối ưu hóa chi phí và hiệu suất với v3.2?

Sử dụng chế độ kép một cách có chủ đích

  • Chế độ nhanh cho các tương tác nhỏ: Sử dụng chế độ công cụ không cần suy nghĩ cho các lệnh truy xuất ngắn, chuyển đổi định dạng hoặc gọi API trực tiếp khi độ trễ quan trọng.
  • Chế độ suy nghĩ để lập kế hoạch và xác minh: Chuyển các tác vụ phức tạp, tác nhân đa tác vụ hoặc các quyết định nhạy cảm về an toàn sang chế độ suy nghĩ. Ghi lại các bước trung gian và chạy một lượt xác minh (tự động hoặc thủ công) trước khi thực hiện các hành động quan trọng.

Tôi nên chọn mẫu xe nào?

  • deepseek-v3.2 — mô hình sản xuất cân bằng cho các nhiệm vụ của tác nhân chung.
  • deepseek-v3.2-Speciale — biến thể suy luận chuyên biệt; ban đầu có thể chỉ dành cho API và được sử dụng khi bạn cần hiệu suất suy luận/chuẩn tốt nhất có thể (và chấp nhận chi phí có thể cao hơn).

Kiểm soát chi phí thực tế và mẹo

  • Kỹ thuật nhắc nhở: giữ cho hướng dẫn hệ thống ngắn gọn, tránh gửi ngữ cảnh dư thừa. Hướng dẫn hệ thống rõ ràng: Sử dụng lời nhắc hệ thống khai báo ý định chế độ: ví dụ: "Bạn đang ở chế độ SUY NGHĨ — hãy liệt kê kế hoạch của bạn trước khi gọi công cụ". Đối với chế độ công cụ, hãy thêm các ràng buộc như "Khi tương tác với API máy tính, chỉ xuất JSON với các trường sau".
  • Tăng cường phân đoạn + truy xuất: sử dụng trình truy xuất bên ngoài để chỉ gửi các phân đoạn có liên quan nhất cho mỗi câu hỏi của người dùng.
  • Nhiệt độ và lấy mẫu: Giảm nhiệt độ cho các tương tác công cụ để tăng tính xác định; tăng nhiệt độ trong các nhiệm vụ khám phá hoặc phát triển ý tưởng.

Tiêu chuẩn và đo lường

  • Xử lý đầu ra như không đáng tin cậy cho đến khi được xác minh: Ngay cả đầu ra suy luận cũng có thể không chính xác. Hãy thêm các kiểm tra xác định (kiểm tra đơn vị, kiểm tra kiểu) trước khi thực hiện các hành động không thể đảo ngược.
  • Chạy thử nghiệm A/B trên khối lượng công việc mẫu (độ trễ, mức sử dụng mã thông báo, tính chính xác) trước khi cam kết với một biến thể. v3.2 báo cáo mức tăng trưởng lớn về điểm chuẩn lý luận, nhưng hành vi ứng dụng thực tế phụ thuộc vào thiết kế nhanh chóng và phân phối đầu vào.

Câu Hỏi Thường Gặp

H: Cách được khuyến nghị để lấy CoT từ mô hình là gì?

A: Sử dụng deepseek-reasoner mô hình hoặc bộ thinking/thinking.type = enabled trong yêu cầu của bạn. Phản hồi bao gồm reasoning_content (CoT) và cuối cùng content.

H: Mô hình có thể gọi các công cụ bên ngoài khi đang ở chế độ suy nghĩ không?

A: Có — Phiên bản 3.2 đã giới thiệu khả năng sử dụng các công cụ ở cả chế độ suy nghĩ và không suy nghĩ; mô hình có thể phát ra các lệnh gọi công cụ có cấu trúc trong quá trình suy luận nội bộ. Sử dụng strict chế độ và xóa lược đồ JSON để tránh các cuộc gọi không đúng định dạng.

H: Sử dụng chế độ suy nghĩ có làm tăng chi phí không?

A: Có — chế độ suy nghĩ sẽ tạo ra các token CoT trung gian, làm tăng mức sử dụng token và do đó tăng chi phí. Hãy thiết kế hệ thống của bạn để chỉ cho phép suy nghĩ khi cần thiết.

H: Tôi nên sử dụng URL cơ sở và điểm cuối nào?

A: CometAPI cung cấp các điểm cuối tương thích với OpenAI. URL cơ sở mặc định là https://api.cometapi.com và điểm cuối trò chuyện chính là /v1/chat/completions (Hoặc /chat/completions tùy thuộc vào URL cơ sở bạn chọn).

H: Có cần dụng cụ đặc biệt để sử dụng chức năng gọi dụng cụ không?

A: Không — API hỗ trợ khai báo hàm có cấu trúc trong JSON. Bạn cần cung cấp tools tham số, lược đồ công cụ và xử lý vòng đời hàm JSON trong ứng dụng của bạn: nhận JSON gọi hàm, thực thi hàm, sau đó trả về kết quả cho mô hình để tiếp tục hoặc đóng. Chế độ suy nghĩ bổ sung yêu cầu truyền lại reasoning_content cùng với kết quả của công cụ.

Kết luận

DeepSeek V3.2 và DeepSeek-V3.2-Speciale đại diện cho một bước tiến rõ ràng hướng tới cởi mở, tập trung vào lý luận Các chương trình LLM giúp làm rõ chuỗi suy nghĩ và hỗ trợ quy trình làm việc của công cụ agentic. Chúng cung cấp các nguyên mẫu mới mạnh mẽ (DSA, chế độ tư duy, đào tạo sử dụng công cụ) giúp đơn giản hóa việc xây dựng các agent đáng tin cậy—với điều kiện bạn tính đến chi phí token, quản lý trạng thái cẩn thận và kiểm soát vận hành.

Các nhà phát triển có thể truy cập API Deepseek v3.2 v.v. thông qua CometAPI, phiên bản mẫu mới nhất luôn được cập nhật trên trang web chính thức. Để bắt đầu, hãy khám phá các khả năng của mô hình trong Sân chơi và tham khảo ý kiến Hướng dẫn API để biết hướng dẫn chi tiết. Trước khi truy cập, vui lòng đảm bảo bạn đã đăng nhập vào CometAPI và lấy được khóa API. Sao chổiAPI cung cấp mức giá thấp hơn nhiều so với giá chính thức để giúp bạn tích hợp.

Sẵn sàng chưa?→ Dùng thử miễn phí deepseek v3.2 !

Nếu bạn muốn biết thêm mẹo, hướng dẫn và tin tức về AI, hãy theo dõi chúng tôi trên VKX và Discord!

Đọc thêm

500+ Mô hình trong Một API

Giảm giá lên đến 20%