DeepSeek V3.2 trong dòng DeepSeek V3: một họ mô hình ngôn ngữ lớn “suy luận trước” được tối ưu hóa cho việc sử dụng công cụ tác nhân, suy luận ngữ cảnh dài và triển khai tiết kiệm chi phí.
DeepSeek v3.2 là gì?
DeepSeek v3.2 là bản phát hành sản xuất mới nhất trong DeepSeek V3 gia đình: một gia đình mô hình ngôn ngữ trọng lượng mở, lý luận đầu tiên được thiết kế cho hiểu biết ngữ cảnh dài, sử dụng tác nhân/công cụ mạnh mẽ, lập luận nâng cao, mã hóa và toán họcBản phát hành này bao gồm nhiều phiên bản (phiên bản sản xuất V3.2 và phiên bản hiệu suất cao V3.2-Speciale). Dự án nhấn mạnh khả năng suy luận ngữ cảnh dài hiệu quả về mặt chi phí thông qua một cơ chế chú ý thưa thớt mới được gọi là DeepSeek Sparse Attention (DSA) và các tác nhân / quy trình làm việc “suy nghĩ” (“Suy nghĩ trong việc sử dụng công cụ”).
Các tính năng chính (cấp cao)
- DeepSeek Sparse Attention (DSA): một cơ chế chú ý thưa thớt nhằm mục đích giảm đáng kể việc tính toán trong các tình huống ngữ cảnh dài trong khi vẫn duy trì khả năng lập luận tầm xa. (Tuyên bố nghiên cứu cốt lõi; được sử dụng trong
V3.2-Exp.) - Tư duy tác nhân + tích hợp sử dụng công cụ: V3.2 nhấn mạnh việc nhúng "suy nghĩ" vào việc sử dụng công cụ: mô hình có thể hoạt động ở chế độ suy nghĩ-lý luận và chế độ không suy nghĩ (bình thường) khi gọi công cụ, cải thiện khả năng ra quyết định trong các tác vụ nhiều bước và phối hợp công cụ.
- Quy trình tổng hợp dữ liệu tác nhân quy mô lớn: DeepSeek báo cáo một kho dữ liệu đào tạo và quy trình tổng hợp tác nhân trải dài trên hàng nghìn môi trường và hàng chục nghìn hướng dẫn phức tạp để cải thiện tính mạnh mẽ cho các tác vụ tương tác.
- DeepSeek Sparse Attention (DSA): DSA là một phương pháp chú ý thưa thớt chi tiết được giới thiệu trong dòng V3.2 (lần đầu tiên trong V3.2-Exp) giúp giảm độ phức tạp của chú ý (từ kiểu O(L²) ngây thơ xuống kiểu O(L·k) với k ≪ L), chọn một tập hợp nhỏ hơn các mã thông báo khóa/giá trị cho mỗi mã thông báo truy vấn. Kết quả là bộ nhớ/tài nguyên tính toán thấp hơn đáng kể cho các ngữ cảnh rất dài (128K), giúp suy luận ngữ cảnh dài tiết kiệm đáng kể chi phí.
- Xương sống hỗn hợp chuyên gia (MoE) và sự chú ý tiềm ẩn đa đầu (MLA):Gia đình V3 sử dụng MoE để tăng dung lượng hiệu quả (số lượng tham số danh nghĩa lớn với kích hoạt giới hạn trên mỗi mã thông báo) cùng với các phương pháp MLA để duy trì chất lượng và kiểm soát tính toán.
Thông số kỹ thuật (bảng tóm tắt)
- Phạm vi tham số danh nghĩa: ~671B - 685B (phụ thuộc vào biến thể).
- Cửa sổ ngữ cảnh (tham khảo tài liệu): 128,000 mã thông báo (128K) trong cấu hình vLLM/tham chiếu.
- Chú ý: DeepSeek Sparse Attention (DSA) + MLA; giảm độ phức tạp của sự chú ý cho các bối cảnh dài.
- Độ chính xác về số và đào tạo: BF16 / F32 và các định dạng lượng tử nén (F8_E4M3, v.v.) có sẵn để phân phối.
- Gia đình kiến trúc: Xương sống của MoE (hỗn hợp các chuyên gia) với nền kinh tế kích hoạt theo từng mã thông báo.
- Đầu ra đầu vào: nhập văn bản được mã hóa chuẩn (hỗ trợ định dạng trò chuyện/tin nhắn); hỗ trợ lệnh gọi công cụ (nguyên hàm API sử dụng công cụ) và cả lệnh gọi theo kiểu trò chuyện tương tác và hoàn thành theo chương trình thông qua API.
- Các biến thể được cung cấp:
v3.2,v3.2-Exp(thử nghiệm, ra mắt DSA),v3.2-Speciale(lý luận trước, chỉ API trong ngắn hạn).
Hiệu suất điểm chuẩn
Tính toán cao V3.2-Speciale đạt được sự ngang bằng hoặc vượt trội so với các mô hình cao cấp hiện đại trên một số chuẩn mực lý luận/toán học/lập trình, và đạt điểm cao nhất trong một số bộ bài toán ưu tú. Bản in trước nhấn mạnh sự ngang bằng với các mô hình như GPT-5 / Kimi K2 trên một số chuẩn mực lý luận, những cải tiến cụ thể so với các đường cơ sở DeepSeek R1/V3 trước đó:
- AIME: cải thiện từ 70.0 lên 87.5 (Δ +17.5).
- Chất lượng cuộc sống: 71.5 & rarr; 81.0 (Δ +9.5).
- LCB_v6: 63.5 & rarr; 73.3 (Δ +9.8).
- Người hỗ trợ: 57.0 & rarr; 71.6 (Δ +14.6).
So sánh với các mô hình khác (mức độ cao)
- Vs GPT-5 / Gemini 3 Pro (tuyên bố công khai): Các tác giả của DeepSeek và một số cơ quan báo chí tuyên bố tính ngang bằng hoặc vượt trội về các nhiệm vụ lập luận và mã hóa được chọn cho biến thể Speciale, đồng thời nhấn mạnh hiệu quả về chi phí và cấp phép mở như những yếu tố khác biệt.
- So với các mô hình mở (Olmo, Nemotron, Moonshot, v.v.): DeepSeek nhấn mạnh đào tạo tác nhân và DSA là những yếu tố khác biệt chính để đạt hiệu quả trong bối cảnh dài.
Các trường hợp sử dụng tiêu biểu
- Hệ thống tác nhân / phối hợp: các tác nhân đa công cụ (API, trình thu thập dữ liệu web, trình kết nối thực thi mã) được hưởng lợi từ "suy nghĩ" cấp độ mô hình + các nguyên hàm gọi công cụ rõ ràng.
- Lý luận/phân tích tài liệu dài: tài liệu pháp lý, tập hợp nghiên cứu lớn, biên bản cuộc họp — các biến thể ngữ cảnh dài (128 nghìn mã thông báo) cho phép bạn giữ các ngữ cảnh rất lớn trong một cuộc gọi duy nhất.
- Hỗ trợ toán học phức tạp và mã hóa:
V3.2-Specialeđược quảng bá cho khả năng suy luận toán học nâng cao và các nhiệm vụ gỡ lỗi mã mở rộng theo tiêu chuẩn của nhà cung cấp. - Triển khai sản xuất tiết kiệm chi phí: Những thay đổi về giá của DSA + nhằm mục đích giảm chi phí suy luận cho khối lượng công việc có ngữ cảnh cao.
Làm thế nào để bắt đầu sử dụngDeepSeek v3.2 API
DeepSeek v3.2 Giá API trong CometAPI,giảm giá 20% so với giá chính thức:
| Mã thông báo đầu vào | $0.22 |
| Mã thông báo đầu ra | $0.35 |
Các bước cần thiết
- Đăng nhập vào " cometapi.com. Nếu bạn chưa phải là người dùng của chúng tôi, vui lòng đăng ký trước
- Nhận khóa API thông tin xác thực truy cập của giao diện. Nhấp vào “Thêm mã thông báo” tại mã thông báo API trong trung tâm cá nhân, nhận khóa mã thông báo: sk-xxxxx và gửi.
- Lấy url của trang web này: https://api.cometapi.com/
Phương pháp sử dụng
- Chọn hàng
deepseek-v3.2” điểm cuối để gửi yêu cầu API và thiết lập nội dung yêu cầu. Phương thức yêu cầu và nội dung yêu cầu được lấy từ tài liệu API của trang web của chúng tôi. Trang web của chúng tôi cũng cung cấp thử nghiệm Apifox để thuận tiện cho bạn. - Thay thế bằng khóa CometAPI thực tế từ tài khoản của bạn.
- Chọn Trò chuyện định dạng: Chèn câu hỏi hoặc yêu cầu của bạn vào trường nội dung—đây là nội dung mà mô hình sẽ phản hồi.
- .Xử lý phản hồi API để có được câu trả lời đã tạo.
