Trong một động thái gây xôn xao cộng đồng AI toàn cầu, DeepSeek đã lặng lẽ triển khai thử nghiệm gray-scale dành cho mẫu V4 được mong đợi trên web. Ảnh chụp màn hình giao diện bị rò rỉ hé lộ một hệ thống ba chế độ mang tính chuyển đổi—Fast, Expert và Vision—định vị DeepSeek V4 như một “cỗ máy” đa phương thức với khả năng suy luận sâu có thể sánh ngang hoặc vượt các mô hình hàng đầu như Claude Opus và các biến thể GPT-5.
Đây không chỉ là một bản cập nhật tăng dần. Với tin đồn về 1 nghìn tỷ tham số, cửa sổ ngữ cảnh 1 triệu token được hỗ trợ bởi kiến trúc bộ nhớ Engram mới và xử lý ảnh/video nguyên sinh, DeepSeek V4 hứa hẹn mang lại hiệu năng cấp doanh nghiệp với chi phí thân thiện người dùng. Dù bạn là nhà phát triển xây dựng agent, nhà nghiên cứu xử lý phân tích phức tạp, hay doanh nghiệp tìm kiếm AI đa phương thức tiên tiến, hướng dẫn này bao quát mọi điều bạn cần biết.
Tại CometAPI, chúng tôi đã theo sát quá trình tiến hóa của DeepSeek. Là một nền tảng API AI hợp nhất cung cấp DeepSeek V3.2 và các phiên bản trước đó với mức giá thấp hơn tối đa 20% so với giá chính thức cùng các endpoint tương thích OpenAI, chúng tôi rất háo hức cho việc tích hợp V4. Ở phần sau, chúng tôi sẽ cho thấy cách CometAPI có thể giúp bạn “tương lai hóa” quy trình công việc khi V4 chính thức ra mắt.
DeepSeek V4 là gì?
DeepSeek V4 đại diện cho bước tiến tiếp theo trong dòng V chủ lực của phòng thí nghiệm AI Trung Quốc. Dựa trên thành công của DeepSeek-V3 và V3.2—đã giới thiệu các chế độ suy nghĩ/không suy nghĩ (hybrid thinking/non-thinking) và năng lực tác tử mạnh—V4 mở rộng đáng kể về quy mô, trí tuệ và tính linh hoạt.
Các nhà phân tích ngành ước tính V4 là mô hình Mixture-of-Experts (MoE) vượt 1 nghìn tỷ tham số tổng, với chỉ ~37–40 tỷ tham số được kích hoạt trên mỗi token để tối ưu hiệu quả. Kiến trúc này, tinh chỉnh từ nền tảng MoE của V3, kích hoạt động các “expert” chuyên biệt, cắt giảm chi phí suy luận đồng thời tăng hiệu năng ở tác vụ mã hóa, toán học và ngữ cảnh dài.
Những khác biệt then chốt gồm:
- Hỗ trợ đa phương thức nguyên sinh (văn bản + hình ảnh + video).
- Ngữ cảnh siêu dài lên tới 1M token thông qua bộ nhớ điều kiện Engram.
- Tối ưu phần cứng nội địa—V4 được thiết kế chủ yếu chạy trên chip Huawei Ascend, phản ánh nỗ lực tự chủ công nghệ của Trung Quốc.
DeepSeek có tiền lệ mở mã nguồn các mô hình theo giấy phép Apache 2.0, khiến V4 có khả năng trở thành một trong các mô hình tiên phong dễ tiếp cận nhất. Các benchmark rò rỉ gợi ý mô hình có thể đạt 90% ở HumanEval và 80%+ trên SWE-bench Verified, đưa nó cạnh tranh trực tiếp với Claude Opus 4.5/4.6 và các biến thể GPT-5 Codex. V4 không phải là một cập nhật gia tăng đơn thuần—nó đại diện cho tái thiết ma trận sản phẩm đầy đủ với các tầng chế độ cho nhu cầu khác nhau, tương tự phân tầng Fast/Expert của Kimi nhưng bổ sung Vision.
Cập nhật mới nhất về DeepSeek V4
Tính đến tháng 4/2026, DeepSeek V4 đang trong giai đoạn thử nghiệm gray-scale giới hạn thay vì phát hành công khai đầy đủ. Nhiều lập trình viên và influencer trên Weibo đã chia sẻ ảnh chụp giao diện trò chuyện cập nhật vào ngày 7–8/4, cho thấy sự thay đổi mạnh từ bố cục hai tùy chọn trước đó (Deep Thinking R1 / Smart Search).
Giao diện mới giới thiệu bộ chuyển chế độ nổi bật với ba lựa chọn:
- Fast Mode (mặc định, dùng hằng ngày không giới hạn cho tác vụ thông thường).
- Expert Mode.
- Vision Mode.
V4 sẽ tận dụng dòng chip mới của Huawei, với phát hành đầy đủ được kỳ vọng “trong vài tuần tới” kể từ đầu tháng 4.
Fast Mode (còn gọi là Instant) là mặc định và không giới hạn cho sử dụng hằng ngày. Expert Mode nhấn mạnh tư duy sâu và cho tốc độ thông token cao hơn trong một số thử nghiệm (~64 tokens/s so với ~49 của Fast). Vision Mode cho phép tải trực tiếp ảnh/video để phân tích.
- Một số người thử nghiệm sớm báo cáo ngữ cảnh 1M và mốc kiến thức cập nhật (dữ liệu sau 2025); những người khác nhận thấy Expert vẫn giống V3.2 tối ưu với giới hạn 128K—xác nhận tính dần dần của thử nghiệm gray-scale.
Công ty vẫn im lặng về tên gọi chính thức, nhưng thay đổi giao diện, gợi ý đa phương thức và sự trùng khớp với rò rỉ trước đó (bộ ba mô hình trên chip nội địa) cho thấy đây chính là các biến thể V4 đang thử nghiệm. Nhiều nguồn dự đoán phát hành đầy đủ “trong tháng này” (tháng 4/2026).
Kiến trúc chức năng mới của DeepSeek V4 là gì? (Phiên bản Nhanh vs. Phiên bản Chuyên gia – suy đoán)
Chi tiết rò rỉ chỉ ra một kiến trúc ba tầng tinh vi tách hiệu quả thường ngày khỏi suy luận trọng yếu và xử lý đa phương thức.
Fast Mode (Quick Version): Tối ưu cho phản hồi tức thời và đối thoại hằng ngày thông lượng cao. Giới phân tích tin rằng luồng này định tuyến tới biến thể tinh gọn hoặc một lát tham số kích hoạt nhỏ hơn của mô hình MoE. Nó hỗ trợ tải tệp và các tác vụ cơ bản với độ trễ tối thiểu—phù hợp cho truy vấn nhanh hoặc tạo mẫu. Sử dụng không giới hạn khiến nó lý tưởng cho người dùng phổ thông.
Expert Mode (Deep Reasoning Version): Được đồn đoán rộng rãi là “lõi” DeepSeek V4 thực sự. Nó nhấn mạnh suy luận nhiều bước, tăng cường miền chuyên biệt, trực quan hóa quá trình suy nghĩ và củng cố truy vết trích dẫn. Người trong cuộc liên hệ nó với “kiến trúc bộ nhớ mới” (Engram – bộ nhớ điều kiện) được mô tả trong các bài báo do lãnh đạo DeepSeek ký. Engram tách tri thức tĩnh (tra cứu băm O(1)) khỏi suy luận động, cho phép ngữ cảnh 1M token ổn định mà không làm bùng nổ chi phí tính toán. Người thử nghiệm sớm báo cáo sự ổn định logic vượt trội và tự hiệu chỉnh ở bài toán phức tạp.
Vision Mode: Đầu tàu đa phương thức, có khả năng hiểu và sinh ảnh/video nguyên sinh. Khác với các VLM ghép thêm vào mô hình văn bản truyền thống, có suy đoán về một “mô hình thế giới hợp nhất sâu”—có thể tích hợp trực tiếp token thị giác vào định tuyến MoE để suy luận xuyên mô thức liền mạch.
Tách bạch Quick vs. Expert cho phép DeepSeek phục vụ cả người dùng đại chúng (Fast) lẫn người dùng chuyên sâu (Expert/Vision) mà không ảnh hưởng trải nghiệm của bên nào. Thương mại hóa đầy đủ có thể áp hạn ngạch với Expert/Vision trong khi giữ Fast miễn phí/không giới hạn.
Chế độ Thị giác và Chuyên gia của DeepSeek V4 trong thử nghiệm gray-scale
Việc lộ diện trong thử nghiệm gray-scale là chất xúc tác lớn nhất cho sự phấn khích. Tôi thử:
- Expert Mode kích hoạt “suy nghĩ” nội bộ dài hơn (một số giao diện hiển thị chuỗi suy nghĩ) và tạo đầu ra chính xác hơn, có trích dẫn.
- Vision Mode tự động kích hoạt khi đính kèm hình ảnh, chuyển hướng prompt để phân tích hoặc tạo sinh.
Những tính năng này phù hợp với nghiên cứu đã công bố của DeepSeek về manifold-constrained hyper-connections (mHC) và DeepSeek Sparse Attention (DSA)—các đổi mới giúp ổn định huấn luyện ở quy mô nghìn tỷ tham số và cải thiện nhiệm vụ tác tử tầm nhìn dài.
Expert Mode có thể đã chạy một checkpoint V4 sớm, giải thích bước nhảy nhận thức cảm nhận được. Sự tách biệt của Vision Mode cho thấy nó không phải phần bổ sung đơn giản mà là trụ cột kiến trúc cốt lõi.
Cách truy cập và sử dụng DeepSeek V4 trên web: Hướng dẫn từng bước
Truy cập phiên bản gray-scale khá đơn giản nhưng hiện còn hạn chế:
- Truy cập nền tảng chính thức: Vào chat.deepseek.com hoặc platform.deepseek.com và đăng nhập bằng tài khoản DeepSeek (có miễn phí đăng ký).
- Tìm bộ chọn chế độ: Nếu bạn thuộc nhóm gray-scale, bạn sẽ thấy các nút Fast/Expert/Vision mới. Không phải ai cũng có—phát hành theo giai đoạn.
- Chọn chế độ của bạn:
- Bắt đầu với Fast Mode cho trò chuyện hằng ngày.
- Chuyển sang Expert Mode cho suy luận phức tạp, lập trình hoặc nghiên cứu.
- Tải ảnh/video để kích hoạt Vision Mode.
- Nhắc lệnh hiệu quả: Với Expert, dùng hướng dẫn chi tiết như “Hãy suy nghĩ từng bước và kiểm tra lại logic.” Với Vision, mô tả hình ảnh chính xác (ví dụ: “Phân tích biểu đồ này để tìm xu hướng và tạo bảng tóm tắt”).
- Theo dõi hạn mức: Fast không giới hạn; Expert và Vision có thể có hạn ngạch theo ngày trong giai đoạn thử nghiệm.
Mẹo: Bật tìm kiếm web hoặc tải tệp khi có để có ngữ cảnh phong phú hơn.
Nếu chưa có quyền truy cập gray-scale, bạn vẫn có thể dùng DeepSeek-V3.2 (mô hình sản xuất hiện tại) trên cùng trang. V4 sẽ sớm phát hành đầy đủ—hãy theo dõi CometAPI.
Cách tích hợp DeepSeek V4 vào quy trình qua API
Truy cập web tuyệt vời cho khám phá, nhưng sử dụng sản xuất đòi hỏi API tin cậy. API chính thức của DeepSeek hiện phục vụ V3.2 (ngữ cảnh 128K), nhưng endpoint V4 được kỳ vọng sớm xuất hiện.
Enter CometAPI: Là trình tổng hợp API AI một cửa, CometAPI đã cung cấp các mô hình DeepSeek V3, V3.1, V3.2 và R1 với endpoint tương thích OpenAI, giá thấp hơn 20%, tín dụng khởi động miễn phí, phân tích sử dụng và chuyển đổi dự phòng tự động giữa các nhà cung cấp. Không cần đổi code khi V4 ra mắt—chúng tôi sẽ thêm liền mạch.
Quick setup trên CometAPI:
- Đăng ký tại cometapi.com.
- Tạo khóa API (sk-xxx).
- Dùng base URL
https://api.cometapi.comvà tên mô hình nhưdeepseek-v4-expert(khi khả dụng). - Ví dụ gọi Python:
from openai import OpenAI
client = OpenAI(api_key="your_cometapi_key", base_url="https://api.cometapi.com")
response = client.chat.completions.create(
model="deepseek-v4-expert", # hoặc biến thể vision
messages=[{"role": "user", "content": "Nhập lời nhắc của bạn tại đây"}]
)
Playground của CometAPI cho phép bạn thử các chế độ V4 cạnh Claude hoặc GPT mà không cần đổi bảng điều khiển. Với doanh nghiệp, điều này đồng nghĩa chi phí thấp hơn, thanh toán dự đoán được và không khóa nhà cung cấp—lý tưởng để mở rộng tác tử hoặc ứng dụng đa phương thức.
Năng lực chính và benchmark của DeepSeek V4
Dữ liệu rò rỉ vẽ nên bức tranh ấn tượng:
- Lập trình: ~90% HumanEval, 80%+ SWE-bench Verified (dự kiến sánh hoặc nhỉnh hơn Claude Opus 4.6).
- Suy luận: Nâng cao MATH-500 (~96%) và Needle-in-Haystack ngữ cảnh dài (97% ở 1M token).
- Đa phương thức: Hiểu ảnh/video nguyên sinh cùng sinh SVG/mã vượt trội so với V3.
- Hiệu quả: MoE giữ chi phí thấp; bộ nhớ Engram giảm nhu cầu VRAM ~45% so với mô hình đặc.
Các thử nghiệm thực tế ở Expert Mode cho thấy khả năng tự hiệu chỉnh mạnh hơn và lập trình ở mức kho mã so với V3.2.
DeepSeek V4 so với các mô hình AI hàng đầu khác như thế nào?
| Tính năng | DeepSeek V4 (dự kiến) | Claude Opus 4.6 | GPT-5.4 Codex |
|---|---|---|---|
| Tham số (tổng/kích hoạt) | ~1T / ~37B | Không công bố | Không công bố |
| Cửa sổ ngữ cảnh | 1M token | 200K–256K | ~200K |
| Đa phương thức (gốc) | Có (Vision Mode) | Có | Có |
| Lập trình (SWE-bench) | 80%+ | 80.9% | ~80% |
| Giá (ước tính theo đầu ra) | Rất thấp (hướng mở) | Cao | Cao |
| Trọng số mở | Có khả năng | Không | Không |
Lợi thế của V4 nằm ở hiệu năng-chi phí và khả năng tiếp cận mở, đưa AI tiên phong đến với các nhóm nhỏ hơn.
Các trường hợp sử dụng thực tiễn cho DeepSeek V4 là gì?
- Phát triển phần mềm: Expert Mode cho tái cấu trúc đa tệp, phát hiện lỗi và phân tích toàn bộ kho mã.
- Phân tích đa phương thức: Tải biểu đồ, sơ đồ hoặc video để có insight tức thì (Vision Mode).
- Quy trình tác tử: Bộ nhớ ngữ cảnh dài cung cấp năng lực cho tác tử nghiên cứu tự động.
- Nội dung & thiết kế: Sinh SVG/mã chính xác từ mô tả; phân tích dữ liệu thị giác.
- Giáo dục/Nghiên cứu: Giải thích từng bước với trích dẫn có thể kiểm chứng.
Vì sao chọn CometAPI cho DeepSeek V4 và xa hơn?
Với nhà phát triển và doanh nghiệp, chat web chỉ là điểm khởi đầu—mở rộng sản xuất đòi hỏi hạ tầng vững chắc. CometAPI mang đến đúng điều đó: truy cập DeepSeek giảm giá ngay hôm nay (V3.2 ở $0.22–$0.35/M token) và lộ trình rõ ràng lên V4. Các tính năng như bộ nhớ đệm prompt, phân tích và định tuyến đa mô hình giảm chi phí 20–30% đồng thời loại bỏ rủi ro ngừng dịch vụ. Dù bạn xây tác tử AI tiếp theo hay nhúng năng lực thị giác, CometAPI đảm bảo bạn sẵn sàng ngay khi API V4 xuất hiện.
Kết luận
Bằng cách cung cấp trí tuệ đa phương thức cấp tiên phong miễn phí với các chế độ phân tầng, DeepSeek đang dân chủ hóa AI tiên tiến đồng thời tối ưu cho năng lực tính toán nội địa. Điều này gây áp lực lên các phòng thí nghiệm phương Tây cả về hiệu năng lẫn giá, thúc đẩy toàn ngành hướng tới những mô hình hiệu quả và dễ tiếp cận hơn.
DeepSeek V4 không chỉ là một bản nâng cấp—đó là bản thiết kế cho siêu trí tuệ hiệu quả và dễ tiếp cận. Hãy bắt đầu thử nghiệm trên web ngay hôm nay và chuẩn bị ngăn xếp của bạn với CometAPI để mở rộng liền mạch vào ngày mai.
.webp&w=3840&q=75)