Spesifikasi teknis
| Item | DeepSeek-V4-Pro |
|---|---|
| Provider | DeepSeek |
| API model name | deepseek-v4-pro |
| Base URLs | https://api.deepseek.com and https://api.deepseek.com/anthropic |
| Input type | Teks |
| Output type | Teks, panggilan alat, keluaran penalaran |
| Context length | 1,000,000 tokens |
| Max output | 384,000 tokens |
| Reasoning modes | Non-thinking, thinking (default) |
| Agent/coding defaults | reasoning_effort dapat disetel tinggi; permintaan agen yang kompleks dapat menggunakan max |
| Supported features | JSON Output, Tool Calls, Chat Prefix Completion (beta), FIM Completion (beta in non-thinking mode) |
| Local/open-weights release | 1.6T total parameters, 49B activated parameters, FP4 + FP8 mixed precision |
| License (model card) | MIT |
| Reference model card | DeepSeek-V4-Pro preview on Hugging Face |
Apa itu DeepSeek-V4-Pro?
DeepSeek-V4-Pro adalah anggota yang lebih kuat dari keluarga pratinjau V4 milik DeepSeek. Model card resmi menggambarkannya sebagai model MoE berparameter 1.6T dengan 49B parameter yang diaktifkan dan jendela konteks satu juta token, ditujukan untuk pekerjaan pengetahuan jangka panjang, pembuatan kode, dan tugas agen. Dokumentasi API mengeksposnya melalui permukaan chat-completions standar DeepSeek dan mendukung gaya SDK OpenAI maupun Anthropic.
Fitur utama
- Konteks sejuta token: DeepSeek mendokumentasikan panjang konteks 1M token, yang membuat model ini cocok untuk kumpulan dokumen sangat besar, repositori, dan sesi agen multi-langkah.
- Dua mode penalaran: API mendukung mode non-thinking dan thinking; thinking adalah default, dan dokumen mencatat bahwa permintaan agen yang kompleks seperti Claude Code atau OpenCode dapat secara otomatis menggunakan upaya
max. - Mendukung panggilan alat: Mode thinking DeepSeek mendukung tool call, yang penting untuk agen yang memerlukan pencarian, operasi file, atau fungsi eksternal.
- Efisiensi konteks panjang: Model card menyatakan V4 menggunakan desain atensi hibrida dengan Compressed Sparse Attention dan Heavily Compressed Attention untuk mengurangi komputasi konteks panjang dan biaya KV cache dibanding V3.2. citeturn980363view2
- Fokus pada pengkodean dan penalaran: DeepSeek menyatakan mode penalaran V4-Pro-Max meningkatkan tolok ukur pengkodean dan menutup banyak celah dengan model tertutup terkemuka pada tugas penalaran dan agensi. citeturn980363view2
- Fleksibilitas SDK: Dapat diakses melalui chat completions yang kompatibel dengan OpenAI standar atau melalui endpoint yang kompatibel dengan Anthropic milik DeepSeek untuk alur kerja berorientasi alat.
Performa benchmark
Model card resmi DeepSeek melaporkan hasil evaluasi berikut untuk keluarga model dasar dan untuk himpunan perbandingan V4-Pro-Max. Dalam tabel model dasar, V4-Pro mencetak lebih tinggi daripada V3.2-Base pada beberapa tolok ukur pengetahuan dan konteks panjang, termasuk MMLU-Pro (73.5 vs. 65.5), FACTS Parametric (62.6 vs. 27.1), dan LongBench-V2 (51.5 vs. 40.2).
| Benchmark | V3.2-Base | V4-Flash-Base | V4-Pro-Base |
|---|---|---|---|
| MMLU-Pro (EM) | 65.5 | 68.3 | 73.5 |
| FACTS Parametric (EM) | 27.1 | 33.9 | 62.6 |
| HumanEval (Pass@1) | 62.8 | 69.5 | 76.8 |
| LongBench-V2 (EM) | 40.2 | 44.7 | 51.5 |
Model card yang sama juga menunjukkan V4-Pro-Max tetap kompetitif dengan model frontier teratas pada tugas tertentu. Misalnya, ia membukukan 87.5 pada MMLU-Pro, 57.9 pada SimpleQA-Verified, 90.1 pada GPQA Diamond, dan 67.9 pada Terminal Bench 2.0 dalam tabel perbandingan yang dipublikasikan.
DeepSeek-V4-Pro vs DeepSeek-V4-Flash vs DeepSeek-V3.2
| Model | Kesesuaian terbaik | Konteks | Catatan |
|---|---|---|---|
| DeepSeek-V4-Pro | Penalaran berat, pengkodean, agen, dokumen besar | 1M | Model V4 terbesar, 49B parameter aktif, kapasitas keseluruhan terkuat dalam seri. citeturn980363view2turn980363view0 |
| DeepSeek-V4-Flash | Lebih cepat, lebih ringan untuk penggunaan umum | 1M | Model 284B/13B yang lebih kecil, tetap mendukung thinking dan panggilan alat. citeturn980363view2turn980363view0 |
| DeepSeek-V3.2 | Baseline konteks panjang generasi sebelumnya | 128K dalam dokumen API sebelumnya; V4 menggunakan desain konteks 1M yang berbeda | Berguna sebagai titik acuan untuk peningkatan efisiensi; model card V4-Pro melaporkan pengurangan besar pada FLOPs konteks panjang dan KV cache dibanding V3.2. citeturn321011view1turn980363view2 |
Kasus penggunaan terbaik
- Asisten pengkodean skala repositori dan alat refaktorisasi
- Analisis dan sintesis dokumen panjang
- Agen yang menggunakan alat dan membutuhkan penalaran multi-giliran
- Alur kerja dukungan teknis yang diuntungkan oleh memori panjang dan keluaran terstruktur
- Tugas pengetahuan berbahasa Mandarin dan multibahasa di mana model card menunjukkan performa benchmark yang kuat
Cara mengakses dan menggunakan Deepseek v4 pro API
Langkah 1: Daftar untuk Kunci API
Masuk ke cometapi.com. Jika Anda belum menjadi pengguna kami, harap daftar terlebih dahulu. Masuk ke CometAPI console. Dapatkan kredensial akses kunci API untuk antarmuka. Klik “Add Token” pada token API di pusat pribadi, dapatkan kunci token: sk-xxxxx dan kirimkan.
Langkah 2: Kirim Permintaan ke Deepseek v4 pro API
Pilih endpoint “deepseek-v4-pro” untuk mengirim permintaan API dan atur body permintaan. Metode permintaan dan body permintaan diperoleh dari dokumen API situs kami. Situs kami juga menyediakan pengujian Apifox untuk kenyamanan Anda. Ganti <YOUR_API_KEY> dengan kunci CometAPI Anda yang sebenarnya dari akun Anda. Di mana memanggilnya: format Anthropic Messages dan format Chat.
Masukkan pertanyaan atau permintaan Anda ke kolom content—ini yang akan direspons oleh model. Proses respons API untuk mendapatkan jawaban yang dihasilkan.
Langkah 3: Ambil dan Verifikasi Hasil
Proses respons API untuk mendapatkan jawaban yang dihasilkan. Setelah diproses, API merespons dengan status tugas dan data keluaran. Aktifkan fitur seperti streaming, caching prompt, atau penanganan konteks panjang melalui parameter standar.