Apa itu DeepSeek v3.2?
DeepSeek v3.2 adalah rilis produksi terbaru dalam keluarga V3 DeepSeek: sebuah keluarga model bahasa open-weight berorientasi penalaran yang dirancang untuk pemahaman konteks panjang, penggunaan agen/alat yang andal, penalaran lanjutan, pengodean dan matematika. Rilis ini mencakup beberapa varian (produksi V3.2 dan V3.2-Speciale berkinerja tinggi). Proyek ini menekankan inferensi konteks panjang yang hemat biaya melalui mekanisme perhatian jarang baru bernama DeepSeek Sparse Attention (DSA) serta alur kerja agen/“berpikir” (“Thinking in Tool-Use”).
Fitur utama (tingkat tinggi)
- DeepSeek Sparse Attention (DSA): mekanisme perhatian jarang yang ditujukan untuk secara drastis mengurangi komputasi dalam skenario konteks panjang sambil mempertahankan penalaran jarak jauh. (Klaim riset inti; digunakan di
V3.2-Exp.) - Pemikiran agentik + integrasi penggunaan alat: V3.2 menekankan penyematan “pemikiran” ke dalam penggunaan alat: model dapat beroperasi dalam mode penalaran-berpikir dan mode non-berpikir (normal) saat memanggil alat, meningkatkan pengambilan keputusan pada tugas multi-langkah dan orkestrasi alat.
- Pipa sintesis data agen skala besar: DeepSeek melaporkan korpus pelatihan dan pipa sintesis agen yang mencakup ribuan lingkungan dan puluhan ribu instruksi kompleks untuk meningkatkan ketangguhan pada tugas interaktif.
- DeepSeek Sparse Attention (DSA): DSA adalah metode perhatian jarang berbutir halus yang diperkenalkan pada lini V3.2 (pertama di V3.2-Exp) yang mengurangi kompleksitas perhatian (dari O(L²) naif ke gaya O(L·k) dengan k ≪ L), dengan memilih himpunan token key/value yang lebih kecil per token query. Hasilnya adalah penggunaan memori/komputasi yang jauh lebih rendah untuk konteks yang sangat panjang (128K), menjadikan inferensi konteks panjang secara material lebih murah.
- Mixture-of-Experts (MoE) backbone dan Multi-head Latent Attention (MLA): Keluarga V3 menggunakan MoE untuk meningkatkan kapasitas secara efisien (jumlah parameter nominal besar dengan aktivasi per-token terbatas) bersama metode MLA untuk menjaga kualitas dan mengendalikan komputasi.
Spesifikasi teknis (ringkas)
- Rentang parameter nominal: ~671B – 685B (tergantung varian).
- Jendela konteks (referensi terdokumentasi): 128,000 tokens (128K) dalam konfigurasi vLLM/reference.
- Perhatian: DeepSeek Sparse Attention (DSA) + MLA; kompleksitas perhatian yang dikurangi untuk konteks panjang.
- Presisi numerik & pelatihan: BF16 / F32 dan format kuantisasi terkompresi (F8_E4M3 dll.) tersedia untuk distribusi.
- Keluarga arsitektur: tulang punggung MoE (mixture-of-experts) dengan ekonomi aktivasi per-token.
- Input / output: masukan teks yang ditokenisasi standar (format chat/pesan didukung); mendukung pemanggilan alat (primitif API tool-use) dan baik panggilan gaya chat interaktif maupun penyelesaian programatik melalui API.
- Varian yang ditawarkan:
v3.2,v3.2-Exp(eksperimental, debut DSA),v3.2-Speciale(berorientasi penalaran, hanya API untuk jangka pendek).
Kinerja benchmark
V3.2-Speciale berkomputasi-tinggi mencapai paritas atau melampaui model kelas atas kontemporer pada sejumlah tolok ukur penalaran/matematika/pengodean, dan meraih nilai tingkat atas pada himpunan soal matematika elit terpilih. Preprint menyoroti paritas dengan model seperti GPT-5 / Kimi K2 pada tolok ukur penalaran terpilih, perbaikan spesifik dibanding baseline DeepSeek R1/V3 sebelumnya:
- AIME: meningkat dari 70.0 menjadi 87.5 (Δ +17.5).
- GPQA: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- Aider: 57.0 → 71.6 (Δ +14.6).
Perbandingan dengan model lain (tingkat tinggi)
- Vs GPT-5 / Gemini 3 Pro (klaim publik): Penulis DeepSeek dan sejumlah media mengklaim paritas atau superioritas pada tugas penalaran dan pengodean terpilih untuk varian Speciale, sambil menekankan efisiensi biaya dan lisensi terbuka sebagai pembedanya.
- Vs model terbuka (Olmo, Nemotron, Moonshot, dll.): DeepSeek menyoroti pelatihan bersifat agen dan DSA sebagai pembedaan kunci untuk efisiensi konteks panjang.
Kasus penggunaan representatif
- Sistem/orkestrasi agen: agen multi-alat (API, web scraper, konektor eksekusi kode) yang mendapat manfaat dari “pemikiran” tingkat model + primitif pemanggilan alat eksplisit.
- Penalaran/analisis dokumen panjang: dokumen legal, korpus riset besar, transkrip rapat — varian konteks panjang (128k token) memungkinkan Anda mempertahankan konteks yang sangat besar dalam satu panggilan.
- Bantuan matematika & pengodean kompleks:
V3.2-Specialedipromosikan untuk penalaran matematika tingkat lanjut dan debug kode ekstensif sesuai tolok ukur vendor. - Penerapan produksi sensitif biaya: DSA + perubahan harga bertujuan menurunkan biaya inferensi untuk beban kerja berkonteks tinggi.
Cara memulai menggunakan DeepSeek v3.2 API
Harga DeepSeek v3.2 API di CometAPI, diskon 20% dari harga resmi:
| Input Tokens | $0.22 |
|---|---|
| Output Tokens | $0.35 |
Langkah yang diperlukan
- Masuk ke cometapi.com. Jika Anda belum menjadi pengguna kami, silakan daftar terlebih dahulu
- Dapatkan kredensial akses kunci API antarmuka. Klik “Add Token” pada token API di pusat pribadi, dapatkan kunci token: sk-xxxxx dan kirimkan.
- Dapatkan url situs ini: https://api.cometapi.com/
Metode penggunaan
- Pilih endpoint “
deepseek-v3.2” untuk mengirim permintaan API dan atur request body. Metode permintaan dan request body diperoleh dari dokumen API situs kami. Situs kami juga menyediakan pengujian Apifox untuk kenyamanan Anda. - Ganti <YOUR_API_KEY> dengan kunci CometAPI sebenarnya dari akun Anda.
- Pilih format Chat: Masukkan pertanyaan atau permintaan Anda ke dalam field content—itulah yang akan direspons oleh model.
- .Proses respons API untuk mendapatkan jawaban yang dihasilkan.