Apakah DeepSeek v3.2?
DeepSeek v3.2 ialah keluaran produksi terkini dalam keluarga DeepSeek V3: satu keluarga model bahasa open-weight berskala besar berorientasikan penaakulan, direka untuk pemahaman konteks panjang, penggunaan agen/alat yang mantap, penaakulan lanjutan, pengekodan dan matematik. Keluaran ini menghimpunkan beberapa varian (V3.2 produksi dan V3.2-Speciale berprestasi tinggi). Projek ini menekankan inferens konteks panjang yang kos-efisien melalui mekanisme perhatian jarang baharu yang dipanggil DeepSeek Sparse Attention (DSA) serta aliran kerja agen/“pemikiran” (“Thinking in Tool-Use”).
Ciri utama (tahap tinggi)
- DeepSeek Sparse Attention (DSA): mekanisme perhatian jarang yang bertujuan mengurangkan pengiraan secara dramatik dalam senario konteks panjang sambil mengekalkan penaakulan jarak jauh. (Tuntutan penyelidikan teras; digunakan dalam
V3.2-Exp.) - Pemikiran berorientasi agen + integrasi penggunaan alat: V3.2 menekankan penggabungan “pemikiran” ke dalam penggunaan alat: model boleh beroperasi dalam mod penaakulan-pemikiran dan mod bukan pemikiran (normal) semasa memanggil alat, meningkatkan pembuatan keputusan dalam tugasan berbilang langkah dan orkestrasi alat.
- Rangkaian sintesis data agen berskala besar: DeepSeek melaporkan korpus latihan dan rantaian sintesis agen yang merangkumi ribuan persekitaran dan puluhan ribu arahan kompleks untuk meningkatkan keteguhan bagi tugasan interaktif.
- DeepSeek Sparse Attention (DSA): DSA ialah kaedah perhatian jarang berbutir halus yang diperkenalkan dalam siri V3.2 (pertama dalam V3.2-Exp) yang mengurangkan kerumitan perhatian (daripada O(L²) naif kepada gaya O(L·k) dengan k ≪ L), memilih set token key/value yang lebih kecil bagi setiap token query. Hasilnya ialah penggunaan memori/pengiraan yang jauh lebih rendah untuk konteks yang sangat panjang (128K), menjadikan inferens konteks panjang lebih murah secara material.
- Tulang belakang Mixture-of-Experts (MoE) dan Multi-head Latent Attention (MLA): Keluarga V3 menggunakan MoE untuk meningkatkan kapasiti secara cekap (kiraan parameter nominal besar dengan pengaktifan per token terhad) bersama kaedah MLA bagi mengekalkan kualiti dan mengawal pengiraan.
Spesifikasi teknikal (ringkas)
- Julat parameter nominal: ~671B – 685B (bergantung kepada varian).
- Tetingkap konteks (rujukan yang didokumenkan): 128,000 token (128K) dalam konfigurasi vLLM/rujukan.
- Perhatian: DeepSeek Sparse Attention (DSA) + MLA; kerumitan perhatian dikurangkan untuk konteks panjang.
- Ketepatan berangka & latihan: BF16 / F32 dan format kuantis terkompres (F8_E4M3 dll.) tersedia untuk edaran.
- Keluarga seni bina: tulang belakang MoE (mixture-of-experts) dengan kecekapan pengaktifan per token.
- Input / output: input teks ditokenkan piawai (format sembang/mesej disokong); menyokong panggilan alat (primitif API penggunaan alat) serta panggilan gaya sembang interaktif dan pelengkapan berprogram melalui API.
- Varian yang ditawarkan:
v3.2,v3.2-Exp(eksperimen, debut DSA),v3.2-Speciale(berorientasikan penaakulan, hanya API untuk sementara waktu).
Prestasi penanda aras
V3.2-Speciale berkomputasi tinggi mencapai pariti atau mengatasi model kelas atasan semasa pada beberapa penanda aras penaakulan/matematik/pengekodan, dan memperoleh markah peringkat tertinggi pada set soalan matematik elit terpilih. Pracetak menonjolkan pariti dengan model seperti GPT-5 / Kimi K2 pada penanda aras penaakulan terpilih, peningkatan khusus berbanding asas DeepSeek R1/V3 terdahulu:
- AIME: meningkat daripada 70.0 kepada 87.5 (Δ +17.5).
- GPQA: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- Aider: 57.0 → 71.6 (Δ +14.6).
Perbandingan dengan model lain (tahap tinggi)
- Berbanding GPT-5 / Gemini 3 Pro (tuntutan umum): Pengarang DeepSeek dan beberapa saluran media mendakwa pariti atau keunggulan pada tugasan penaakulan dan pengekodan terpilih bagi varian Speciale, sambil menekankan kecekapan kos dan pelesenan terbuka sebagai pembeza.
- Berbanding model terbuka (Olmo, Nemotron, Moonshot, dll.): DeepSeek menonjolkan latihan berorientasi agen dan DSA sebagai pembeza utama untuk kecekapan konteks panjang.
Contoh kes penggunaan
- Sistem agen / orkestrasi: agen berbilang alat (API, pengikis web, penyambung pelaksanaan kod) yang mendapat manfaat daripada “pemikiran” pada aras model + primitif panggilan alat yang eksplisit.
- Penaakulan / analisis dokumen panjang: dokumen undang-undang, korpus penyelidikan besar, transkrip mesyuarat — varian konteks panjang (128k tokens) membolehkan anda mengekalkan konteks yang sangat besar dalam satu panggilan.
- Bantuan matematik kompleks & pengekodan:
V3.2-Specialedipromosikan untuk penaakulan matematik lanjutan dan tugasan penyahpepijatan kod yang meluas menurut penanda aras vendor. - Penggunaan produksi yang peka kos: DSA + perubahan harga bertujuan menurunkan kos inferens untuk beban kerja berkonteks tinggi.
Cara bermula menggunakan DeepSeek v3.2 API
DeepSeek v3.2 Harga API di CometAPI, diskaun 20% daripada harga rasmi:
| Token input | $0.22 |
|---|---|
| Token output | $0.35 |
Langkah Diperlukan
- Log masuk ke cometapi.com. Jika anda belum menjadi pengguna kami, sila daftar terlebih dahulu
- Dapatkan kelayakan akses kunci API antara muka. Klik “Add Token” pada token API di pusat peribadi, dapatkan kunci token: sk-xxxxx dan serahkan.
- Dapatkan url laman ini: https://api.cometapi.com/
Cara Penggunaan
- Pilih titik akhir “
deepseek-v3.2” untuk menghantar permintaan API dan tetapkan badan permintaan. Kaedah permintaan dan badan permintaan diperoleh daripada dok API laman web kami. Laman web kami juga menyediakan ujian Apifox untuk kemudahan anda. - Gantikan <YOUR_API_KEY> dengan kunci CometAPI sebenar anda daripada akaun anda.
- Pilih format [Chat]: Masukkan soalan atau permintaan anda ke dalam medan content — inilah yang akan dijawab oleh model.
- .Proses tindak balas API untuk mendapatkan jawapan yang dihasilkan.