DeepSeek V3.2 dalam siri V3 DeepSeek: keluarga model bahasa besar "inferens-dahulukan" yang dioptimumkan untuk penggunaan alat agenik, penaakulan konteks panjang dan penggunaan yang cekap kos.
Apakah DeepSeek v3.2?
DeepSeek v3.2 ialah keluaran pengeluaran terbaharu dalam DeepSeek V3 keluarga: keluarga model bahasa berwajaran terbuka yang besar dan beralasan pertama yang direka untuk pemahaman konteks panjang, penggunaan ejen/alat yang mantap, penaakulan lanjutan, pengekodan dan matematik. Keluaran ini menggabungkan pelbagai varian (pengeluaran V3.2 dan V3.2-Speciale berprestasi tinggi). Projek ini menekankan inferens konteks panjang yang cekap kos melalui mekanisme perhatian baru yang jarang dipanggil DeepSeek Perhatian Jarang (DSA) dan aliran kerja ejen / "berfikir" ("Berfikir dalam Penggunaan Alat").
Ciri utama (tahap tinggi)
- Perhatian Jarang DeepSeek (DSA): mekanisme perhatian yang jarang bertujuan untuk mengurangkan pengiraan secara mendadak dalam senario konteks panjang sambil mengekalkan penaakulan jarak jauh. (Tuntutan penyelidikan teras; digunakan dalam
V3.2-Exp.) - Pemikiran agen + integrasi penggunaan alat: V3.2 menekankan membenamkan "berfikir" ke dalam penggunaan alat: model boleh beroperasi dalam mod pemikiran penaakulan dan dalam mod tidak berfikir (biasa) apabila memanggil alatan, menambah baik membuat keputusan dalam tugas berbilang langkah dan orkestrasi alat.
- Saluran paip sintesis data ejen berskala besar: DeepSeek melaporkan korpus latihan dan saluran paip sintesis ejen yang merangkumi beribu-ribu persekitaran dan berpuluh-puluh ribu arahan yang kompleks untuk meningkatkan keteguhan bagi tugasan interaktif.
- DeepSeek Perhatian Jarang (DSA): DSA ialah kaedah perhatian jarang berbutir halus yang diperkenalkan dalam baris V3.2 (pertama dalam V3.2-Exp) yang mengurangkan kerumitan perhatian (dari O(L²) naif kepada gaya O(L·k) dengan k ≪ L), memilih set token kunci/nilai yang lebih kecil bagi setiap token pertanyaan. Hasilnya ialah ingatan/pengiraan yang jauh lebih rendah untuk konteks yang sangat panjang (128K), menjadikan inferens konteks panjang lebih murah secara material.
- Tulang belakang Campuran Pakar (KPM) dan Perhatian Terpendam Berbilang Kepala (MLA): Keluarga V3 menggunakan MoE untuk meningkatkan kapasiti dengan cekap (kiraan parameter nominal yang besar dengan pengaktifan per-token terhad) bersama-sama dengan kaedah MLA untuk mengekalkan kualiti dan kawalan pengiraan.
Spesifikasi teknikal (jadual ringkas)
- Julat parameter nominal: ~671B – 685B (bergantung kepada varian).
- Tetingkap konteks (rujukan yang didokumenkan): Token 128,000 (128K) dalam konfigurasi vLLM/rujukan.
- Perhatian: DeepSeek Perhatian Jarang (DSA) + MLA; mengurangkan kerumitan perhatian untuk konteks yang panjang.
- Numerik & ketepatan latihan: BF16 / F32 dan format terkuantisasi termampat (F8_E4M3 dll.) tersedia untuk pengedaran.
- Keluarga seni bina: MoE (campuran pakar) tulang belakang dengan ekonomi pengaktifan setiap token.
- Input / output: input teks token standard (format sembang/mesej disokong); menyokong panggilan alat (primitif API penggunaan alat) dan kedua-dua panggilan gaya sembang interaktif dan penyelesaian program melalui API.
- Varian yang ditawarkan:
v3.2,v3.2-Exp(percubaan, debut DSA),v3.2-Speciale(menaakul-dahulukan, jangka pendek API sahaja).
Prestasi penanda aras
Pengiraan tinggi V3.2-Speciale mencapai pariti atau melebihi model canggih kontemporari pada beberapa penanda aras penaakulan/matematik/pengekodan, dan mencapai markah peringkat teratas pada set masalah matematik elit terpilih. Pracetak menyerlahkan pariti dengan model seperti GPT-5 / Kimi K2 pada penanda aras penaakulan terpilih, penambahbaikan khusus berbanding garis dasar DeepSeek R1/V3 sebelumnya:
- AIME: bertambah baik daripada 70.0 kepada 87.5 (Δ +17.5).
- GPQA: 71.5 → 81.0 (Δ +9.5).
- LCB_v6: 63.5 → 73.3 (Δ +9.8).
- Pembantu: 57.0 → 71.6 (Δ +14.6).
Perbandingan dengan model lain (tahap tinggi)
- Vs GPT-5 / Gemini 3 Pro (tuntutan awam): Pengarang DeepSeek dan beberapa saluran akhbar menuntut persamaan atau keunggulan pada tugas penaakulan dan pengekodan terpilih untuk varian Speciale, sambil menekankan kecekapan kos dan pelesenan terbuka sebagai pembeza.
- Vs model terbuka (Olmo, Nemotron, Moonshot, dll.): DeepSeek menyerlahkan latihan agen dan DSA sebagai pembeza utama untuk kecekapan konteks panjang.
Kes penggunaan wakil
- Sistem agen / orkestrasi: ejen berbilang alatan (API, pengikis web, penyambung pelaksanaan kod) yang mendapat manfaat daripada "pemikiran" peringkat model + primitif panggilan alat yang eksplisit.
- Penaakulan / analisis dokumen panjang: dokumen undang-undang, korpora penyelidikan besar, transkrip mesyuarat — varian konteks panjang (128k token) membolehkan anda menyimpan konteks yang sangat besar dalam satu panggilan.
- Bantuan matematik & pengekodan kompleks:
V3.2-Specialedipromosikan untuk penaakulan matematik lanjutan dan tugas penyahpepijatan kod yang meluas bagi setiap penanda aras vendor. - Alur pengeluaran sensitif kos: Perubahan harga DSA + bertujuan untuk mengurangkan kos inferens untuk beban kerja konteks tinggi.
Bagaimana untuk mula menggunakanDeepSeek v3.2 API
DeepSeek v3.2 Harga API dalam CometAPI,diskaun 20% daripada harga rasmi:
| Token Input | $0.22 |
| Token Keluaran | $0.35 |
Langkah yang Diperlukan
- Log masuk ke cometapi.com. Jika anda belum menjadi pengguna kami, sila daftar dahulu
- Dapatkan kunci API kelayakan akses antara muka. Klik "Tambah Token" pada token API di pusat peribadi, dapatkan kunci token: sk-xxxxx dan serahkan.
- Dapatkan url tapak ini: https://api.cometapi.com/
Gunakan Kaedah
- Pilih "
deepseek-v3.2” titik akhir untuk menghantar permintaan API dan menetapkan badan permintaan. Kaedah permintaan dan badan permintaan diperoleh daripada dokumen API tapak web kami. Laman web kami juga menyediakan ujian Apifox untuk kemudahan anda. - Gantikan dengan kunci CometAPI sebenar anda daripada akaun anda.
- pilih Dinding format: Masukkan soalan atau permintaan anda ke dalam medan kandungan—inilah yang akan dijawab oleh model.
- .Proses respons API untuk mendapatkan jawapan yang dijana.
