DeepSeek-V3.2

DeepSeek
deepseek-v3.2
Masukan:$0.22/M
Keluaran:$0.35/M
Konteks:128K
Keluaran Maksimum:4K
DeepSeek v3.2 ialah keluaran produksi terkini dalam keluarga DeepSeek V3: sebuah keluarga model bahasa open-weight berskala besar yang mengutamakan penaakulan, direka untuk pemahaman konteks panjang, penggunaan agen/alatan yang mantap, penaakulan lanjutan, pengaturcaraan dan matematik.

Apakah DeepSeek v3.2?

DeepSeek v3.2 ialah keluaran pengeluaran terkini dalam keluarga DeepSeek V3: keluarga model bahasa open-weight berskala besar berorientasikan penaakulan, direka untuk pemahaman konteks panjang, penggunaan ejen/alatan yang teguh, penaakulan lanjutan, pengaturcaraan dan matematik. Keluaran ini merangkumi pelbagai varian (V3.2 pengeluaran dan V3.2-Speciale berprestasi tinggi). Projek ini menekankan inferens konteks panjang yang kos-efisien melalui mekanisme perhatian jarang baharu yang dipanggil DeepSeek Sparse Attention (DSA) serta aliran kerja ejen / “pemikiran” (“Thinking in Tool-Use”).

Ciri utama (tahap tinggi)

  • DeepSeek Sparse Attention (DSA): mekanisme perhatian jarang yang bertujuan mengurangkan pengiraan secara dramatik dalam senario konteks panjang sambil mengekalkan penaakulan jarak jauh. (Tuntutan penyelidikan teras; digunakan dalam V3.2-Exp.)
  • Pemikiran berasaskan ejen + integrasi penggunaan alat: V3.2 menekankan pembenaman “pemikiran” ke dalam penggunaan alat: model boleh beroperasi dalam mod penaakulan/pemikiran dan mod tanpa pemikiran (normal) ketika memanggil alat, sekali gus memperbaik pembuatan keputusan dalam tugasan berbilang langkah dan orkestrasi alat.
  • Rangkaian penyintesisan data ejen berskala besar: DeepSeek melaporkan korpus latihan dan rangkaian penyintesisan ejen merangkumi ribuan persekitaran dan puluhan ribu arahan kompleks untuk meningkatkan keteguhan bagi tugasan interaktif.
  • DeepSeek Sparse Attention (DSA): DSA ialah kaedah perhatian jarang berbutir halus yang diperkenalkan dalam siri V3.2 (pertama dalam V3.2-Exp) yang mengurangkan kerumitan perhatian (daripada O(L²) naif kepada gaya O(L·k) dengan k ≪ L), memilih set token key/value yang lebih kecil bagi setiap token query. Hasilnya ialah penggunaan memori/pengiraan yang jauh lebih rendah untuk konteks yang sangat panjang (128K), menjadikan inferens konteks panjang lebih murah secara material.
  • Tulang belakang Mixture-of-Experts (MoE) dan Multi-head Latent Attention (MLA): Keluarga V3 menggunakan MoE untuk meningkatkan kapasiti secara efisien (kiraan parameter nominal besar dengan pengaktifan per token yang terhad) bersama kaedah MLA untuk mengekalkan kualiti dan mengawal pengiraan.

Spesifikasi teknikal (jadual ringkas)

  • Julat parameter nominal: ~671B – 685B (bergantung pada varian).
  • Tetingkap konteks (rujukan didokumenkan): 128,000 token (128K) dalam konfigurasi vLLM/rujukan.
  • Perhatian: DeepSeek Sparse Attention (DSA) + MLA; kerumitan perhatian dikurangkan untuk konteks panjang.
  • Ketepatan numerik & latihan: BF16 / F32 dan format kuantis terkompres (F8_E4M3 dll.) tersedia untuk pengedaran.
  • Keluarga seni bina: tulang belakang MoE (mixture-of-experts) dengan ekonomi pengaktifan per token.
  • Input / output: input teks bertoken standard (format sembang/mesej disokong); menyokong panggilan alat (primitif API penggunaan alat) dan kedua-dua panggilan gaya sembang interaktif serta penyiapan programatik melalui API.
  • Varian ditawarkan: v3.2, v3.2-Exp (eksperimental, debut DSA), v3.2-Speciale (berorientasikan penaakulan, hanya API buat sementara).

Prestasi penanda aras

V3.2-Speciale pengkomputan tinggi mencapai kesetaraan atau melepasi model kelas atasan kontemporari pada beberapa penanda aras penaakulan/matematik/pengaturcaraan, dan mencapai markah peringkat teratas pada set masalah matematik elit terpilih. Preprint menonjolkan kesetaraan dengan model seperti GPT-5 / Kimi K2 pada penanda aras penaakulan terpilih, dengan peningkatan khusus berbanding asas DeepSeek R1/V3 terdahulu:

  • AIME: bertambah daripada 70.0 kepada 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Aider: 57.0 → 71.6 (Δ +14.6).

Perbandingan dengan model lain (tahap tinggi)

  • Berbanding GPT-5 / Gemini 3 Pro (dakwaan awam): Pengarang DeepSeek dan beberapa media mendakwa kesetaraan atau keunggulan pada tugas penaakulan dan pengaturcaraan terpilih bagi varian Speciale, sambil menekankan kecekapan kos dan pelesenan terbuka sebagai pembeza.
  • Berbanding model terbuka (Olmo, Nemotron, Moonshot, dll.): DeepSeek menyerlahkan latihan berasaskan ejen dan DSA sebagai pembeza utama untuk kecekapan konteks panjang.

Kes penggunaan perwakilan

  • Sistem berasaskan ejen / orkestrasi: ejen berbilang alat (API, pengikis web, penyambung pelaksanaan kod) yang mendapat manfaat daripada “pemikiran” peringkat model + primitif panggilan alat yang eksplisit.
  • Penaakulan / analisis dokumen panjang: dokumen perundangan, korpus penyelidikan besar, transkrip mesyuarat — varian konteks panjang (128k token) membolehkan anda mengekalkan konteks yang sangat besar dalam satu panggilan.
  • Bantuan matematik & pengaturcaraan kompleks: V3.2-Speciale dipromosikan untuk penaakulan matematik lanjutan dan tugas penyahpepijatan kod yang meluas mengikut penanda aras vendor.
  • Penerapan pengeluaran sensitif kos: DSA + perubahan harga bertujuan menurunkan kos inferens untuk beban kerja berkonteks tinggi.

Cara bermula menggunakan DeepSeek v3.2 API

DeepSeek v3.2 Harga API di CometAPI, 20% lebih rendah daripada harga rasmi:

Token Input$0.22
Token Output$0.35

Langkah Diperlukan

  • Log masuk ke cometapi.com. Jika anda belum menjadi pengguna kami, sila daftar terlebih dahulu
  • Dapatkan kunci API kelayakan akses untuk antara muka. Klik “Add Token” pada token API di pusat peribadi, dapatkan kunci token: sk-xxxxx dan serahkan.
  • Dapatkan URL laman ini: https://api.cometapi.com/

Kaedah Penggunaan

  1. Pilih endpoint “deepseek-v3.2” untuk menghantar permintaan API dan tetapkan badan permintaan. Kaedah permintaan dan badan permintaan diperoleh daripada dokumen API laman kami. Laman kami juga menyediakan ujian Apifox untuk kemudahan anda.
  2. Gantikan <YOUR_API_KEY> dengan kunci CometAPI sebenar anda daripada akaun anda.
  3. Pilih format [Chat]: Masukkan soalan atau permintaan anda ke dalam medan kandungan — inilah yang akan dijawab oleh model.
  4. .Proses respons API untuk mendapatkan jawapan yang dijana.

Lebih Banyak Model