API Deepseek v3.2

CometAPI
AnnaDec 3, 2025
API Deepseek v3.2

DeepSeek V3.2 dalam seri V3 DeepSeek: keluarga model bahasa besar “inferensi-pertama” yang dioptimalkan untuk penggunaan alat agen, penalaran konteks panjang, dan penerapan yang hemat biaya.

Apa itu DeepSeek v3.2?

Pencarian Mendalam v3.2 adalah rilis produksi terbaru di DeepSeek V3 keluarga: keluarga model bahasa berbobot terbuka yang besar, yang mengutamakan penalaran dan dirancang untuk pemahaman konteks panjang, penggunaan agen/alat yang kuat, penalaran tingkat lanjut, pengkodean dan matematikaRilis ini menggabungkan beberapa varian (produksi V3.2 dan V3.2-Speciale berkinerja tinggi). Proyek ini menekankan inferensi konteks panjang yang hemat biaya melalui mekanisme perhatian jarang baru yang disebut Perhatian Jarang DeepSeek (DSA) dan agen / alur kerja “berpikir” (“Berpikir dalam Penggunaan Alat”).

Fitur utama (tingkat tinggi)

  • Perhatian Jarang DeepSeek (DSA): mekanisme perhatian jarang yang dimaksudkan untuk secara drastis mengurangi komputasi dalam skenario konteks panjang sambil mempertahankan penalaran jarak jauh. (Klaim penelitian inti; digunakan dalam V3.2-Exp.)
  • Pemikiran agen + integrasi penggunaan alat: V3.2 menekankan penanaman “pemikiran” ke dalam penggunaan alat: model dapat beroperasi dalam mode berpikir-bernalar dan mode non-pemikiran (normal) saat memanggil alat, meningkatkan pengambilan keputusan dalam tugas multi-langkah dan orkestrasi alat.
  • Alur sintesis data agen skala besar: DeepSeek melaporkan korpus pelatihan dan jalur sintesis agen yang mencakup ribuan lingkungan dan puluhan ribu instruksi kompleks untuk meningkatkan ketahanan terhadap tugas-tugas interaktif.
  • **Perhatian Jarang DeepSeek (DSA)**DSA adalah metode atensi sparse berbutir halus yang diperkenalkan pada lini V3.2 (pertama di V3.2-Exp) yang mengurangi kompleksitas atensi (dari O(L²) naif menjadi gaya O(L·k) dengan k ≪ L), memilih sekumpulan token kunci/nilai yang lebih kecil per token kueri. Hasilnya adalah memori/komputasi yang jauh lebih rendah untuk konteks yang sangat panjang (128K), sehingga inferensi konteks panjang jauh lebih murah.
  • Tulang punggung Campuran Pakar (MoE) dan Perhatian Laten Multi-kepala (MLA):Keluarga V3 menggunakan MoE untuk meningkatkan kapasitas secara efisien (jumlah parameter nominal besar dengan aktivasi per token terbatas) bersama dengan metode MLA untuk menjaga kualitas dan mengontrol komputasi.

Spesifikasi teknis (tabel ringkas)

  • Rentang parameter nominal: ~671B – 685B (tergantung varian)
  • Jendela konteks (referensi terdokumentasi): 128,000 token (128K) dalam konfigurasi vLLM/referensi.
  • Perhatian: DeepSeek Sparse Attention (DSA) + MLA; mengurangi kompleksitas perhatian untuk konteks yang panjang.
  • Presisi numerik & pelatihan: BF16 / F32 dan format terkuantisasi terkompresi (F8_E4M3 dll.) tersedia untuk didistribusikan.
  • Keluarga arsitektur: Tulang punggung MoE (campuran pakar) dengan ekonomi aktivasi per token.
  • Masukan / keluaran: masukan teks tokenisasi standar (format obrolan/pesan didukung); mendukung panggilan alat (primitif API penggunaan alat) dan panggilan gaya obrolan interaktif serta pelengkapan terprogram melalui API.
  • Varian yang ditawarkan: v3.2, v3.2-Exp (eksperimental, debut DSA), v3.2-Speciale (penalaran-pertama, hanya API jangka pendek).

Kinerja tolok ukur

Komputasi tinggi V3.2-Speciale mencapai paritas atau melampaui model-model mutakhir kontemporer pada beberapa tolok ukur penalaran/matematika/pengodean, dan mencapai nilai tertinggi pada set soal matematika elit tertentu. Pracetak ini menyoroti paritas dengan model-model seperti GPT-5/Kimi K2 pada tolok ukur penalaran tertentu, serta peningkatan spesifik dibandingkan baseline DeepSeek R1/V3 sebelumnya:

  • TUJUAN: meningkat dari 70.0 menjadi 87.5 (Δ +17.5).
  • GPQA: 71.5 → 81.0 (Δ +9.5).
  • LCB_v6: 63.5 → 73.3 (Δ +9.8).
  • Pembantu: 57.0 → 71.6 (Δ +14.6).

Perbandingan dengan model lain (tingkat tinggi)

  • Vs GPT-5 / Gemini 3 Pro (klaim publik): Penulis DeepSeek dan beberapa outlet pers mengklaim paritas atau keunggulan pada tugas penalaran dan pengkodean terpilih untuk varian Speciale, sembari menekankan efisiensi biaya dan lisensi terbuka sebagai pembeda.
  • Vs model terbuka (Olmo, Nemotron, Moonshot, dll.): DeepSeek menyoroti pelatihan agen dan DSA sebagai pembeda utama untuk efisiensi konteks panjang.

Kasus penggunaan representatif

  • Sistem agen / orkestrasi: agen multi-alat (API, web scraper, konektor eksekusi kode) yang mendapatkan keuntungan dari “pemikiran” tingkat model + primitif panggilan alat yang eksplisit.
  • Alasan / analisis dokumen panjang: dokumen hukum, korpus penelitian besar, transkrip rapat — varian konteks panjang (128k token) memungkinkan Anda menyimpan konteks yang sangat besar dalam satu panggilan.
  • Bantuan matematika & pengkodean yang rumit: V3.2-Speciale dipromosikan untuk penalaran matematika tingkat lanjut dan tugas-tugas debugging kode yang ekstensif per tolok ukur vendor.
  • Penerapan produksi yang sensitif terhadap biaya: Perubahan harga DSA+ bertujuan untuk menurunkan biaya inferensi untuk beban kerja konteks tinggi.

Cara memulai untuk menggunakanPencarian Mendalam v3.2 API

Pencarian Mendalam v3.2 Harga API di CometAPI, diskon 20% dari harga resmi:

Token Masukan$0.22
Token Keluaran$0.35

Langkah-langkah yang Diperlukan

  • Masuk ke cometapi.comJika Anda belum menjadi pengguna kami, silakan mendaftar terlebih dahulu
  • Dapatkan kunci API kredensial akses antarmuka. Klik “Tambahkan Token” pada token API di pusat personal, dapatkan kunci token: sk-xxxxx dan kirimkan.
  • Dapatkan url situs ini: https://api.cometapi.com/

Gunakan Metode

  1. Pilih "deepseek-v3.2” untuk mengirim permintaan API dan mengatur isi permintaan. Metode permintaan dan isi permintaan diperoleh dari dokumen API situs web kami. Situs web kami juga menyediakan pengujian Apifox demi kenyamanan Anda.
  2. Mengganti dengan kunci CometAPI Anda yang sebenarnya dari akun Anda.
  3. Pilih Obrolan format: Masukkan pertanyaan atau permintaan Anda ke dalam kolom konten—inilah yang akan ditanggapi oleh model.
  4. .Memproses respons API untuk mendapatkan jawaban yang dihasilkan.
Baca Selengkapnya

500+ Model dalam Satu API

Diskon hingga 20%