Fitur dasar (apa yang ditawarkan)
- Mode inferensi ganda: deepseek-chat (tanpa penalaran / lebih cepat) dan deepseek-reasoner (berpenalaran / kemampuan rantai pemikiran/agen lebih kuat). UI menyediakan sakelar “DeepThink” untuk pengguna akhir.
- Konteks panjang: materi resmi dan laporan komunitas menekankan jendela konteks 128k token untuk lini keluarga V3. Ini memungkinkan pemrosesan ujung ke ujung terhadap dokumen yang sangat panjang.
- Penanganan alat/agen yang ditingkatkan: optimisasi pascapelatihan yang ditujukan untuk pemanggilan alat yang andal, alur kerja agen multi-langkah, dan integrasi plugin/alat.
Rincian teknis (arsitektur, pelatihan, dan implementasi)
Korpus pelatihan & rekayasa konteks panjang. Pembaruan Deepseek V3.1 menekankan perluasan konteks panjang dua fase di atas checkpoint V3 sebelumnya: catatan publik menunjukkan penambahan token besar yang dialokasikan ke fase perluasan 32k dan 128k (DeepSeek melaporkan ratusan miliar token digunakan dalam langkah perluasan). Rilis ini juga memperbarui konfigurasi tokenizer untuk mendukung rezim konteks yang lebih besar.
Ukuran model dan penskalaan mikro untuk inferensi. Laporan publik dan komunitas memberikan perhitungan parameter yang agak berbeda (hasil yang umum pada rilis baru): pengindeks dan mirror pihak ketiga mencantumkan ~671B parameter (37B aktif) dalam beberapa deskripsi runtime, sementara ringkasan komunitas lain melaporkan ~685B sebagai ukuran nominal arsitektur penalaran hibrida tersebut.
Mode inferensi & kompromi rekayasa. Deepseek V3.1 menyediakan dua mode inferensi pragmatis: deepseek-chat (dioptimalkan untuk obrolan berbasis giliran standar, latensi lebih rendah) dan deepseek-reasoner (mode “berpikir” yang memprioritaskan rantai pemikiran dan penalaran terstruktur).
Keterbatasan & risiko
- Kematangan tolok ukur & reprodusibilitas: banyak klaim kinerja masih dini, didorong komunitas, atau selektif. Evaluasi independen yang terstandarisasi masih menyusul. (Risiko: klaim berlebihan).
- Keamanan & halusinasi: seperti semua LLM besar, Deepseek V3.1 rentan terhadap halusinasi dan risiko konten berbahaya; mode penalaran yang lebih kuat kadang menghasilkan keluaran multi-langkah yang percaya diri namun keliru. Pengguna sebaiknya menerapkan lapisan keamanan dan peninjauan manusia pada keluaran kritis. (Tidak ada vendor atau sumber independen yang mengklaim eliminasi halusinasi.)
- Biaya & latensi inferensi: mode penalaran menukar latensi demi kapabilitas; untuk inferensi konsumen skala besar ini menambah biaya. Beberapa komentator mencatat bahwa reaksi pasar terhadap model yang terbuka, murah, dan berkecepatan tinggi bisa volatil.
Kasus penggunaan umum & menarik
- Analisis & ringkasan dokumen panjang: hukum, R\&D, tinjauan literatur — manfaatkan jendela konteks 128k token untuk ringkasan ujung ke ujung.
- Alur kerja agen dan orkestrasi alat: otomasi yang memerlukan pemanggilan alat multi-langkah (API, pencarian, kalkulator). Penyetelan agen pascapelatihan Deepseek V3.1 ditujukan untuk meningkatkan keandalan di sini.
- Pembuatan kode & bantuan perangkat lunak: laporan tolok ukur awal menekankan kinerja pemrograman yang kuat; cocok untuk pemrograman berpasangan, peninjauan kode, dan tugas pembuatan dengan pengawasan manusia.
- Penerapan di perusahaan di mana pilihan biaya/latensi penting: pilih mode chat untuk asisten percakapan yang murah/lebih cepat dan reasoner untuk tugas penalaran mendalam offline atau premium.
- Cara mengakses API deepseek-v3.1
Langkah 1: Daftar untuk Kunci API
Masuk ke cometapi.com. Jika Anda belum menjadi pengguna kami, silakan daftar terlebih dahulu. Masuk ke CometAPI console. Dapatkan kredensial akses kunci API antarmuka. Klik “Add Token” pada token API di pusat pribadi, dapatkan kunci token: sk-xxxxx dan kirim.
Langkah 2: Kirim Permintaan ke API deepseek-v3.1
Pilih endpoint “deepseek-v3.1” untuk mengirim permintaan API dan atur body permintaan. Metode dan body permintaan diperoleh dari dokumen API di situs web kami. Situs kami juga menyediakan uji Apifox untuk kenyamanan Anda. Ganti <YOUR_API_KEY> dengan kunci CometAPI Anda yang sebenarnya dari akun Anda. URL dasar adalah format Chat.
Masukkan pertanyaan atau permintaan Anda ke dalam field content—ini yang akan direspons oleh model. Proses respons API untuk mendapatkan jawaban yang dihasilkan.
Langkah 3: Ambil dan Verifikasi Hasil
Proses respons API untuk mendapatkan jawaban yang dihasilkan. Setelah diproses, API merespons dengan status tugas dan data keluaran.
