DeepSeek V3.1 ialah naik taraf terbaru dalam siri V DeepSeek: model bahasa besar hibrid “berfikir / tanpa pemikiran” yang menyasarkan kecerdasan umum berkapasiti tinggi dan kos rendah serta penggunaan alat berasaskan agen. Ia mengekalkan keserasian API gaya OpenAI, menambah panggilan alat yang lebih pintar, dan—menurut syarikat—menyediakan penjanaan lebih pantas serta kebolehpercayaan agen yang ditambah baik.
Ciri asas (apa yang ditawarkan)
- Mod inferens dwifungsi: deepseek-chat (tanpa pemikiran / lebih pantas) dan deepseek-reasoner (berfikir / rantaian pemikiran/kemahiran agen yang lebih kuat). UI menyediakan togol “DeepThink” untuk pengguna akhir.
- Konteks panjang: bahan rasmi dan laporan komuniti menekankan tetingkap konteks 128k token untuk keturunan keluarga V3. Ini membolehkan pemprosesan hujung ke hujung bagi dokumen yang sangat panjang.
- Pengendalian alat/agen yang dipertingkat: pengoptimuman selepas latihan menyasarkan panggilan alat yang boleh dipercayai, aliran kerja agen berbilang langkah, serta integrasi pemalam/alat.
Perincian teknikal (senibina, latihan dan pelaksanaan)
Korpus latihan & kejuruteraan konteks panjang. Kemas kini Deepseek V3.1 menekankan peluasan konteks panjang dua fasa di atas titik semak V3 terdahulu: nota awam menunjukkan sejumlah besar token tambahan diperuntukkan untuk fasa peluasan 32k dan 128k (DeepSeek melaporkan ratusan bilion token digunakan dalam langkah peluasan). Keluaran ini juga mengemas kini konfigurasi tokenizer untuk menyokong rejim konteks yang lebih besar.
Saiz model dan penskalaan mikro untuk inferens. Laporan awam dan komuniti memberikan kiraan parameter yang agak berbeza (fenomena biasa bagi keluaran baharu): pengindeks dan cermin pihak ketiga menyenaraikan ~671B parameter (37B aktif) dalam beberapa huraian waktu larian, manakala ringkasan komuniti lain melaporkan ~685B sebagai saiz nominal senibina penaakulan hibrid.
Mod inferens & kompromi kejuruteraan. Deepseek V3.1 menampilkan dua mod inferens pragmatik: deepseek-chat (dioptimumkan untuk sembang berasaskan giliran standard, latensi lebih rendah) dan deepseek-reasoner (mod “berfikir” yang mengutamakan rantaian pemikiran dan penaakulan berstruktur).
Had & risiko
- Kematangan penanda aras & kebolehulangan: banyak dakwaan prestasi masih awal, didorong komuniti, atau terpilih. Penilaian bebas dan dipiawaikan masih menyusul. (Risiko: dakwaan berlebihan).
- Keselamatan & halusinasi: seperti semua model bahasa besar (LLM), Deepseek V3.1 tertakluk kepada halusinasi dan risiko kandungan berbahaya; mod penaakulan yang lebih kuat kadangkala menghasilkan output berbilang langkah yang yakin tetapi tidak tepat. Pengguna harus menerapkan lapisan keselamatan dan semakan manusia pada output kritikal. (Tiada vendor atau sumber bebas yang mendakwa penghapusan halusinasi.)
- Kos & latensi inferens: mod penaakulan mengorbankan kepantasan (menambah latensi) demi keupayaan; bagi inferens pengguna berskala besar ini menambah kos. Sesetengah pengulas menyatakan reaksi pasaran terhadap model terbuka, murah dan berkelajuan tinggi boleh menjadi tidak menentu.
Kes penggunaan biasa & menarik
- Analisis & ringkasan dokumen panjang: undang-undang, R&D, ulasan literatur — manfaatkan tetingkap 128k token untuk ringkasan hujung ke hujung.
- Aliran kerja agen dan orkestrasi alat: automasi yang memerlukan panggilan alat berbilang langkah (API, carian, kalkulator). Penalaan agen selepas latihan bagi Deepseek V3.1 bertujuan meningkatkan kebolehpercayaan di sini.
- Penjanaan kod & bantuan perisian: laporan penanda aras awal menekankan prestasi pengaturcaraan yang kukuh; sesuai untuk pengaturcaraan berpasangan, semakan kod, dan tugas penjanaan dengan pengawasan manusia.
- Penerapan perusahaan di mana pilihan kos/latensi penting: pilih mod chat untuk pembantu perbualan yang murah/lebih pantas dan reasoner untuk tugas penaakulan mendalam luar talian atau premium.
Cara memanggil Deepseek V3.1 API daripada CometAPI
deepseek v3.1 Harga API di CometAPI, 20% lebih rendah daripada harga rasmi:
| Token Input | $0.44 |
| Token Output | $1.32 |
Langkah Diperlukan
- Log masuk ke cometapi.com. Jika anda bukan pengguna kami lagi, sila daftar terlebih dahulu
- Dapatkan kunci API kelayakan akses bagi antara muka. Klik “Add Token” pada token API di pusat peribadi, dapatkan kunci token: sk-xxxxx dan hantar.
- Dapatkan url laman ini: https://api.cometapi.com/
Kaedah Penggunaan
- Pilih titik akhir “
deepseek-v3.1“ / “deepseek-v3-1-250821” untuk menghantar permintaan API dan tetapkan badan permintaan. Kaedah permintaan dan badan permintaan diperoleh daripada dokumen API laman web kami. Laman web kami juga menyediakan ujian Apifox untuk kemudahan anda. - Gantikan <YOUR_API_KEY> dengan kunci CometAPI sebenar daripada akaun anda.
- Masukkan soalan atau permintaan anda ke dalam medan content—ini yang akan dijawab oleh model.
- . Proses respons API untuk mendapatkan jawapan yang dijana.
Panggilan API
CometAPI menyediakan REST API yang serasi sepenuhnya—untuk migrasi lancar. Butiran utama ke API doc:
- Parameter Teras:
prompt,max_tokens_to_sample,temperature,stop_sequences - Titik Akhir:
https://api.cometapi.com/v1/chat/completions - Parameter Model: “
deepseek-v3.1“ / “deepseek-v3-1-250821“ - Pengesahan:
Bearer YOUR_CometAPI_API_KEY - Jenis Kandungan:
application/json.
Gantikan
CometAPI_API_KEYdengan kunci anda; ambil perhatian URL asas.
Python
from openai import OpenAI
client = OpenAI(
api_key=os.environ,
base_url="https://api.cometapi.com/v1/chat/completions" # penting
)
resp = client.chat.completions.create(
model="deepseek-v3.1",
messages=[
{"role": "system", "content": "Anda ialah pembantu yang bermanfaat."},
{"role": "user", "content": "Ringkaskan PDF ini dalam 5 mata."}
],
temperature=0.3,
response_format={"type": "json_object"} # untuk output berstruktur
)
print(resp.choices.message.content)
Lihat juga Grok 4
