API DeepSeek V3.1

CometAPI
AnnaAug 22, 2025
API DeepSeek V3.1

DeepSeek V3.1 is the upgrade in DeepSeek’s V-series: a hibrid "berfikir / tidak berfikir" model bahasa besar yang bertujuan untuk pemprosesan tinggi, kecerdasan am kos rendah dan penggunaan alat agenik. Ia menyimpan Keserasian API gaya OpenAI, menambah panggilan alat yang lebih bijak, dan—setiap syarikat—menjana penjanaan yang lebih pantas dan kebolehpercayaan ejen yang lebih baik.

Ciri asas (apa yang ditawarkannya)

  • Mod inferens dwi: deepseek-chat (tidak berfikir / lebih cepat) dan deepseek-reasoner (kemahiran berfikir / rantaian pemikiran / ejen yang lebih kuat). UI mendedahkan togol "DeepThink" untuk pengguna akhir.
  • Konteks yang panjang: bahan rasmi dan laporan komuniti menekankan a token 128k tetingkap konteks untuk keturunan keluarga V3. Ini membolehkan pemprosesan hujung ke hujung dokumen yang sangat panjang.
  • Pengendalian alat/ejen yang lebih baik: pengoptimuman selepas latihan yang disasarkan pada panggilan alat yang boleh dipercayai, aliran kerja ejen berbilang langkah dan integrasi pemalam/alat.

Butiran teknikal (seni bina, latihan dan pelaksanaan)

Korpus latihan & kejuruteraan konteks panjang. Kemas kini Deepseek V3.1 menekankan a sambungan konteks panjang dua fasa di atas pusat pemeriksaan V3 sebelumnya: nota awam menunjukkan token tambahan utama yang dikhaskan untuk fasa lanjutan 32k dan 128k (DeepSeek melaporkan ratusan bilion token yang digunakan dalam langkah sambungan). Keluaran itu juga mengemas kini konfigurasi tokenizer untuk menyokong rejim konteks yang lebih besar.

Saiz model dan penskalaan mikro untuk inferens. Laporan awam dan komuniti memberikan pengiraan parameter yang agak berbeza (hasil yang biasa untuk keluaran baharu): pengindeks dan senarai cermin pihak ketiga ~671B parameter (37B aktif) dalam beberapa huraian masa jalan, sementara ringkasan komuniti lain melaporkan ~685B sebagai saiz nominal seni bina penaakulan hibrid.

Mod inferens & tukar ganti kejuruteraan. Deepseek V3.1 mendedahkan dua mod inferens pragmatik: deepseek-chat (dioptimumkan untuk sembang berasaskan giliran standard, kependaman yang lebih rendah) dan deepseek-reasoner (mod "berfikir" yang mengutamakan rantaian pemikiran dan penaakulan berstruktur).

Had & risiko

  • Kematangan penanda aras & kebolehulangan: banyak tuntutan prestasi adalah awal, didorong oleh komuniti atau terpilih. Penilaian bebas dan standard masih mengejar. (Risiko: overclaiming).
  • Keselamatan & halusinasi: seperti semua LLM besar, Deepseek V3.1 tertakluk kepada halusinasi dan risiko kandungan berbahaya; mod penaakulan yang lebih kuat kadangkala boleh menghasilkan yakin tetapi tidak betul output berbilang langkah. Pengguna harus menggunakan lapisan keselamatan dan semakan manusia pada output kritikal. (Tiada vendor atau sumber bebas yang mendakwa penghapusan halusinasi.)
  • Kos inferens & kependaman: mod penaakulan memperdagangkan kependaman untuk keupayaan; untuk inferens pengguna berskala besar ini menambah kos. Sesetengah pengulas menyatakan bahawa reaksi pasaran terhadap model terbuka, murah, berkelajuan tinggi boleh berubah-ubah.

Kes penggunaan biasa & menarik

  • Analisis & ringkasan dokumen panjang: undang-undang, R&D, ulasan literatur — memanfaatkan tetingkap token 128k untuk ringkasan hujung ke hujung.
  • Aliran kerja ejen dan orkestrasi alat: automasi yang memerlukan panggilan alat berbilang langkah (API, carian, kalkulator). Penalaan ejen pasca latihan Deepseek V3.1 bertujuan untuk meningkatkan kebolehpercayaan di sini.
  • Penjanaan kod & bantuan perisian: laporan penanda aras awal menekankan prestasi pengaturcaraan yang kukuh; sesuai untuk pengaturcaraan pasangan, semakan kod dan tugasan penjanaan dengan pengawasan manusia.
  • Penggunaan perusahaan di mana pilihan kos/pendaman penting: memilih berbual mod untuk pembantu perbualan yang murah/cepat dan penaakulan untuk tugas penaakulan mendalam luar talian atau premium.

Bagaimana hendak memanggil Deepseek V3.1 API daripada CometAPI

deepseek v3.1 Harga API dalam CometAPI,diskaun 20% daripada harga rasmi:

Token Input$0.44
Token Keluaran$1.32

Langkah yang Diperlukan

  • Log masuk ke cometapi.com. Jika anda belum menjadi pengguna kami, sila daftar dahulu
  • Dapatkan kunci API kelayakan akses antara muka. Klik "Tambah Token" pada token API di pusat peribadi, dapatkan kunci token: sk-xxxxx dan serahkan.
  • Dapatkan url tapak ini: https://api.cometapi.com/

Gunakan Kaedah

  1. Pilih "deepseek-v3.1“ / “deepseek-v3-1-250821” titik akhir untuk menghantar permintaan API dan menetapkan badan permintaan. Kaedah permintaan dan badan permintaan diperoleh daripada dokumen API tapak web kami. Laman web kami juga menyediakan ujian Apifox untuk kemudahan anda.
  2. Gantikan dengan kunci CometAPI sebenar anda daripada akaun anda.
  3. Masukkan soalan atau permintaan anda ke dalam medan kandungan—inilah yang akan dijawab oleh model.
  4. . Proses respons API untuk mendapatkan jawapan yang dijana.

Panggilan API

CometAPI menyediakan REST API yang serasi sepenuhnya—untuk penghijrahan yang lancar. Butiran penting kepada  Dokumen API:

  • Parameter Teraspromptmax_tokens_to_sampletemperaturestop_sequences
  • Titik Akhir: https://api.cometapi.com/v1/chat/completions
  • Parameter Model: "deepseek-v3.1“ / “deepseek-v3-1-250821"
  • Pengesahan: Bearer YOUR_CometAPI_API_KEY
  • Jenis kandungan: application/json .

Ganti CometAPI_API_KEY dengan kunci anda; perhatikan URL asas.

Python

from openai import OpenAI

client = OpenAI(
    api_key=os.environ,
    base_url="https://api.cometapi.com/v1/chat/completions"  # important

)

resp = client.chat.completions.create(
    model="deepseek-v3.1",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Summarize this PDF in 5 bullets."}
    ],
    temperature=0.3,
    response_format={"type": "json_object"}  # for structured outputs

)
print(resp.choices.message.content)

See Also Grok 4

SHARE THIS BLOG

500+ Model dalam Satu API

Sehingga 20% Diskaun