ModelHargaPerusahaan
500+ API Model AI, Semua Dalam Satu API. Hanya Di CometAPI
API Model
Pengembang
Mulai CepatDokumentasiDasbor API
Perusahaan
Tentang kamiPerusahaan
Sumber Daya
Model AIBlogCatatan PerubahanDukungan
Syarat dan Ketentuan LayananKebijakan Privasi
© 2026 CometAPI · All rights reserved
Home/Models/DeepSeek/DeepSeek V4 Flash
D

DeepSeek V4 Flash

Masukan:$0.24/M
Keluaran:$0.48/M
DeepSeek V4 Flash adalah model Mixture-of-Experts yang dioptimalkan untuk efisiensi dari DeepSeek, dengan 284B parameter total dan 13B parameter yang diaktifkan, serta mendukung jendela konteks 1M-token. Model ini dirancang untuk inferensi cepat dan beban kerja dengan throughput tinggi, sekaligus mempertahankan kemampuan penalaran dan kinerja pemrograman yang kuat.
Baru
Penggunaan komersial
Playground
Ikhtisar
Fitur
Harga
API

Spesifikasi teknis DeepSeek-V4-Flash

ItemDetail
ModelDeepSeek-V4-Flash
ProviderDeepSeek
FamilySeri pratinjau DeepSeek-V4
ArchitectureMixture-of-Experts (MoE)
Total parameters284B
Activated parameters13B
Context length1,000,000 tokens
PrecisionFP4 + FP8 campuran
Reasoning modesNon-think, Think, Think Max
Release statusModel pratinjau
LicenseMIT License

Apa itu DeepSeek-V4-Flash?

DeepSeek-V4-Flash adalah model pratinjau berfokus efisiensi dari DeepSeek dalam seri V4. Model ini dibangun sebagai model bahasa Mixture-of-Experts dengan jejak aktif yang relatif kecil untuk ukurannya, yang membantu tetap responsif sekaligus mendukung jendela konteks 1M-token yang sangat besar.

Fitur utama DeepSeek-V4-Flash

  • Konteks sejuta token: Model ini mendukung jendela konteks 1,000,000 token, sehingga cocok untuk dokumen yang sangat panjang, basis kode besar, dan sesi agen multi-langkah.
  • Desain MoE berorientasi efisiensi: Model ini menggunakan total 284B parameter namun hanya 13B parameter yang diaktifkan per permintaan, sebuah pengaturan yang ditujukan untuk inferensi yang lebih cepat dan efisien.
  • Tiga mode penalaran: Non-think, Think, dan Think Max memungkinkan Anda menukar kecepatan dengan penalaran yang lebih mendalam ketika tugas semakin sulit.
  • Arsitektur konteks panjang yang kuat: DeepSeek menyatakan bahwa seri V4 menggabungkan Compressed Sparse Attention dan Heavily Compressed Attention untuk meningkatkan efisiensi pada konteks panjang.
  • Kemampuan pemrograman dan perilaku agen yang kompetitif: Kartu model melaporkan hasil yang kuat pada tolok ukur pemrograman dan agen, termasuk HumanEval, SWE Verified, Terminal Bench 2.0, dan BrowseComp.
  • Bobot terbuka dan penerapan lokal: Rilis ini mencakup bobot model, panduan inferensi lokal, dan MIT License, yang membuat hosting mandiri dan eksperimen menjadi praktis.

Kinerja tolok ukur DeepSeek-V4-Flash

Hasil terpilih dari kartu model resmi menunjukkan bahwa DeepSeek-V4-Flash meningkat dibanding DeepSeek-V3.2-Base pada beberapa tolok ukur inti:

BenchmarkDeepSeek-V3.2-BaseDeepSeek-V4-Flash-BaseDeepSeek-V4-Pro-Base
AGIEval (EM)80.182.683.1
MMLU (EM)87.888.790.1
MMLU-Pro (EM)65.568.373.5
HumanEval (Pass@1)62.869.576.8
LongBench-V2 (EM)40.244.751.5

Dalam tabel penalaran-dan-agen, varian Flash juga membukukan hasil yang solid pada tugas terminal dan perangkat lunak, dengan Flash Max mencapai 56.9 pada Terminal Bench 2.0 dan 79.0 pada SWE Verified, meski masih berada di belakang model Pro yang lebih besar pada tugas paling berat yang berfokus pada pengetahuan dan keagenan.

DeepSeek-V4-Flash vs DeepSeek-V4-Pro vs DeepSeek-V3.2

ModelPenggunaan paling cocokKompromi
DeepSeek-V4-FlashPekerjaan cepat dan konteks panjang, asisten pemrograman, dan alur agen dengan throughput tinggiSedikit di belakang Pro pada pengetahuan murni dan tugas keagenan paling kompleks
DeepSeek-V4-ProTugas dengan kapabilitas tertinggi, penalaran lebih mendalam, dan alur kerja agen yang lebih sulitLebih berat dan kurang berorientasi efisiensi dibanding Flash
DeepSeek-V3.2Baseline lama untuk perbandingan dan perencanaan migrasiKinerja tolok ukur lebih rendah daripada V4-Flash pada tabel resmi

Kasus penggunaan khas untuk DeepSeek-V4-Flash

  1. Analisis dokumen panjang untuk kontrak, paket riset, basis pengetahuan dukungan, dan wiki internal.
  2. Asisten pemrograman yang perlu memeriksa repo besar, mengikuti instruksi di banyak file, dan menjaga konteks tetap hidup.
  3. Alur kerja agen di mana model perlu bernalar, memanggil alat, dan melakukan iterasi tanpa kehilangan benang merah.
  4. Sistem chat enterprise yang mendapat manfaat dari jendela konteks sangat besar dan penerapan yang minim hambatan.
  5. Penerapan lokal prototipe bagi tim yang ingin mengevaluasi perilaku DeepSeek-V4 sebelum penguatan untuk produksi.

Cara mengakses dan menggunakan Deepseek v4 Flash API

Langkah 1: Daftar untuk Kunci API

Masuk ke cometapi.com. Jika Anda belum menjadi pengguna kami, silakan daftar terlebih dahulu. Masuk ke Konsol CometAPI. Dapatkan kunci API kredensial akses untuk antarmuka. Klik “Add Token” pada token API di pusat pribadi, dapatkan kunci token: sk-xxxxx dan kirimkan.

Langkah 2: Kirim permintaan ke deepseek v4 flash API

Pilih endpoint “deepseek-v4-flash” untuk mengirim permintaan API dan atur body permintaan. Metode permintaan dan body permintaan diperoleh dari dokumen API di situs web kami. Situs kami juga menyediakan pengujian Apifox untuk kenyamanan Anda. Ganti <YOUR_API_KEY> dengan kunci CometAPI Anda yang sebenarnya dari akun Anda. Di mana memanggilnya: format Anthropic Messages dan format Chat.

Masukkan pertanyaan atau permintaan Anda ke dalam field content—itulah yang akan direspons oleh model. Proses respons API untuk mendapatkan jawaban yang dihasilkan.

Langkah 3: Ambil dan Verifikasi Hasil

Proses respons API untuk mendapatkan jawaban yang dihasilkan. Setelah diproses, API akan merespons dengan status tugas dan data keluaran. Aktifkan fitur seperti streaming, prompt caching, atau penanganan konteks panjang melalui parameter standar.

FAQ

Can DeepSeek-V4-Flash API handle 1M-token prompts?

Ya. DeepSeek-V4-Flash memiliki panjang konteks 1M-token, sehingga dibuat untuk prompt, dokumen, dan basis kode yang sangat panjang.

Does DeepSeek-V4-Flash API support thinking mode and non-thinking mode?

Ya. DeepSeek-V4-Flash mendukung kedua mode non-thinking dan thinking, dengan thinking diaktifkan secara default.

Does DeepSeek-V4-Flash API support JSON output and tool calls?

Ya. DeepSeek mencantumkan JSON Output dan Tool Calls sebagai fitur yang didukung untuk DeepSeek-V4-Flash.

When should I use DeepSeek-V4-Flash API instead of DeepSeek-V4-Pro?

Gunakan V4-Flash ketika Anda menginginkan jendela konteks seri V4 dan fitur agen tetapi tidak memerlukan model Pro yang lebih besar. Laporan resmi menunjukkan V4-Pro lebih kuat pada beberapa tolok ukur yang berat pada pengetahuan, sehingga Pro lebih cocok untuk kemampuan maksimum.

How do I integrate DeepSeek-V4-Flash API with OpenAI SDKs via CometAPI?

Gunakan URL dasar yang kompatibel dengan OpenAI https://api.cometapi.com dan setel model ke deepseek-v4-flash. DeepSeek juga mendokumentasikan endpoint yang kompatibel dengan Anthropic, sehingga Anda dapat menggunakan kembali pola SDK OpenAI/Anthropic umum dengan antarmuka API yang sama.

Is DeepSeek-V4-Flash API suitable for coding agents like Claude Code or OpenCode?

Ya, dan keluarga V4 dirancang untuk antarmuka API bergaya agen yang sama dan kontrol penalaran.

What are DeepSeek-V4-Flash API's known limitations?

Model ini lebih kecil daripada DeepSeek-V4-Pro, sehingga tertinggal dari Pro pada beberapa tolok ukur yang berat pada pengetahuan dan tugas agen yang kompleks. DeepSeek juga memberi label seri V4 sebagai rilis pratinjau, sehingga tim sebaiknya mengujinya pada beban kerja mereka sendiri.

Fitur untuk DeepSeek V4 Flash

Jelajahi fitur-fitur utama dari DeepSeek V4 Flash, yang dirancang untuk meningkatkan performa dan kegunaan. Temukan bagaimana kemampuan-kemampuan ini dapat menguntungkan proyek Anda dan meningkatkan pengalaman pengguna.

Harga untuk DeepSeek V4 Flash

Jelajahi harga kompetitif untuk DeepSeek V4 Flash, dirancang untuk berbagai anggaran dan kebutuhan penggunaan. Paket fleksibel kami memastikan Anda hanya membayar untuk apa yang Anda gunakan, memudahkan untuk meningkatkan skala seiring berkembangnya kebutuhan Anda. Temukan bagaimana DeepSeek V4 Flash dapat meningkatkan proyek Anda sambil menjaga biaya tetap terkendali.
Harga Comet (USD / M Tokens)Harga Resmi (USD / M Tokens)Diskon
Masukan:$0.24/M
Keluaran:$0.48/M
Masukan:$0.3/M
Keluaran:$0.6/M
-20%

Kode contoh dan API untuk DeepSeek V4 Flash

Akses kode sampel komprehensif dan sumber daya API untuk DeepSeek V4 Flash guna mempermudah proses integrasi Anda. Dokumentasi terperinci kami menyediakan panduan langkah demi langkah, membantu Anda memanfaatkan potensi penuh DeepSeek V4 Flash dalam proyek Anda.
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
    stream=False,
    extra_body={
        "thinking": {"type": "enabled"},
        "reasoning_effort": "high",
    },
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
    stream=False,
    extra_body={
        "thinking": {"type": "enabled"},
        "reasoning_effort": "high",
    },
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" },
  ],
  thinking: { type: "enabled" },
  reasoning_effort: "high",
  stream: false,
});

console.log(completion.choices[0].message.content);

Curl Code Example

curl https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "deepseek-v4-flash",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "Hello!"
      }
    ],
    "thinking": {
      "type": "enabled"
    },
    "reasoning_effort": "high",
    "stream": false
  }'

Model Lainnya

C

Claude Opus 4.7

Masukan:$3/M
Keluaran:$15/M
Model paling cerdas untuk agen dan pemrograman
A

Claude Sonnet 4.6

Masukan:$2.4/M
Keluaran:$12/M
Claude Sonnet 4.6 adalah model Sonnet kami yang paling mumpuni sejauh ini. Ini merupakan peningkatan menyeluruh atas keahlian model di bidang pemrograman, penggunaan komputer, penalaran konteks panjang, perencanaan agen, pekerjaan berbasis pengetahuan, dan desain. Sonnet 4.6 juga menyertakan jendela konteks 1M token dalam tahap beta.
O

GPT-5.4 nano

Masukan:$0.16/M
Keluaran:$1/M
GPT-5.4 nano dirancang untuk tugas-tugas di mana kecepatan dan biaya paling penting, seperti klasifikasi, ekstraksi data, pemeringkatan, dan sub-agen.
O

GPT-5.4 mini

Masukan:$0.6/M
Keluaran:$3.6/M
GPT-5.4 mini menghadirkan keunggulan GPT-5.4 ke model yang lebih cepat dan lebih efisien, dirancang untuk beban kerja bervolume tinggi.
X

MiMo-V2.5-Pro

Segera hadir
Masukan:$60/M
Keluaran:$240/M
MiMo-V2.5-Pro adalah model unggulan Xiaomi, yang unggul dalam kemampuan agen serbaguna dan rekayasa perangkat lunak yang kompleks.
X

MiMo-V2.5

Segera hadir
Masukan:$60/M
Keluaran:$240/M
MiMo-V2.5 adalah model full-modal native dari Xiaomi. Model ini mencapai kinerja agen berkelas profesional dengan biaya inferensi sekitar setengahnya, sekaligus melampaui MiMo-V2-Omni dalam persepsi multimodal pada tugas pemahaman gambar dan video.