モデル料金エンタープライズ
500以上のAI Model API、オールインワンAPI。CometAPIで。
モデルAPI
開発者
クイックスタートドキュメントAPI ダッシュボード
会社
会社概要エンタープライズ
リソース
AIモデルブログ変更履歴サポート
利用規約プライバシーポリシー
© 2026 CometAPI · All rights reserved
Home/Models/DeepSeek/DeepSeek V4 Flash
D

DeepSeek V4 Flash

入力:$0.24/M
出力:$0.48/M
DeepSeek V4 Flashは、DeepSeekによる効率性を最適化したMixture-of-Expertsモデルで、総パラメータ数は284B、アクティブなパラメータ数は13B、1M-tokenのコンテキストウィンドウに対応しています。高速な推論と高スループットのワークロード向けに設計されており、強力な推論能力とコーディング性能を維持します。
新着
商用利用
Playground
概要
機能
料金プラン
API

DeepSeek-V4-Flash の技術仕様

項目詳細
モデルDeepSeek-V4-Flash
プロバイダーDeepSeek
ファミリーDeepSeek-V4 preview series
アーキテクチャMixture-of-Experts (MoE)
総パラメータ数284B
アクティブパラメータ数13B
コンテキスト長1,000,000 tokens
精度FP4 + FP8 mixed
推論モードNon-think, Think, Think Max
リリース状況Preview model
ライセンスMIT License

DeepSeek-V4-Flash とは?

DeepSeek-V4-Flash は、DeepSeek の V4 シリーズにおける効率重視のプレビューモデルです。Mixture-of-Experts 言語モデルとして構築されており、モデル規模に対してアクティブ部分が比較的小さいため、1M トークンの非常に大きなコンテキストウィンドウをサポートしつつ、応答性を維持します。

DeepSeek-V4-Flash の主な特長

  • 100 万トークンのコンテキスト: 1,000,000 トークンのコンテキストウィンドウをサポートし、超長文ドキュメント、大規模コードベース、マルチステップのエージェントセッションに適しています。
  • 効率優先の MoE 設計: 総パラメータ 284B に対して、リクエストごとのアクティブパラメータは 13B のみとし、高速かつ効率的な推論を狙った構成です。
  • 3 種の推論モード: Non-think、Think、Think Max により、タスクの難度に応じて速度とより深い推論をトレードオフできます。
  • 強力な長コンテキストアーキテクチャ: V4 シリーズは Compressed Sparse Attention と Heavily Compressed Attention を組み合わせ、長コンテキストでの効率化を高めているとしています。
  • 競争力のあるコーディングとエージェント挙動: モデルカードによると、HumanEval、SWE Verified、Terminal Bench 2.0、BrowseComp などのコーディングおよびエージェント系ベンチマークで強力な結果を示します。
  • オープンな重みとローカル展開: モデルの重み、ローカル推論ガイド、MIT License が提供されており、セルフホスティングや実験が現実的です。

DeepSeek-V4-Flash のベンチマーク性能

公式モデルカードの抜粋では、DeepSeek-V4-Flash が複数の中核ベンチマークで DeepSeek-V3.2-Base を上回ることが示されています。

ベンチマークDeepSeek-V3.2-BaseDeepSeek-V4-Flash-BaseDeepSeek-V4-Pro-Base
AGIEval (EM)80.182.683.1
MMLU (EM)87.888.790.1
MMLU-Pro (EM)65.568.373.5
HumanEval (Pass@1)62.869.576.8
LongBench-V2 (EM)40.244.751.5

推論およびエージェント関連の表では、Flash 系列はターミナルやソフトウェアタスクでも堅実な結果を示し、Flash Max は Terminal Bench 2.0 で 56.9、SWE Verified で 79.0 に到達しています。一方で、知識依存度の高い最難関のエージェント系タスクでは、より大きな Pro モデルに一歩及びません。

DeepSeek-V4-Flash と DeepSeek-V4-Pro と DeepSeek-V3.2 の比較

モデル最適な用途トレードオフ
DeepSeek-V4-Flash高速、長コンテキストの作業、コーディングアシスタント、高スループットのエージェントフロー純粋な知識領域や最も複雑なエージェント系タスクでは Pro にわずかに劣る
DeepSeek-V4-Pro最高性能を要するタスク、より深い推論、難易度の高いエージェントワークフローFlash より重く、効率志向ではない
DeepSeek-V3.2比較や移行計画のための旧世代ベースライン公式表上では V4-Flash よりベンチマーク性能が低い

DeepSeek-V4-Flash の代表的なユースケース

  1. 契約書、リサーチパック、サポートナレッジベース、社内 Wiki などの長文ドキュメント分析
  2. 大規模リポジトリの精査、複数ファイルにわたる指示の追従、コンテキストの保持が必要なコーディングアシスタント
  3. 推論・ツール呼び出し・反復を行い、文脈を失わないエージェントワークフロー
  4. 大きなコンテキストウィンドウと低摩擦なデプロイの恩恵を受けるエンタープライズ向けチャットシステム
  5. 本番強化前に DeepSeek-V4 の挙動を評価したいチーム向けのローカル展開プロトタイピング

How to access and use Deepseek v4 Flash API

Step 1: Sign Up for API Key

cometapi.com にログインしてください。まだユーザーでない場合は、まず登録してください。あなたの CometAPI console にサインインします。インターフェースのアクセス認証 API キーを取得します。個人センターの API token で “Add Token” をクリックし、トークンキー sk-xxxxx を取得して送信します。

Step 2: Send Requests to deepseek v4 flash API

“deepseek-v4-flash” エンドポイントを選び、API リクエストを送信してリクエストボディを設定します。リクエストメソッドとリクエストボディは当社ウェブサイトの API ドキュメントから取得できます。当社ウェブサイトでは、利便性のため Apifox のテストも提供しています。<YOUR_API_KEY> をあなたのアカウントの実際の CometAPI キーに置き換えてください。呼び出し先: Anthropic Messages フォーマットおよび Chat フォーマット。

質問やリクエストを content フィールドに挿入します—モデルはこの内容に応答します。API レスポンスを処理して生成された回答を取得します。

Step 3: Retrieve and Verify Results

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクステータスと出力データを返します。標準パラメータでストリーミング、プロンプトキャッシング、長コンテキスト処理などの機能を有効化できます。

よくある質問

Can DeepSeek-V4-Flash API handle 1M-token prompts?

はい。DeepSeek-V4-Flash は 1M トークンのコンテキスト長を備えており、非常に長いプロンプト、ドキュメント、コードベースに対応するよう設計されています。

Does DeepSeek-V4-Flash API support thinking mode and non-thinking mode?

はい。DeepSeek-V4-Flash は思考モードと非思考モードの両方をサポートしており、デフォルトで思考モードが有効です。

Does DeepSeek-V4-Flash API support JSON output and tool calls?

はい。DeepSeek は DeepSeek-V4-Flash のサポート機能として JSON 出力とツール呼び出しの双方を挙げています。

When should I use DeepSeek-V4-Flash API instead of DeepSeek-V4-Pro?

V4 シリーズのコンテキストウィンドウとエージェント機能が必要だが、より大きい Pro モデルまでは不要な場合は V4-Flash を使用してください。公式レポートでは、V4-Pro は知識依存のいくつかのベンチマークでより強力であることが示されているため、最大性能を求める場合は V4-Pro の方が適しています。

How do I integrate DeepSeek-V4-Flash API with OpenAI SDKs via CometAPI?

OpenAI 互換のベース URL https://api.cometapi.com を使用し、モデルを deepseek-v4-flash に設定してください。DeepSeek は Anthropic 互換のエンドポイントも文書化しているため、同じ API サーフェスで一般的な OpenAI/Anthropic SDK のパターンを再利用できます。

Is DeepSeek-V4-Flash API suitable for coding agents like Claude Code or OpenCode?

はい。V4 ファミリーは同じエージェント型の API サーフェスと推論制御に対応するよう設計されています。

What are DeepSeek-V4-Flash API's known limitations?

DeepSeek-V4-Pro より小型であるため、知識依存度の高いタスクや複雑なエージェントタスクの一部では Pro に劣ります。DeepSeek は V4 シリーズをプレビュー版と位置付けているため、各チームは自分たちのワークロードで検証する必要があります。

DeepSeek V4 Flashの機能

DeepSeek V4 Flashのパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

DeepSeek V4 Flashの料金

DeepSeek V4 Flashの競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。DeepSeek V4 Flashがコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$0.24/M
出力:$0.48/M
入力:$0.3/M
出力:$0.6/M
-20%

DeepSeek V4 FlashのサンプルコードとAPI

DeepSeek V4 Flashの包括的なサンプルコードとAPIリソースにアクセスして、統合プロセスを効率化しましょう。詳細なドキュメントでは段階的なガイダンスを提供し、プロジェクトでDeepSeek V4 Flashの潜在能力を最大限に活用できるよう支援します。
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
    stream=False,
    extra_body={
        "thinking": {"type": "enabled"},
        "reasoning_effort": "high",
    },
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
    stream=False,
    extra_body={
        "thinking": {"type": "enabled"},
        "reasoning_effort": "high",
    },
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://www.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" },
  ],
  thinking: { type: "enabled" },
  reasoning_effort: "high",
  stream: false,
});

console.log(completion.choices[0].message.content);

Curl Code Example

curl https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "deepseek-v4-flash",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "Hello!"
      }
    ],
    "thinking": {
      "type": "enabled"
    },
    "reasoning_effort": "high",
    "stream": false
  }'

その他のモデル

C

Claude Opus 4.7

入力:$3/M
出力:$15/M
エージェントやコーディング向けの最も高知能なモデル
A

Claude Sonnet 4.6

入力:$2.4/M
出力:$12/M
Claude Sonnet 4.6 は、これまでで最も高性能な Sonnet モデルです。コーディング、コンピューターの利用、長文脈推論、エージェントの計画立案、ナレッジワーク、デザインにわたってモデルのスキルを全面的にアップグレードしました。Sonnet 4.6 は、ベータ版で 1M トークンのコンテキストウィンドウも備えています。
O

GPT-5.4 nano

入力:$0.16/M
出力:$1/M
GPT-5.4 nano は、分類、データ抽出、ランキング、サブエージェントなど、速度とコストが最も重要となるタスク向けに設計されています。
O

GPT-5.4 mini

入力:$0.6/M
出力:$3.6/M
GPT-5.4 mini は、GPT-5.4 の強みを、高スループットのワークロード向けに設計された、より高速で効率的なモデルにもたらします。
X

MiMo-V2.5-Pro

近日公開
入力:$60/M
出力:$240/M
MiMo-V2.5-ProはXiaomiのフラッグシップモデルで、汎用エージェント能力と複雑なソフトウェアエンジニアリングに卓越しています。
X

MiMo-V2.5

近日公開
入力:$60/M
出力:$240/M
MiMo-V2.5 は Xiaomi のネイティブなフルモーダルモデルです。推論コストを約半分に抑えつつ、プロフェッショナル級のエージェント性能を実現し、画像・動画理解タスクにおけるマルチモーダル知覚で MiMo-V2-Omni を上回ります。