Deepseek v4がリリース:とは何か、アクセス方法

CometAPI
AnnaApr 24, 2026
Deepseek v4がリリース:とは何か、アクセス方法

DeepSeek は V4 をオープンソースのモデルファミリーとして正式にプレビュー発表し、その見出しは単なる「またひとつのモデル更新」ではありません。同社は V4 を、実運用のワークロード(ドキュメント主体の分析、コーディングアシスタント、検索エージェント、多段の自動化)向けに構築された、長いコンテキストに強くエージェントフレンドリーなシステムとして位置付けています。リリースは Web・アプリ・API で提供が開始され、V4 ラインは公式サービス全体でコスト効率の高い1M-token コンテキストウィンドウを導入しています。

今回の発表がとりわけ注目に値するのは、スケールと効率の両立です。DeepSeek は、V4-Pro が総パラメータ 1.6T・アクティブ 49B、V4-Flash が総パラメータ 284B・アクティブ 13Bだとしています。技術レポートでは、V4 のアーキテクチャがハイブリッドアテンション、MoE ルーティング、そして超長コンテキストでの計算負荷を抑えつつエージェント的挙動を改善するために設計されたポストトレーニングを用いていると述べています。

What is DeepSeek V4?

DeepSeek-V4 は同社の最新プレビュー版フラッグシップファミリーで、公開バリアントとして V4-ProV4-Flash の 2 つが含まれます。DeepSeek は、V4-Pro を世界知識、数学、STEM、コーディング、エージェント的コーディングでより強力と説明し、V4-Flash は応答性が高くコスト効率に優れ、推論品質と長コンテキスト能力の多くを維持するとしています。V4-Pro はエージェント的コーディングと世界知識で現行のオープンモデルをリードし、V4-Flash は速度と経済的な展開を重視して設計されています。

V4 は Compressed Sparse Attention (CSA)Heavily Compressed Attention (HCA) を組み合わせたハイブリッドアテンションアーキテクチャに加え、Manifold-Constrained Hyper-ConnectionsMuon optimizer を採用しています。同社はさらに、モデルが 32T tokens 超で事前学習され、1M コンテキストにおいて V4-Pro は DeepSeek-V3.2 比で単一トークン推論の FLOPs が27%、KV キャッシュが**10%**で済むと述べています。効率面こそが、このリリースの真の見どころです。

DeepSeek-V4-Pro vs DeepSeek-V4-Flash

DeepSeek-V4-Pro

V4-Pro は品質を最重視するユーザー向けのフラッグシップモデルです。DeepSeek-V4-Pro は、より強力なエージェント的コーディング性能、より豊かな世界知識、そして世界水準の推論力を提供し、ローンチページによれば世界知識では現行のオープンモデルをリードしつつ Gemini-3.1-Pro にのみわずかに後れを取ります。技術レポートでは、V4-Pro はファミリー内でより大きいモデルであり、DeepSeek-V4-Pro は V4-Flash と同じ OpenAI 互換および Anthropic 互換のインターフェースを通じて利用可能です。

DeepSeek-V4-Flash

V4-Flash は効率最優先のモデルで、推論能力は V4-Pro に肉薄し、パラメータ規模を抑えつつ応答時間を短縮することで、シンプルなエージェントタスクでは V4-Pro と同等の性能を示します。同一の 1M コンテキスト長と中核機能を維持しつつ、思考モードと非思考モードの両方をサポートし、はるかに低コストです。

Which one should you choose?

タスクが高リスク、知識依存、もしくは検証が難しい場合(エンタープライズ研究、複雑なコーディング、多段の意思決定支援、最も強力な回答を求める場面)は V4-Pro を使いましょう。スループット、レイテンシ、あるいはトークンコストを重視し、ベンチマークで最後の数ポイントを追い込む必要がない場合は V4-Flash が適しています。この選択は公式のポジショニングと、両モデル間の報告されたベンチマーク差にも整合しています。

ItemDeepSeek-V4-FlashDeepSeek-V4-Pro
Total parameters284B1.6T
Active parameters13B49B
Context length1M1M
Reasoning modesNon-think + thinkNon-think + think
Best fit高速推論、高スループットアプリ、コスト重視のエージェント最高能力の推論、より難しいコーディングや知識タスク
Official API pricingキャッシュヒット $0.028 / キャッシュミス $0.14 / 出力 $0.28 per 1M tokensキャッシュヒット $0.145 / キャッシュミス $1.74 / 出力 $3.48 per 1M tokens
Max output384K384K

CometAPIDeepseek v4 ProV4 Flash へのアクセスを提供し、公式より 20% 安価で、かつ単一の OpenAI 互換または Anthropic Messages エンドポイントで 500+ モデル(GPT-5.4、Gemini 3.1 など)間のシームレスな切り替えを実現します。

Performance benchmark

DeepSeek-V3.2 vs V4-Flash vs V4-Pro

ベースモデルの比較表では、V4-Flash と V4-Pro はいずれも中核ベンチマークで DeepSeek-V3.2 を上回り、多くの場合 V4-Pro がリードします。たとえば、レポートでは次のスコアが挙げられています:AGIEval は 82.6 / 83.1(V3.2 は 80.1)、MMLU は 88.7 / 90.187.8)、MMLU-Pro は 68.3 / 73.565.5)、HumanEval は 69.5 / 76.862.8)、LongBench-V2 は 44.7 / 51.540.2)。中央が V4-Flash、最後が V4-Pro です。

BenchmarkDeepSeek-V3.2-BaseDeepSeek-V4-Flash-BaseDeepSeek-V4-Pro-Base
AGIEval (EM)80.182.683.1
MMLU (EM)87.888.790.1
MMLU-Pro (EM)65.568.373.5
HumanEval (Pass@1)62.869.576.8
LongBench-V2 (EM)40.244.751.5

出典: DeepSeek-V4 技術レポート(Table 1)

パターンは明快です:Flash は Pro との差を縮めていますが、Pro は依然としてより強力な汎用モデルです。これにより、多くの本番システムでは V4-Flash が実用的なデフォルトとなり、回答品質がコストやレイテンシより重要な場合には V4-Pro を選ぶのが適切です。

Western model comparisons: where V4 fits

ある中国語のホワイトカラータスクに関する人手評価では、レポートによれば DeepSeek-V4-Pro-MaxClaude Opus 4.6-Max を上回り、63% の非敗率を示しました。DeepSeek-V4-Pro は Claude Sonnet 4.5 に対して「大幅に優位」で、R&D コーディングベンチマークでは Claude Opus 4.5 に肉薄するとしています。

Evaluation areaDeepSeek resultWestern model comparisonWhat it suggests
Chinese white-collar tasksV4-Pro-Max, 63% non-loss ratevs Claude Opus 4.6-Max実務的なビジネスタスクでの強いパフォーマンス
R&D coding benchmarkV4-Pro-Max pass rate 67vs Claude Sonnet 4.5 at 47; Opus 4.5 at 70; Opus 4.6 Thinking at 80先端モデル群と競合、特に Sonnet クラスのシステムに対して優位

「すべての側面でナンバーワン」ではないものの、「真剣に評価すべき水準」にすでに達しています。

DeepSeek の技術レポートは、同一の表で V4-Pro-Max を Claude Opus 4.6 Max、GPT-5.4 xHigh、Gemini 3.1 Pro High と比較しています。結果は単純ではありません。西側のクローズドソースモデルは知識や推論のいくつかの側面で依然として強力ですが、V4-Pro-Max はコード、長コンテキスト、そして一部のエージェントタスクで非常に強い存在感を示します。言い換えれば、もはや「国内代替」という低次元の物語ではなく、「自分のシナリオにどれが適しているか」という段階に入っています。

知識と推論能力の面では、Opus 4.6 Max、GPT-5.4 xHigh、Gemini 3.1 ProHigh に匹敵します。ただし、エージェント能力ではやや後れを取るものの、その差は大きくありません。

Deepseek v4がリリース:とは何か、アクセス方法

DeepSeek-V4-Pro-Max はコード指向および長コンテキストのシナリオで非常に競争力が高く、一方で西側モデルは純粋な推論や知識ベンチマークのいくつかで依然として非常に強力です。正しい読み方はこうです:DeepSeek V4 は確実にフロンティアの土俵に立っているが、ベンチマークの主導権はタスク依存である

How to access DeepSeek V4

1) Use the official web and app

DeepSeek は、V4 Preview をweb、app、APIで「今すぐ」利用可能としています。一般ユーザーにとって最も簡単なのは公式のチャットインターフェースで、Expert Mode または Instant Mode を通じてモデルにアクセスできます。

2) Use the API

DeepSeek V4 にアクセスするには CometAPI を強く推奨します。価格とアグリゲーションの優位性があるためです。

モデル名は次のとおりです:

  • deepseek-v4-flash
  • deepseek-v4-pro

DeepSeek は、従来の名称である deepseek-chatdeepseek-reasoner を非推奨とし、2026-07-24 までは V4-Flash の非思考モード/思考モードにマッピングされるとしています。これは、既存の本番インテグレーションがある場合の移行計画にとって重要です。

  • CometAPI に登録して API キーを取得します。
  • 標準の OpenAI Python SDK(または任意の互換クライアント)をカスタムの base URL とともに使用します。

以下は、公式の OpenAI 互換フォーマットを用いたシンプルな例です:

import os
from openai import OpenAIclient = OpenAI(
    api_key=os.environ["cometapi_API_KEY"],
    base_url="https://api.cometapi.com"
)response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Summarize the benefits of million-token context."}
    ],
    extra_body={"thinking": {"type": "enabled"}},
    reasoning_effort="high"
)print(response.choices[0].message.content)

このリクエストパターンはクイックスタートに沿っています:base URL を設定し、deepseek-v4-pro または deepseek-v4-flash を選び、より深い推論が必要な場合は思考モードを有効化します。

How to use DeepSeek V4 effectively

長文ドキュメントのワークフローでは、コンテキストをクリーンかつ構造化して保つのが最も強力なパターンです。V4 の 1M-token ウィンドウは大きな利点ですが、入力をセクション、ソース抜粋、タスク指示、明確な出力制約に整理したときに、モデルは依然として最良のパフォーマンスを発揮します。これは、DeepSeek がアピールする長コンテキスト能力を最も自然に活用する方法です。

コードとエージェントのワークフローでは、まずはV4-Flash で高速に反復し、最終実行や最も困難なステップで V4-Pro に切り替えるのが良いでしょう。これは公式のポジショニングに合致します:Flash は効率的な選択肢、Pro はより強力なモデルであり、API サーフェスとコンテキスト長は同じです。

Final word

DeepSeek-V4 が注目されるのは、市場が同時に求めてきた 4 つ(長いコンテキスト、強い推論、オープンな利用性、攻めた価格)を兼ね備えているからです。重要なのは、DeepSeek が「またひとつモデルを出した」ことではありません。同社がフロンティア級 AI を本番で経済的に使えるようにしようとしていることです。次の AI 投資先を検討するチームにとって、これは無視ではなくテストすべきシグナルです。

複数プロバイダを跨いで構築するチームにとっても、これは自社スタック内でのベンチマークに値するリリースです。CometAPI は、製品チームが市場の変化のたびにインテグレーションを作り直すことなく、DeepSeek-V4 と他のフロンティアモデルを並行比較するための実用的なレイヤーになり得ます。

AI開発コストを20%削減する準備はできていますか?

数分で無料スタート。無料トライアルクレジット付き。クレジットカード不要。

もっと読む