DeepSeek v3.2 とは?
DeepSeek v3.2 は DeepSeek V3 ファミリーの最新プロダクションリリースであり、長文脈理解、堅牢なエージェント/ツール利用、高度な推論、コーディングと数学に向けて設計された「推論優先」の大規模オープンウェイト言語モデル群です。本リリースには複数のバリアント(プロダクションの V3.2 と高性能版の V3.2-Speciale)が同梱されています。プロジェクトは、DeepSeek Sparse Attention (DSA) とエージェント/「思考」ワークフロー(「Thinking in Tool-Use」)による、コスト効率の高い長文脈推論を重視しています。
主な特徴(ハイレベル)
- DeepSeek Sparse Attention (DSA): 長文脈シナリオで長距離推論を維持しつつ計算量を劇的に削減することを目的としたスパースアテンション機構。(中核的な研究主張;
V3.2-Expで使用) - エージェント的思考 + ツール利用の統合: V3.2 はツール利用に「思考」を組み込むことを重視。ツール呼び出し時に、推論・思考モードと非思考(通常)モードの双方で動作でき、多段タスクやツールのオーケストレーションにおける意思決定を改善する。
- 大規模エージェントデータ合成パイプライン: DeepSeek は、対話型タスクの堅牢性を高めるために、数千の環境と数万件の複雑な指示にまたがる学習コーパスおよびエージェント合成パイプラインを報告している。
- DeepSeek Sparse Attention (DSA): DSA は V3.2 系列(最初は
V3.2-Exp)で導入されたきめ細かなスパースアテンション手法で、アテンションの計算複雑性を(単純な O(L²) から O(L·k) 形式へ、k ≪ L)削減し、クエリトークンごとにより少数のキー/バリュートークンを選択する。その結果、非常に長いコンテキスト(128K)でもメモリ/計算資源を大幅に抑え、長文脈推論のコストを実質的に低減する。 - Mixture-of-Experts (MoE) バックボーンと Multi-head Latent Attention (MLA): V3 ファミリーは、MoE により効率的に容量を拡張(名目上は大きなパラメータ数を持ちながら、トークン当たりの活性化を限定)し、MLA 手法と併用して品質を維持しつつ計算量を制御する。
技術仕様(簡潔な一覧)
- 名目パラメータ範囲: 約 671B – 685B(バリアントに依存)。
- コンテキストウィンドウ(文献上の参照): vLLM/reference の設定で 128,000 tokens(128K)。
- アテンション: DeepSeek Sparse Attention (DSA) + MLA。長文脈向けにアテンションの複雑性を低減。
- 数値表現と学習精度: BF16 / F32 に加え、配布用に圧縮量子化フォーマット(F8_E4M3 など)を提供。
- アーキテクチャファミリー: MoE(mixture-of-experts)バックボーン。トークン当たりの活性化を節約。
- 入出力: 標準的なトークナイズ済みテキスト入力(チャット/メッセージ形式対応)。ツール呼び出し(tool-use API プリミティブ)および対話型のチャット呼び出しと API 経由のプログラム的コンプリーションの双方をサポート。
- 提供バリアント:
v3.2,v3.2-Exp(実験的、DSA 初登場),v3.2-Speciale(推論優先、当面は API のみ)。
ベンチマーク性能
高計算設定の V3.2-Speciale は、複数の推論/数学/コーディング系ベンチマークで同時代のハイエンドモデルに匹敵または上回る性能を示し、選抜された難度の高い数学問題セットでトップレベルの成績を収めている。プレプリントでは、特定の推論系ベンチマークにおいて GPT-5 / Kimi K2 などとの同等性を強調し、従来の DeepSeek R1/V3 ベースラインに対する具体的な改善点として以下を挙げている。
- AIME: 70.0 から 87.5 へ(Δ +17.5)。
- GPQA: 71.5 → 81.0(Δ +9.5)。
- LCB_v6: 63.5 → 73.3(Δ +9.8)。
- Aider: 57.0 → 71.6(Δ +14.6)。
他モデルとの比較(ハイレベル)
- Vs GPT-5 / Gemini 3 Pro(公開主張): DeepSeek の著者および複数の報道は、Speciale バリアントが特定の推論・コーディングタスクで同等または優位であると主張し、差別化要因としてコスト効率とオープンライセンスを強調している。
- Vs オープンモデル(Olmo, Nemotron, Moonshot など): DeepSeek は、長文脈効率における主要な差別化要因として、エージェント的トレーニングと DSA を強調している。
代表的なユースケース
- エージェントシステム/オーケストレーション: モデルレベルの「思考」と明示的なツール呼び出しプリミティブの恩恵を受けるマルチツールエージェント(API、ウェブスクレイパー、コード実行コネクタ)。
- 長文書の推論/分析: 法的文書、大規模研究コーパス、会議の書き起こしなど — 長文脈バリアント(128k tokens)により、非常に大きな文脈を単一の呼び出し内に保持可能。
- 複雑な数学・コーディング支援: ベンダーベンチマークに基づき、
V3.2-Specialeは高度な数学的推論や大規模なコードデバッグに適するとされている。 - コスト重視の本番展開: DSA と価格設定の見直しにより、長文脈ワークロードの推論コスト低減を狙う。
DeepSeek v3.2 API の使い方
CometAPI における DeepSeek v3.2 API 価格(公式価格から 20% 割引):
| 入力トークン | $0.22 |
|---|---|
| 出力トークン | $0.35 |
必要な手順
- cometapi.com にログインしてください。未登録の場合は、先に登録してください
- インターフェースのアクセス認証 API キーを取得してください。個人センターの API token で “Add Token” をクリックし、トークンキー: sk-xxxxx を取得して送信してください。
- 当サイトの URL を取得してください: https://api.cometapi.com/
使い方
- “
deepseek-v3.2” エンドポイントを選択して API リクエストを送信し、リクエストボディを設定してください。リクエスト方式とリクエストボディは当社サイトの API ドキュメントで確認できます。当社サイトは利便性のため Apifox テストも提供しています。 - <YOUR_API_KEY> をアカウントの実際の CometAPI キーに置き換えてください。
- Chat 形式を選択: content フィールドに質問やリクエストを挿入します—モデルはその内容に応答します。
- API レスポンスを処理して生成された回答を取得してください。