DeepSeek v3.2 とは何ですか?
DeepSeek v3.2 は、DeepSeek V3 ファミリーにおける最新の本番リリースです。これは、長文コンテキストの理解、堅牢なエージェント/ツール利用、高度な推論、コーディング、数学 のために設計された、大規模で推論重視のオープンウェイト言語モデルファミリーです。このリリースには複数のバリアント(本番版 V3.2 と高性能な V3.2-Speciale)が含まれています。このプロジェクトは、DeepSeek Sparse Attention (DSA) と呼ばれる新しい疎なアテンション機構、およびエージェント/「思考」ワークフロー(“Thinking in Tool-Use”)を通じて、長文コンテキスト推論のコスト効率を重視しています。
主な機能(概要)
- DeepSeek Sparse Attention (DSA): 長文コンテキストのシナリオにおいて計算量を大幅に削減しつつ、長距離推論能力を維持することを目的とした疎アテンション機構です。(中核的な研究上の主張;
V3.2-Expで使用。) - エージェント的思考 + ツール利用の統合: V3.2 は、ツール利用に「思考」を組み込むことを重視しています。モデルは、ツール呼び出し時に推論・思考モードと非思考(通常)モードの両方で動作でき、複数ステップのタスクやツールのオーケストレーションにおける意思決定を改善します。
- 大規模なエージェントデータ合成パイプライン: DeepSeek は、対話型タスクの堅牢性向上のために、数千の環境と数万件の複雑な命令にまたがる学習コーパスおよびエージェント合成パイプラインを報告しています。
- DeepSeek Sparse Attention (DSA): DSA は V3.2 系列(最初は V3.2-Exp)で導入された高精細な疎アテンション手法であり、各クエリトークンに対してより少数のキー/バリュートークン集合を選択することで、アテンションの計算複雑性を(単純な O(L²) から k ≪ L の O(L·k) 型へ)削減します。その結果、非常に長いコンテキスト(128K)におけるメモリ/計算コストが大幅に低下し、長文コンテキスト推論が実質的に安価になります。
- Mixture-of-Experts (MoE) バックボーンと Multi-head Latent Attention (MLA): V3 ファミリーは、MoE を用いて効率的に容量を拡大し(名目上の大規模なパラメータ数を持ちながら、トークンごとの活性化を限定)、あわせて MLA 手法により品質を維持し、計算コストを制御します。
技術仕様(簡潔な表)
- 名目上のパラメータ範囲: ~671B – 685B(バリアント依存)。
- コンテキストウィンドウ(文書化された参照値): vLLM/参照設定では 128,000 tokens(128K)。
- アテンション: DeepSeek Sparse Attention (DSA) + MLA;長文コンテキスト向けにアテンション複雑性を削減。
- 数値および学習精度: BF16 / F32 と、配布向けに圧縮量子化形式(F8_E4M3 など)が利用可能。
- アーキテクチャファミリー: トークン単位の活性化効率を備えた MoE(mixture-of-experts)バックボーン。
- 入力/出力: 標準的なトークン化テキスト入力(チャット/メッセージ形式をサポート);ツール呼び出し(tool-use API プリミティブ)に対応し、対話型のチャット形式呼び出しと API 経由のプログラム的な補完の両方をサポート。
- 提供バリアント:
v3.2、v3.2-Exp(実験版、DSA 初導入)、v3.2-Speciale(推論重視、当面は API 専用)。
ベンチマーク性能
高計算資源版の V3.2-Speciale は、複数の推論/数学/コーディング系ベンチマークにおいて、同時代の高性能モデルと同等またはそれを上回る性能に達しており、一部の最難関数学問題セットでもトップレベルの評価を獲得しています。プレプリントでは、選択された推論ベンチマークにおいて GPT-5 / Kimi K2 のようなモデルと同等であること、また従来の DeepSeek R1/V3 ベースラインに対する具体的な改善が示されています。
- AIME: 70.0 から 87.5 に改善(Δ +17.5)。
- GPQA: 71.5 → 81.0(Δ +9.5)。
- LCB_v6: 63.5 → 73.3(Δ +9.8)。
- Aider: 57.0 → 71.6(Δ +14.6)。
他モデルとの比較(概要)
- 対 GPT-5 / Gemini 3 Pro(公開主張ベース): DeepSeek の著者および複数の報道媒体は、Speciale バリアントが一部の推論およびコーディングタスクで同等または優位であると主張しており、差別化要因としてコスト効率とオープンライセンスを強調しています。
- 対オープンモデル(Olmo、Nemotron、Moonshot など): DeepSeek は、長文コンテキスト効率における主要な差別化要因として、エージェント学習と DSA を挙げています。
代表的なユースケース
- エージェントシステム/オーケストレーション: モデルレベルの「思考」と明示的なツール呼び出しプリミティブの恩恵を受ける、複数ツールのエージェント(API、Web スクレイパー、コード実行コネクタ)。
- 長文書の推論/分析: 法務文書、大規模な研究コーパス、会議録 — 長文コンテキスト対応バリアント(128k tokens)により、非常に大きなコンテキストを 1 回の呼び出しで保持できます。
- 複雑な数学およびコーディング支援:
V3.2-Specialeは、ベンダーのベンチマークによれば、高度な数学的推論や広範なコードデバッグ作業向けに推奨されています。 - コスト重視の本番導入: DSA と価格改定により、高コンテキスト負荷のワークロードにおける推論コストの削減を目指しています。
DeepSeek v3.2 API の利用開始方法
CometAPI における DeepSeek v3.2 API 料金(公式価格より 20% オフ)
| Input Tokens | $0.22 |
|---|---|
| Output Tokens | $0.35 |
必要な手順
- cometapi.com にログインします。まだユーザーでない場合は、まず登録してください
- インターフェースのアクセス認証情報である API キーを取得します。個人センターの API token にある「Add Token」をクリックし、トークンキー
sk-xxxxxを取得して送信します。 - このサイトの url を取得します: https://api.cometapi.com/
使用方法
- API リクエスト送信用に「
deepseek-v3.2」エンドポイントを選択し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、当社 Web サイトの API doc で確認できます。当社 Web サイトでは、利便性のために Apifox テストも提供しています。 - <YOUR_API_KEY> を、アカウントで取得した実際の CometAPI キーに置き換えます。
- Chat 形式を選択します:質問またはリクエストを content フィールドに入力します — ここに入力した内容に対してモデルが応答します。
- API レスポンスを処理して、生成された回答を取得します。