DeepSeek V3 シリーズの DeepSeek V3.2: エージェント ツールの使用、長期コンテキスト推論、コスト効率の高い展開に最適化された「推論ファースト」の大規模言語モデル ファミリ。
DeepSeek v3.2とは何ですか?
ディープシーク v3.2 DeepSeekの最新製品リリースです V3 ファミリー: 大規模な推論重視のオープンウェイト言語モデルファミリー。 長期的文脈理解、堅牢なエージェント/ツールの使用、高度な推論、コーディング、数学このリリースには複数のバージョン(製品版V3.2と高性能版V3.2-Speciale)がバンドルされています。このプロジェクトでは、新しいスパースアテンションメカニズムによるコスト効率の高いロングコンテキスト推論に重点を置いています。 DeepSeek スパースアテンション(DSA) エージェント/「思考」ワークフロー(「ツール使用における思考」)。
主な機能(概要)
- DeepSeek スパースアテンション(DSA): 長距離推論を維持しながら、長いコンテキストのシナリオにおける計算量を大幅に削減することを目的としたスパースアテンションメカニズム。(コア研究の主張;
V3.2-Exp.) - エージェント的思考 + ツール使用の統合: V3.2 では、ツールの使用に「思考」を組み込むことに重点が置かれています。モデルは、ツールを呼び出すときに推論思考モードと非思考(通常)モードで動作できるため、複数ステップのタスクとツールのオーケストレーションにおける意思決定が向上します。
- 大規模エージェントデータ合成パイプライン: DeepSeek は、インタラクティブ タスクの堅牢性を向上させるために、数千の環境と数万の複雑な命令にまたがるトレーニング コーパスとエージェント合成パイプラインを報告します。
- **DeepSeek スパースアテンション(DSA)**DSAは、V3.2ライン(V3.2-Expで初めて導入)で導入された細粒度スパースアテンション法です。アテンション計算量を削減し(単純なO(L²)からk ≪ LのO(L·k)スタイルまで)、クエリトークンごとにキー/値トークンのセットをより小さく選択することで、アテンション計算量を削減します。その結果、非常に長いコンテキスト(128KB)におけるメモリ/計算量が大幅に削減され、ロングコンテキスト推論のコストが大幅に削減されます。
- **Mixture-of-Experts (MoE) バックボーンと Multi-head Latent Attention (MLA)**V3 ファミリは、MoE を使用して容量を効率的に増やし (トークンごとのアクティベーションが制限された大きな名目パラメータ数)、MLA メソッドを使用して品質を維持し、コンピューティングを制御します。
技術仕様(簡潔な表)
- 公称パラメータ範囲: ~671B~685B (バリアントによって異なります)。
- コンテキスト ウィンドウ (ドキュメント参照): 128,000トークン (128K) vLLM/reference 構成内。
- 注意: DeepSeek Sparse Attention (DSA) + MLA; 長いコンテキストでの注意の複雑さが軽減されます。
- 数値とトレーニングの精度: BF16 / F32 および圧縮された量子化形式 (F8_E4M3 など) の配布が可能です。
- 建築ファミリー: トークンごとのアクティベーションエコノミーを備えた MoE (専門家の混合) バックボーン。
- 入力/出力: 標準のトークン化されたテキスト入力 (チャット/メッセージ形式をサポート)。ツール呼び出し (ツール使用 API プリミティブ) と、対話型チャット スタイルの呼び出しおよび API 経由のプログラムによる補完の両方をサポートします。
- 提供されるバリエーション:
v3.2,v3.2-Exp(実験的、DSAデビュー)、v3.2-Speciale(推論優先、短期的には API のみ)。
ベンチマークパフォーマンス
高性能コンピューティング V3.2-Speciale 複数の推論/数学/コーディングベンチマークにおいて、現代のハイエンドモデルと同等もしくはそれを上回る性能を達成し、厳選されたエリート向け数学問題セットにおいてトップレベルのスコアを達成しました。プレプリントでは、厳選された推論ベンチマークにおいてGPT-5 / Kimi K2などのモデルと同等の性能を示しており、以前のDeepSeek R1/V3ベースラインと比較した具体的な改善点も強調されています。
- AIME: 70.0から改善 87.5 (Δ +17.5)。
- GPQA: 71.5→ 81.0 (Δ +9.5)。
- LCB_v6: 63.5→ 73.3 (Δ +9.8)。
- 助手: 57.0→ 71.6 (Δ +14.6)。
他のモデルとの比較(概要)
- GPT-5 / Gemini 3 Proと比較(公式発表): DeepSeek の作者と複数の報道機関は、コスト効率とオープン ライセンスを差別化要因として強調しながら、Speciale バリアントの特定の推論およびコーディング タスクにおいて同等または優れていると主張しています。
- オープン モデル (Olmo、Nemotron、Moonshot など) と比較: DeepSeek は、長期コンテキストの効率性を高めるための重要な差別化要因として、エージェント トレーニングと DSA を重視しています。
代表的なユースケース
- エージェントシステム/オーケストレーション: モデルレベルの「思考」と明示的なツール呼び出しプリミティブの恩恵を受けるマルチツール エージェント (API、Web スクレイパー、コード実行コネクタ)。
- 長文の推論・分析: 法律文書、大規模な研究コーパス、会議の記録など、長いコンテキストのバリアント (128,000 トークン) を使用すると、1 回の呼び出しで非常に大きなコンテキストを保持できます。
- 複雑な数学とコーディングの支援:
V3.2-Specialeベンダーベンチマークに従って、高度な数学的推論と広範なコードデバッグタスク向けに推奨されています。 - コスト重視の実稼働展開: DSA + の価格変更は、高コンテキスト ワークロードの推論コストを削減することを目的としています。
使い始める方法ディープシーク v3.2 API
ディープシーク v3.2 CometAPI の API 価格、公式価格より 20% オフ:
| 入力トークン | $0.22 |
| 出力トークン | $0.35 |
必要な手順
- ログインする コムタピまだユーザーでない場合は、まず登録してください
- インターフェースのアクセス認証情報APIキーを取得します。パーソナルセンターのAPIトークンで「トークンを追加」をクリックし、トークンキー(sk-xxxxx)を取得して送信します。
- このサイトの URL を取得します: https://api.cometapi.com/
使用方法
- "を選択します。
deepseek-v3.2” エンドポイントを使用してAPIリクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、弊社ウェブサイトのAPIドキュメントから取得できます。また、お客様の便宜を図るため、弊社ウェブサイトではApifoxテストも提供しています。 - 交換するアカウントの実際の CometAPI キーを使用します。
- 選択する チャット 形式: コンテンツ フィールドに質問またはリクエストを入力します。これがモデルからの応答になります。
- API 応答を処理して、生成された回答を取得します。
