D

DeepSeek-V3.1

入力:$0.44/M
出力:$1.32/M
DeepSeek V3.1 は、DeepSeek の Vシリーズにおけるアップグレードであり、高スループットかつ低コストな汎用知能とエージェント的なツール活用を目指す、ハイブリッド型の「思考/非思考」大規模言語モデルです。OpenAI 互換の API を維持し、より賢いツール呼び出しを追加し、同社によれば、生成の高速化とエージェントの信頼性向上を実現しています。
新着
商用利用

基本機能(提供内容)

  • デュアル推論モード: deepseek-chat(非思考/高速)と deepseek-reasoner(思考/より強力な思考の連鎖・エージェント能力)。UI にはエンドユーザー向けの“DeepThink”トグルがあります。
  • 長いコンテキスト: 公式資料とコミュニティの報告は、V3 系列の128k トークンのコンテキストウィンドウを強調しています。これにより、非常に長いドキュメントのエンドツーエンド処理が可能になります。
  • ツール/エージェント処理の改善: 学習後の最適化により、信頼性の高いツール呼び出し、マルチステップのエージェントワークフロー、プラグイン/ツール統合を目指しています。

技術的詳細(アーキテクチャ、学習、実装)

学習コーパスと長コンテキスト設計。 Deepseek V3.1 のアップデートは、従来の V3 チェックポイントに対する2 段階の長コンテキスト拡張を強調しています。公開ノートによると、32k および 128k の拡張フェーズに大幅な追加トークンが投入され(DeepSeek は拡張段階で数千億トークンを使用したと報告)、より大きなコンテキストに対応するためのトークナイザー設定も更新されました。

モデル規模と推論におけるマイクロスケーリング。 公的情報とコミュニティ報告ではパラメータ数の記載に多少の相違があり(新規リリースではよくあることです)、一部のランタイム記述ではサードパーティのインデクサやミラーが~671B パラメータ(うち 37B がアクティブ)とする一方、他のコミュニティ要約ではハイブリッド推論アーキテクチャの公称値として~685Bが報告されています。

推論モードとエンジニアリング上のトレードオフ。 Deepseek V3.1 は 2 つの実用的な推論モードを公開しています。deepseek-chat(標準的なターン制チャット向けに最適化され、低レイテンシ)と deepseek-reasoner(思考の連鎖と構造化推論を優先する“思考”モード)です。

制限事項とリスク

  • ベンチマークの成熟度と再現性: 多くの性能主張は初期段階で、コミュニティ主導または選択的なものです。独立かつ標準化された評価はまだ追いついていません。(リスク: 過大主張)
  • 安全性とハルシネーション: 他の大規模 LLM と同様に、Deepseek V3.1 にはハルシネーションや有害コンテンツのリスクがあります。より強力な推論モードは、自信があるが誤っている 多段の出力を生む場合があります。重要な出力には安全レイヤーと人によるレビューを適用してください。(ハルシネーションの排除を主張するベンダーや独立ソースはありません。)
  • 推論コストとレイテンシ: 推論モードは能力向上の代わりにレイテンシを犠牲にします。大規模なコンシューマ向け推論ではコスト増につながります。オープンで安価かつ高速なモデルに対する市場の反応が不安定になり得るとの指摘もあります。

主なユースケース

  • 長文ドキュメントの分析・要約: 法務、R\&D、文献レビューなどで、128k トークンのウィンドウを活用してエンドツーエンドの要約を行います。
  • エージェントワークフローとツールオーケストレーション: 複数ステップのツール呼び出し(API、検索、計算機)を要する自動化。Deepseek V3.1 の学習後チューニングは、ここでの信頼性向上を意図しています。
  • コード生成とソフトウェア支援: 初期ベンチマーク報告では高いプログラミング性能が強調されています。ペアプログラミング、コードレビュー、生成タスクにおいて人による監督の下での利用に適しています。
  • コスト/レイテンシの選択が重要なエンタープライズ導入: 会話アシスタントには安価・高速な chat モードを、オフラインまたはプレミアムな深い推論タスクには reasoner を選択します。
  • deepseek-v3.1 API へのアクセス方法

ステップ 1: API キーの登録

cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI コンソールにサインインします。インターフェースのアクセス認証である API キーを取得します。個人センターの API トークンで“Add Token”をクリックし、トークンキー: sk-xxxxx を取得して送信します。

ステップ 2: deepseek-v3.1 API にリクエストを送信

deepseek-v3.1”エンドポイントを選択して API リクエストを送り、リクエストボディを設定します。リクエスト方法とリクエストボディは当社サイトの API ドキュメントから取得してください。利便性のため Apifox テストも提供しています。<YOUR_API_KEY> をアカウントの実際の CometAPI キーに置き換えてください。ベース URL は Chat 形式です。

質問やリクエストを content フィールドに挿入します — ここに対してモデルが応答します。API レスポンスを処理して生成された回答を取得します。

ステップ 3: 結果の取得と検証

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクのステータスと出力データを返します。

その他のモデル

O

O3 Pro

O

O3 Pro

入力:$16/M
出力:$64/M
OpenAI o3‑pro は、o3 推論モデルの「Pro」版であり、非公開の思考連鎖強化学習を用いてより長く推論し、科学、プログラミング、ビジネスといった領域で最先端のベンチマークを更新しつつ、最も信頼性の高い応答を提供するよう設計されています—同時に、API 内でウェブ検索、ファイル解析、Python 実行、視覚的推論などのツールを自律的に統合します。
L

Llama-4-Scout

L

Llama-4-Scout

入力:$0.216/M
出力:$1.152/M
Llama-4-Scout は、アシスタント型の対話と自動化に向けた汎用言語モデルです。指示追従、推論、要約、変換タスクに対応し、軽度のコード関連支援もサポートします。主な用途には、チャットのオーケストレーション、知識拡張型QA、構造化コンテンツ生成が含まれます。技術的な特長として、ツール/関数呼び出しパターンとの互換性、検索拡張型プロンプティング、およびプロダクトのワークフローへの統合に向けたスキーマ制約付き出力が挙げられます。
L

Llama-4-Maverick

L

Llama-4-Maverick

入力:$0.48/M
出力:$1.44/M
Llama-4-Maverick は、テキストの理解と生成のための汎用言語モデルです。対話型QA、要約、構造化された文書作成、基本的なコーディング支援をサポートしており、構造化された出力のオプションにも対応します。一般的な用途には、一貫したフォーマットを必要とするプロダクトアシスタント、ナレッジ検索フロントエンド、ワークフロー自動化などが含まれます。パラメータ数、コンテキストウィンドウ、モダリティ、ツールまたは関数呼び出しといった技術的詳細はディストリビューションによって異なるため、デプロイメントのドキュメントに記載された機能に従って統合してください。
M

Kimi-K2

M

Kimi-K2

入力:$0.48/M
出力:$1.92/M
- **kimi-k2-250905**: Moonshot AIのKimi K2シリーズ 0905バージョン、超長コンテキストに対応 (最大256kトークン、フロントエンドおよびTool呼び出し)。 - 🧠 強化されたTool呼び出し: 正確性100%、シームレスな統合で、複雑なタスクや統合の最適化に適しています。 - ⚡️ より効率的なパフォーマンス: TPSは60-100 (標準API)、Turboモードでは600-100まで、より高速な応答と向上した推論能力を提供し、知識カットオフは2025年中頃まで。
O

GPT-4o mini

O

GPT-4o mini

入力:$0.12/M
出力:$0.48/M
GPT-4o mini は、OpenAI が提供する人工知能モデルです。
O

GPT-4.1 nano

O

GPT-4.1 nano

入力:$0.08/M
出力:$0.32/M
GPT-4.1 nanoは、OpenAIが提供する人工知能モデルです。 gpt-4.1-nano: より大きなコンテキストウィンドウを備え—最大100万のコンテキストトークンに対応し、長文脈の理解が向上したことで、そのコンテキストをより有効に活用できます。 更新された知識カットオフは2024年6月です。 このモデルは最大1,047,576トークンのコンテキスト長をサポートします。