Kimi k2.5 の技術仕様
| 項目 | 値 / 注記 |
|---|---|
| モデル名 / ベンダー | Kimi-K2.5 (v1.0) — Moonshot AI(オープンウェイト)。 |
| アーキテクチャファミリー | Mixture-of-Experts(MoE)ハイブリッド推論モデル(DeepSeek スタイルの MoE)。 |
| パラメータ(総数 / アクティブ) | 総パラメータ数は約 1 兆、トークンあたりのアクティブパラメータは約 32B(384 エキスパートのうち、各トークンごとに 8 つが選択されると報告)。 |
| モダリティ(入力 / 出力) | 入力:テキスト、画像、動画(マルチモーダル)。出力:主にテキスト(豊富な推論トレース)、必要に応じて構造化されたツール呼び出し / マルチステップ出力。 |
| コンテキストウィンドウ | 256k トークン |
| 学習データ | 約 15 兆の混合ビジュアル + テキストトークンで継続事前学習(ベンダー報告)。学習ラベル / データセット構成:非公開。 |
| モード | Thinking モード(内部推論トレースを返す;推奨 temp=1.0)と Instant モード(推論トレースなし;推奨 temp=0.6)。 |
| エージェント機能 | Agent Swarm / 並列サブエージェント:オーケストレーターは最大 100 のサブエージェントを生成でき、多数のツール呼び出しを実行可能(ベンダーは最大約 1,500 回のツール呼び出しを主張;並列実行により実行時間を短縮)。 |
Kimi K2.5 とは?
Kimi K2.5 は、Moonshot AI のオープンウェイト版フラッグシップ大規模言語モデルであり、追加コンポーネントを備えたテキスト専用 LLM ではなく、ネイティブなマルチモーダルかつエージェント指向のシステムとして設計されています。単一のアーキテクチャに言語推論、視覚理解、長文コンテキスト処理を統合し、ドキュメント、画像、動画、ツール、エージェントを伴う複雑なマルチステップタスクを可能にします。
長期的なツール拡張ワークフロー(コーディング、マルチステップ検索、文書 / 動画理解)向けに設計されており、2 つの対話モード(Thinking と Instant)と、効率的な推論のためのネイティブ INT4 量子化を備えています。
Kimi K2.5 の主な機能
- ネイティブなマルチモーダル推論
視覚と言語は、事前学習の段階から共同で学習されます。Kimi K2.5 は、外部のビジョンアダプターに依存せずに、画像、スクリーンショット、図表、動画フレームをまたいで推論できます。 - 超長コンテキストウィンドウ(256K トークン)
コンテキスト切り捨てなしで、コードベース全体、長い研究論文、法的文書、または数時間にわたる長い会話に対する持続的な推論を可能にします。 - Agent Swarm 実行モデル
最大 ~100 個の特化型サブエージェントの動的な生成と連携をサポートし、複雑なワークフローに対して並列的な計画、ツール利用、タスク分解を可能にします。 - 複数の推論モード
- Instant モード:低レイテンシ応答向け
- Thinking モード:深いマルチステップ推論向け
- Agent / Swarm モード:自律的なタスク実行とオーケストレーション向け
- 高い Vision-to-Code 能力
UI モックアップ、スクリーンショット、動画デモを動作するフロントエンドコードに変換でき、視覚的コンテキストを用いたソフトウェアのデバッグも可能です。 - 効率的な MoE スケーリング
MoE アーキテクチャはトークンごとに一部のエキスパートのみを有効化するため、高密度モデルと比べて推論コストを抑えつつ、1 兆パラメータ級の容量を実現します。
Kimi K2.5 のベンチマーク性能
公開されているベンチマーク結果(主に推論重視設定):
推論・知識ベンチマーク
| ベンチマーク | Kimi K2.5 | GPT-5.2 (xhigh) | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| HLE-Full(ツールあり) | 50.2 | 45.5 | 43.2 | 45.8 |
| AIME 2025 | 96.1 | 100 | 92.8 | 95.0 |
| GPQA-Diamond | 87.6 | 92.4 | 87.0 | 91.9 |
| IMO-AnswerBench | 81.8 | 86.3 | 78.5 | 83.1 |
ビジョン・動画ベンチマーク
| ベンチマーク | Kimi K2.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMMU-Pro | 78.5 | 79.5* | 74.0 | 81.0 |
| MathVista (Mini) | 90.1 | 82.8* | 80.2* | 89.8* |
| VideoMMMU | 87.4 | 86.0 | — | 88.4 |
マーク付きスコアは、元ソースで報告された評価設定の違いを反映しています。
総合すると、Kimi K2.5 は、特に短文 QA を超えた評価において、マルチモーダル推論、長文コンテキストタスク、エージェント型ワークフローで高い競争力を示しています。
Kimi K2.5 と他の最先端モデルの比較
| 次元 | Kimi K2.5 | GPT-5.2 | Gemini 3 Pro |
|---|---|---|---|
| マルチモーダル性 | ネイティブ(視覚 + テキスト) | 統合モジュール | 統合モジュール |
| コンテキスト長 | 256K トークン | 長い(正確な上限は非公開) | 長い(通常は <256K) |
| エージェント統制 | マルチエージェント swarm | 単一エージェント重視 | 単一エージェント重視 |
| モデルアクセス | オープンウェイト | プロプライエタリ | プロプライエタリ |
| デプロイ | ローカル / クラウド / カスタム | API のみ | API のみ |
モデル選定ガイド:
- オープンウェイトでのデプロイ、研究、長文コンテキスト推論、または複雑なエージェントワークフローには Kimi K2.5 を選んでください。
- 強力なツールエコシステムを備えた本番品質の汎用知能には GPT-5.2 を選んでください。
- Google の生産性ツールや検索基盤との深い統合には Gemini 3 Pro を選んでください。
代表的なユースケース
- 大規模な文書およびコード解析
単一のコンテキストウィンドウ内で、リポジトリ全体、法務コーパス、研究アーカイブ全体を処理します。 - ビジュアルソフトウェアエンジニアリングワークフロー
スクリーンショット、UI デザイン、記録された操作を用いて、コードの生成、リファクタリング、デバッグを行います。 - 自律型エージェントパイプライン
Agent Swarm を通じて、計画、検索、ツール呼び出し、統合を含むエンドツーエンドのワークフローを実行します。 - エンタープライズ知識の自動化
社内文書、スプレッドシート、PDF、プレゼンテーションを分析し、構造化されたレポートやインサイトを生成します。 - 研究およびモデルのカスタマイズ
オープンなモデルウェイトにより、ファインチューニング、アラインメント研究、実験が可能です。
制限事項と考慮点
- 高いハードウェア要件:フル精度でのデプロイには大容量の GPU メモリが必要であり、本番利用では通常、量子化(例:INT4)に依存します。
- Agent Swarm の成熟度:高度なマルチエージェント挙動はまだ発展途上であり、慎重なオーケストレーション設計が必要になる場合があります。
- 推論の複雑性:最適な性能は、推論エンジン、量子化戦略、ルーティング構成に依存します。
CometAPI 経由で Kimi k2.5 API にアクセスする方法
ステップ 1:API キーに登録する
cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI コンソール にサインインします。インターフェースのアクセス認証情報である API キーを取得します。個人センターの API token にある「Add Token」をクリックし、トークンキー sk-xxxxx を取得して送信します。

ステップ 2:Kimi k2.5 API にリクエストを送信する
API リクエストを送信するには「kimi-k2.5」エンドポイントを選択し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、当社ウェブサイトの API ドキュメントから取得できます。当社ウェブサイトでは、利便性のために Apifox テストも提供しています。アカウントの実際の CometAPI キーに置き換えてください。base url は Chat Completions です。
質問またはリクエストを content フィールドに入力してください。モデルはこれに応答します。API レスポンスを処理して、生成された回答を取得します。
ステップ 3:結果を取得して検証する
API レスポンスを処理して、生成された回答を取得します。処理後、API はタスクのステータスと出力データを返します。