Kimi k2.5 の技術仕様
| 項目 | 値 / 注記 |
|---|---|
| モデル名 / ベンダー | Kimi-K2.5 (v1.0) — Moonshot AI(オープンウェイト)。 |
| アーキテクチャの系統 | Mixture-of-Experts(MoE)ハイブリッド推論モデル(DeepSeek スタイルの MoE)。 |
| パラメータ(総数 / アクティブ) | ≈ 1 兆の総パラメータ;~32B アクティブ/トークン(384 エキスパート、トークンごとに 8 選択と報告)。 |
| モダリティ(入力 / 出力) | 入力:テキスト、画像、動画(マルチモーダル)。出力:主にテキスト(豊富な推論トレース)、必要に応じて構造化されたツール呼び出し/マルチステップ出力。 |
| コンテキストウィンドウ | 256k トークン |
| 訓練データ | 視覚+テキスト混在の ~15 兆トークンで継続的プレトレーニング(ベンダー報告)。トレーニングラベル/データセット構成:非公開。 |
| モード | Thinking モード(内部推論トレースを返す;推奨 temp=1.0)と Instant モード(推論トレースなし;推奨 temp=0.6)。 |
| エージェント機能 | Agent Swarm/並列サブエージェント:オーケストレーターは最大 100 のサブエージェントを生成し、多数のツール呼び出しを実行可能(ベンダーは ~1,500 回のツール呼び出しまで可能と主張;並列実行でランタイムを短縮)。 |
What Is Kimi K2.5?
Kimi K2.5 は、Moonshot AI のオープンウェイトのフラッグシップ大規模言語モデルで、追加コンポーネントを付与したテキスト専用 LLM ではなく、ネイティブなマルチモーダルかつエージェント指向のシステムとして設計されています。言語推論、視覚理解、長コンテキスト処理を単一のアーキテクチャに統合し、文書・画像・動画・ツール・エージェントを含む複雑なマルチステップタスクを可能にします。
長期的なツール拡張ワークフロー(コーディング、マルチステップ検索、文書/動画理解)向けに設計され、2 つのインタラクションモード(Thinking と Instant)および効率的な推論のためのネイティブ INT4 量子化を備えています。
Kimi K2.5 の主な機能
- ネイティブなマルチモーダル推論
視覚と言語はプレトレーニング段階から共同で学習されています。Kimi K2.5 は外部のビジョンアダプタに頼ることなく、画像、スクリーンショット、図表、動画フレームを横断して推論できます。 - 超長コンテキストウィンドウ(256K トークン)
コードベース全体、長大な研究論文、法的文書、複数時間にわたる会話をコンテキストの切り捨てなしに継続的に推論可能にします。 - Agent Swarm 実行モデル
最大 ~100 の特化サブエージェントの動的生成と協調をサポートし、複雑なワークフローにおける並列計画、ツール使用、タスク分解を可能にします。 - 複数の推論モード
- Instant モード:低遅延応答向け
- Thinking モード:深いマルチステップ推論向け
- Agent / Swarm モード:自律的なタスク実行とオーケストレーション向け
- 強力な Vision-to-Code 能力
UI モックアップ、スクリーンショット、または動画デモを動作するフロントエンドコードへ変換でき、視覚コンテキストを用いたソフトウェアのデバッグも可能です。 - 効率的な MoE スケーリング
MoE アーキテクチャはトークンごとに一部のエキスパートのみを活性化するため、トリリオン級の容量を維持しつつ、密なモデルと比べて推論コストを抑えられます。
Kimi K2.5 のベンチマーク性能
公開されているベンチマーク結果(主に推論重視の設定):
推論・知識系ベンチマーク
| ベンチマーク | Kimi K2.5 | GPT-5.2 (xhigh) | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| HLE-Full (with tools) | 50.2 | 45.5 | 43.2 | 45.8 |
| AIME 2025 | 96.1 | 100 | 92.8 | 95.0 |
| GPQA-Diamond | 87.6 | 92.4 | 87.0 | 91.9 |
| IMO-AnswerBench | 81.8 | 86.3 | 78.5 | 83.1 |
ビジョン・動画系ベンチマーク
| ベンチマーク | Kimi K2.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMMU-Pro | 78.5 | 79.5* | 74.0 | 81.0 |
| MathVista (Mini) | 90.1 | 82.8* | 80.2* | 89.8* |
| VideoMMMU | 87.4 | 86.0 | — | 88.4 |
*印の付いたスコアは、原資料で報告された評価設定の差異を反映しています。
総じて、Kimi K2.5 はマルチモーダル推論、長コンテキストのタスク、エージェント型ワークフローにおいて高い競争力を示しており、特に短文 QA を超えた評価で顕著です。
Kimi K2.5 と他の最前線モデルの比較
| 観点 | Kimi K2.5 | GPT-5.2 | Gemini 3 Pro |
|---|---|---|---|
| マルチモーダリティ | ネイティブ(ビジョン+テキスト) | 統合モジュール | 統合モジュール |
| コンテキスト長 | 256K tokens | 長(正確な上限は非公開) | 長(<256K が一般的) |
| エージェントのオーケストレーション | マルチエージェント・スウォーム | 単一エージェント重視 | 単一エージェント重視 |
| モデルアクセス | オープンウェイト | プロプライエタリ | プロプライエタリ |
| デプロイ | ローカル/クラウド/カスタム | API のみ | API のみ |
モデル選定ガイダンス:
- オープンウェイトのデプロイ、研究、長コンテキスト推論、複雑なエージェントワークフローには Kimi K2.5 を選択。
- 強力なツールエコシステムを備えた本番品質の汎用知能には GPT-5.2 を選択。
- Google のプロダクティビティと検索スタックへの深い統合を重視するなら Gemini 3 Pro を選択。
代表的なユースケース
- 大規模な文書・コード解析
リポジトリ全体、法務コーパス、研究アーカイブを単一のコンテキストウィンドウで処理。 - 視覚コンテキストを用いたソフトウェア開発ワークフロー
スクリーンショット、UI 設計、記録された操作からコードを生成・リファクタリング・デバッグ。 - 自律エージェントのパイプライン
計画、検索・取得、ツール呼び出し、統合までを Agent Swarm によって自動実行・オーケストレーション。 - エンタープライズ知識の自動化
社内文書、スプレッドシート、PDF、プレゼン資料を解析し、構造化されたレポートやインサイトを生成。 - 研究とモデルのカスタマイズ
オープンウェイトにより、微調整、アラインメント研究、実験が可能。
制約と考慮事項
- 高いハードウェア要件:フル精度のデプロイには大量の GPU メモリが必要;本番運用では通常量子化(例:INT4)に依存。
- Agent Swarm の成熟度:高度なマルチエージェント動作は進化途上であり、慎重なオーケストレーション設計が必要な場合があります。
- 推論の複雑性:最適な性能は推論エンジン、量子化戦略、ルーティング構成に依存。
CometAPI 経由で Kimi k2.5 API にアクセスする方法
ステップ 1:API キーを取得
cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI コンソール にサインインします。インターフェースのアクセス認証 API キーを取得します。個人センターの API トークンで “Add Token” をクリックし、トークンキー:sk-xxxxx を取得して送信します。

ステップ 2:Kimi k2.5 API にリクエストを送信
“kimi-k2.5” エンドポイントを選択して API リクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは当社サイトの API ドキュメントから取得できます。利便性のため、当社サイトは Apifox テストも提供しています。アカウントの実際の CometAPI キーに置き換えてください。ベース URL は Chat Completions です。
質問や依頼内容を content フィールドに挿入します—モデルはこの内容に応答します。API レスポンスを処理して生成された回答を取得します。
ステップ 3:結果の取得と検証
API レスポンスを処理して生成された回答を取得します。処理後、API はタスクのステータスと出力データを返します。