Home/Models/Moonshot AI/Kimi K2.5
M

Kimi K2.5

入力:$0.48/M
出力:$2.4/M
Kimi K2.5は、これまででKimiの最も知的なモデルであり、Agent、コード、視覚理解、ならびに幅広い汎用的な知的タスクにおいて、オープンソースにおけるSOTA水準の性能を達成しています。Kimi K2.5はまた、これまででKimiの最も汎用性の高いモデルで、視覚およびテキスト入力、思考モードと非思考モード、対話およびAgentタスクをサポートするネイティブなマルチモーダルアーキテクチャを備えています。
新着
商用利用
Playground
概要
機能
料金プラン
API

Kimi k2.5 の技術仕様

項目値 / 注記
モデル名 / ベンダーKimi-K2.5 (v1.0) — Moonshot AI(オープンウェイト)。
アーキテクチャの系統Mixture-of-Experts(MoE)ハイブリッド推論モデル(DeepSeek スタイルの MoE)。
パラメータ(総数 / アクティブ)≈ 1 兆の総パラメータ;~32B アクティブ/トークン(384 エキスパート、トークンごとに 8 選択と報告)。
モダリティ(入力 / 出力)入力:テキスト、画像、動画(マルチモーダル)。出力:主にテキスト(豊富な推論トレース)、必要に応じて構造化されたツール呼び出し/マルチステップ出力。
コンテキストウィンドウ256k トークン
訓練データ視覚+テキスト混在の ~15 兆トークンで継続的プレトレーニング(ベンダー報告)。トレーニングラベル/データセット構成:非公開。
モードThinking モード(内部推論トレースを返す;推奨 temp=1.0)と Instant モード(推論トレースなし;推奨 temp=0.6)。
エージェント機能Agent Swarm/並列サブエージェント:オーケストレーターは最大 100 のサブエージェントを生成し、多数のツール呼び出しを実行可能(ベンダーは ~1,500 回のツール呼び出しまで可能と主張;並列実行でランタイムを短縮)。

What Is Kimi K2.5?

Kimi K2.5 は、Moonshot AI のオープンウェイトのフラッグシップ大規模言語モデルで、追加コンポーネントを付与したテキスト専用 LLM ではなく、ネイティブなマルチモーダルかつエージェント指向のシステムとして設計されています。言語推論、視覚理解、長コンテキスト処理を単一のアーキテクチャに統合し、文書・画像・動画・ツール・エージェントを含む複雑なマルチステップタスクを可能にします。

長期的なツール拡張ワークフロー(コーディング、マルチステップ検索、文書/動画理解)向けに設計され、2 つのインタラクションモード(Thinking と Instant)および効率的な推論のためのネイティブ INT4 量子化を備えています。


Kimi K2.5 の主な機能

  1. ネイティブなマルチモーダル推論
    視覚と言語はプレトレーニング段階から共同で学習されています。Kimi K2.5 は外部のビジョンアダプタに頼ることなく、画像、スクリーンショット、図表、動画フレームを横断して推論できます。
  2. 超長コンテキストウィンドウ(256K トークン)
    コードベース全体、長大な研究論文、法的文書、複数時間にわたる会話をコンテキストの切り捨てなしに継続的に推論可能にします。
  3. Agent Swarm 実行モデル
    最大 ~100 の特化サブエージェントの動的生成と協調をサポートし、複雑なワークフローにおける並列計画、ツール使用、タスク分解を可能にします。
  4. 複数の推論モード
    • Instant モード:低遅延応答向け
    • Thinking モード:深いマルチステップ推論向け
    • Agent / Swarm モード:自律的なタスク実行とオーケストレーション向け
  5. 強力な Vision-to-Code 能力
    UI モックアップ、スクリーンショット、または動画デモを動作するフロントエンドコードへ変換でき、視覚コンテキストを用いたソフトウェアのデバッグも可能です。
  6. 効率的な MoE スケーリング
    MoE アーキテクチャはトークンごとに一部のエキスパートのみを活性化するため、トリリオン級の容量を維持しつつ、密なモデルと比べて推論コストを抑えられます。

Kimi K2.5 のベンチマーク性能

公開されているベンチマーク結果(主に推論重視の設定):

推論・知識系ベンチマーク

ベンチマークKimi K2.5GPT-5.2 (xhigh)Claude Opus 4.5Gemini 3 Pro
HLE-Full (with tools)50.245.543.245.8
AIME 202596.110092.895.0
GPQA-Diamond87.692.487.091.9
IMO-AnswerBench81.886.378.583.1

ビジョン・動画系ベンチマーク

ベンチマークKimi K2.5GPT-5.2Claude Opus 4.5Gemini 3 Pro
MMMU-Pro78.579.5*74.081.0
MathVista (Mini)90.182.8*80.2*89.8*
VideoMMMU87.486.0—88.4

*印の付いたスコアは、原資料で報告された評価設定の差異を反映しています。

総じて、Kimi K2.5 はマルチモーダル推論、長コンテキストのタスク、エージェント型ワークフローにおいて高い競争力を示しており、特に短文 QA を超えた評価で顕著です。


Kimi K2.5 と他の最前線モデルの比較

観点Kimi K2.5GPT-5.2Gemini 3 Pro
マルチモーダリティネイティブ(ビジョン+テキスト)統合モジュール統合モジュール
コンテキスト長256K tokens長(正確な上限は非公開)長(<256K が一般的)
エージェントのオーケストレーションマルチエージェント・スウォーム単一エージェント重視単一エージェント重視
モデルアクセスオープンウェイトプロプライエタリプロプライエタリ
デプロイローカル/クラウド/カスタムAPI のみAPI のみ

モデル選定ガイダンス:

  • オープンウェイトのデプロイ、研究、長コンテキスト推論、複雑なエージェントワークフローには Kimi K2.5 を選択。
  • 強力なツールエコシステムを備えた本番品質の汎用知能には GPT-5.2 を選択。
  • Google のプロダクティビティと検索スタックへの深い統合を重視するなら Gemini 3 Pro を選択。

代表的なユースケース

  1. 大規模な文書・コード解析
    リポジトリ全体、法務コーパス、研究アーカイブを単一のコンテキストウィンドウで処理。
  2. 視覚コンテキストを用いたソフトウェア開発ワークフロー
    スクリーンショット、UI 設計、記録された操作からコードを生成・リファクタリング・デバッグ。
  3. 自律エージェントのパイプライン
    計画、検索・取得、ツール呼び出し、統合までを Agent Swarm によって自動実行・オーケストレーション。
  4. エンタープライズ知識の自動化
    社内文書、スプレッドシート、PDF、プレゼン資料を解析し、構造化されたレポートやインサイトを生成。
  5. 研究とモデルのカスタマイズ
    オープンウェイトにより、微調整、アラインメント研究、実験が可能。

制約と考慮事項

  • 高いハードウェア要件:フル精度のデプロイには大量の GPU メモリが必要;本番運用では通常量子化(例:INT4)に依存。
  • Agent Swarm の成熟度:高度なマルチエージェント動作は進化途上であり、慎重なオーケストレーション設計が必要な場合があります。
  • 推論の複雑性:最適な性能は推論エンジン、量子化戦略、ルーティング構成に依存。

CometAPI 経由で Kimi k2.5 API にアクセスする方法

ステップ 1:API キーを取得

cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI コンソール にサインインします。インターフェースのアクセス認証 API キーを取得します。個人センターの API トークンで “Add Token” をクリックし、トークンキー:sk-xxxxx を取得して送信します。

cometapi-key

ステップ 2:Kimi k2.5 API にリクエストを送信

“kimi-k2.5” エンドポイントを選択して API リクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは当社サイトの API ドキュメントから取得できます。利便性のため、当社サイトは Apifox テストも提供しています。アカウントの実際の CometAPI キーに置き換えてください。ベース URL は Chat Completions です。

質問や依頼内容を content フィールドに挿入します—モデルはこの内容に応答します。API レスポンスを処理して生成された回答を取得します。

ステップ 3:結果の取得と検証

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクのステータスと出力データを返します。

よくある質問

How many parameters does Kimi K2.5 have, and what architecture does it use?

Kimi K2.5 は Mixture-of-Experts(MoE)アーキテクチャを採用し、総パラメータ数は約1兆、そのうち推論時にトークンごとにアクティブになるのは約320億です。 :contentReference[oaicite:1]{index=1}

What types of input can Kimi K2.5 handle?

Kimi K2.5 はネイティブなマルチモーダルモデルで、追加モジュールなしに内蔵の MoonViT ビジョンエンコーダーを用いて、言語入力と視覚入力(画像および動画)の両方を処理します。 :contentReference[oaicite:2]{index=2}

What is the context window size of Kimi K2.5 and why does it matter?

Kimi K2.5 は最大 256,000 トークンの拡張コンテキストウィンドウをサポートしており、大規模なドキュメントや大きなコードベース、長い対話にわたってコンテキストを保持できます。 :contentReference[oaicite:3]{index=3}

What are the main modes of operation in Kimi K2.5?

本モデルは、Instant(高速応答)、Thinking(深い推論)、および複雑なマルチステップタスクを編成するための Agent/Agent Swarm といった複数のモードをサポートします。 :contentReference[oaicite:4]{index=4}

How does the Agent Swarm feature enhance performance?

Agent Swarm は、Kimi K2.5 が最大 ~100 の特化サブエージェントを動的に生成・協調させ、複雑な目標に並行して取り組めるようにし、マルチステップのワークフローにおけるエンドツーエンドの実行時間を短縮します。 :contentReference[oaicite:5]{index=5}

Is Kimi K2.5 suitable for coding tasks involving visual specifications?

はい — Kimi K2.5 は、ビジョンと言語の推論がコアで統合されているため、UI モックアップやスクリーンショットといった視覚入力からコードを生成またはデバッグできます。 :contentReference[oaicite:6]{index=6}

What are practical limitations to consider with Kimi K2.5?

その規模(1T パラメータ)のため、フルウェイトのローカルデプロイには大量のハードウェア(RAM/VRAM で数百 GB)が必要となり、最先端の機能(Agent Swarm など)は実験的、あるいはベータ版の場合があります。 :contentReference[oaicite:7]{index=7}

Kimi K2.5の機能

Kimi K2.5のパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

Kimi K2.5の料金

Kimi K2.5の競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。Kimi K2.5がコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)
入力:$0.48/M
出力:$2.4/M
入力:$0.6/M
出力:$3/M

Kimi K2.5のサンプルコードとAPI

Kimi K2.5の包括的なサンプルコードとAPIリソースにアクセスして、統合プロセスを効率化しましょう。詳細なドキュメントでは段階的なガイダンスを提供し、プロジェクトでKimi K2.5の潜在能力を最大限に活用できるよう支援します。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

その他のモデル