Home/Models/Moonshot AI/Kimi K2.5
M

Kimi K2.5

入力:$0.48/M
出力:$2.4/M
Kimi K2.5は、これまででKimiの最も知的なモデルであり、Agent、コード、視覚理解、ならびに幅広い汎用的な知的タスクにおいて、オープンソースにおけるSOTA水準の性能を達成しています。Kimi K2.5はまた、これまででKimiの最も汎用性の高いモデルで、視覚およびテキスト入力、思考モードと非思考モード、対話およびAgentタスクをサポートするネイティブなマルチモーダルアーキテクチャを備えています。
新着
商用利用
Playground
概要
機能
料金プラン
API

Kimi k2.5 の技術仕様

項目値 / 注記
モデル名 / ベンダーKimi-K2.5 (v1.0) — Moonshot AI(オープンウェイト)。
アーキテクチャファミリーMixture-of-Experts(MoE)ハイブリッド推論モデル(DeepSeek スタイルの MoE)。
パラメータ(総数 / アクティブ)総パラメータ数は約 1 兆、トークンあたりのアクティブパラメータは約 32B(384 エキスパートのうち、各トークンごとに 8 つが選択されると報告)。
モダリティ(入力 / 出力)入力:テキスト、画像、動画(マルチモーダル)。出力:主にテキスト(豊富な推論トレース)、必要に応じて構造化されたツール呼び出し / マルチステップ出力。
コンテキストウィンドウ256k トークン
学習データ約 15 兆の混合ビジュアル + テキストトークンで継続事前学習(ベンダー報告)。学習ラベル / データセット構成:非公開。
モードThinking モード(内部推論トレースを返す;推奨 temp=1.0)と Instant モード(推論トレースなし;推奨 temp=0.6)。
エージェント機能Agent Swarm / 並列サブエージェント:オーケストレーターは最大 100 のサブエージェントを生成でき、多数のツール呼び出しを実行可能(ベンダーは最大約 1,500 回のツール呼び出しを主張;並列実行により実行時間を短縮)。

Kimi K2.5 とは?

Kimi K2.5 は、Moonshot AI のオープンウェイト版フラッグシップ大規模言語モデルであり、追加コンポーネントを備えたテキスト専用 LLM ではなく、ネイティブなマルチモーダルかつエージェント指向のシステムとして設計されています。単一のアーキテクチャに言語推論、視覚理解、長文コンテキスト処理を統合し、ドキュメント、画像、動画、ツール、エージェントを伴う複雑なマルチステップタスクを可能にします。

長期的なツール拡張ワークフロー(コーディング、マルチステップ検索、文書 / 動画理解)向けに設計されており、2 つの対話モード(Thinking と Instant)と、効率的な推論のためのネイティブ INT4 量子化を備えています。


Kimi K2.5 の主な機能

  1. ネイティブなマルチモーダル推論
    視覚と言語は、事前学習の段階から共同で学習されます。Kimi K2.5 は、外部のビジョンアダプターに依存せずに、画像、スクリーンショット、図表、動画フレームをまたいで推論できます。
  2. 超長コンテキストウィンドウ(256K トークン)
    コンテキスト切り捨てなしで、コードベース全体、長い研究論文、法的文書、または数時間にわたる長い会話に対する持続的な推論を可能にします。
  3. Agent Swarm 実行モデル
    最大 ~100 個の特化型サブエージェントの動的な生成と連携をサポートし、複雑なワークフローに対して並列的な計画、ツール利用、タスク分解を可能にします。
  4. 複数の推論モード
    • Instant モード:低レイテンシ応答向け
    • Thinking モード:深いマルチステップ推論向け
    • Agent / Swarm モード:自律的なタスク実行とオーケストレーション向け
  5. 高い Vision-to-Code 能力
    UI モックアップ、スクリーンショット、動画デモを動作するフロントエンドコードに変換でき、視覚的コンテキストを用いたソフトウェアのデバッグも可能です。
  6. 効率的な MoE スケーリング
    MoE アーキテクチャはトークンごとに一部のエキスパートのみを有効化するため、高密度モデルと比べて推論コストを抑えつつ、1 兆パラメータ級の容量を実現します。

Kimi K2.5 のベンチマーク性能

公開されているベンチマーク結果(主に推論重視設定):

推論・知識ベンチマーク

ベンチマークKimi K2.5GPT-5.2 (xhigh)Claude Opus 4.5Gemini 3 Pro
HLE-Full(ツールあり)50.245.543.245.8
AIME 202596.110092.895.0
GPQA-Diamond87.692.487.091.9
IMO-AnswerBench81.886.378.583.1

ビジョン・動画ベンチマーク

ベンチマークKimi K2.5GPT-5.2Claude Opus 4.5Gemini 3 Pro
MMMU-Pro78.579.5*74.081.0
MathVista (Mini)90.182.8*80.2*89.8*
VideoMMMU87.486.0—88.4

マーク付きスコアは、元ソースで報告された評価設定の違いを反映しています。

総合すると、Kimi K2.5 は、特に短文 QA を超えた評価において、マルチモーダル推論、長文コンテキストタスク、エージェント型ワークフローで高い競争力を示しています。


Kimi K2.5 と他の最先端モデルの比較

次元Kimi K2.5GPT-5.2Gemini 3 Pro
マルチモーダル性ネイティブ(視覚 + テキスト)統合モジュール統合モジュール
コンテキスト長256K トークン長い(正確な上限は非公開)長い(通常は <256K)
エージェント統制マルチエージェント swarm単一エージェント重視単一エージェント重視
モデルアクセスオープンウェイトプロプライエタリプロプライエタリ
デプロイローカル / クラウド / カスタムAPI のみAPI のみ

モデル選定ガイド:

  • オープンウェイトでのデプロイ、研究、長文コンテキスト推論、または複雑なエージェントワークフローには Kimi K2.5 を選んでください。
  • 強力なツールエコシステムを備えた本番品質の汎用知能には GPT-5.2 を選んでください。
  • Google の生産性ツールや検索基盤との深い統合には Gemini 3 Pro を選んでください。

代表的なユースケース

  1. 大規模な文書およびコード解析
    単一のコンテキストウィンドウ内で、リポジトリ全体、法務コーパス、研究アーカイブ全体を処理します。
  2. ビジュアルソフトウェアエンジニアリングワークフロー
    スクリーンショット、UI デザイン、記録された操作を用いて、コードの生成、リファクタリング、デバッグを行います。
  3. 自律型エージェントパイプライン
    Agent Swarm を通じて、計画、検索、ツール呼び出し、統合を含むエンドツーエンドのワークフローを実行します。
  4. エンタープライズ知識の自動化
    社内文書、スプレッドシート、PDF、プレゼンテーションを分析し、構造化されたレポートやインサイトを生成します。
  5. 研究およびモデルのカスタマイズ
    オープンなモデルウェイトにより、ファインチューニング、アラインメント研究、実験が可能です。

制限事項と考慮点

  • 高いハードウェア要件:フル精度でのデプロイには大容量の GPU メモリが必要であり、本番利用では通常、量子化(例:INT4)に依存します。
  • Agent Swarm の成熟度:高度なマルチエージェント挙動はまだ発展途上であり、慎重なオーケストレーション設計が必要になる場合があります。
  • 推論の複雑性:最適な性能は、推論エンジン、量子化戦略、ルーティング構成に依存します。

CometAPI 経由で Kimi k2.5 API にアクセスする方法

ステップ 1:API キーに登録する

cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI コンソール にサインインします。インターフェースのアクセス認証情報である API キーを取得します。個人センターの API token にある「Add Token」をクリックし、トークンキー sk-xxxxx を取得して送信します。

cometapi-key

ステップ 2:Kimi k2.5 API にリクエストを送信する

API リクエストを送信するには「kimi-k2.5」エンドポイントを選択し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、当社ウェブサイトの API ドキュメントから取得できます。当社ウェブサイトでは、利便性のために Apifox テストも提供しています。アカウントの実際の CometAPI キーに置き換えてください。base url は Chat Completions です。

質問またはリクエストを content フィールドに入力してください。モデルはこれに応答します。API レスポンスを処理して、生成された回答を取得します。

ステップ 3:結果を取得して検証する

API レスポンスを処理して、生成された回答を取得します。処理後、API はタスクのステータスと出力データを返します。

よくある質問

How many parameters does Kimi K2.5 have, and what architecture does it use?

Kimi K2.5 は Mixture-of-Experts(MoE)アーキテクチャを採用し、総計で ~1兆のパラメータを備え、推論時にはトークンごとに約320億がアクティブになります。 :contentReference[oaicite:1]{index=1}

What types of input can Kimi K2.5 handle?

Kimi K2.5 は、追加モジュールなしで内蔵の MoonViT ビジョンエンコーダーを使用し、言語と視覚入力(画像および動画)の両方を処理するネイティブなマルチモーダルモデルです。 :contentReference[oaicite:2]{index=2}

What is the context window size of Kimi K2.5 and why does it matter?

Kimi K2.5 は最大 256,000 トークンの拡張コンテキストウィンドウをサポートしており、大規模なドキュメント、広範なコードベース、または長い会話にわたってコンテキストを維持できます。 :contentReference[oaicite:3]{index=3}

What are the main modes of operation in Kimi K2.5?

このモデルは、Instant(高速応答)、Thinking(深い推論)、および複雑な複数ステップのタスクをオーケストレーションするための Agent/Agent Swarm モードなど、複数のモードをサポートしています。 :contentReference[oaicite:4]{index=4}

How does the Agent Swarm feature enhance performance?

Agent Swarm は、Kimi K2.5 が最大 ~100 の特化サブエージェントを動的に生成・調整し、複雑な目標に並行して取り組めるようにし、マルチステップのワークフローにおけるエンドツーエンドの実行時間を短縮します。 :contentReference[oaicite:5]{index=5}

Is Kimi K2.5 suitable for coding tasks involving visual specifications?

はい — Kimi K2.5 は、ビジョンと言語の推論がコアで統合されているため、UI モックアップやスクリーンショットなどの視覚入力からコードを生成またはデバッグできます。 :contentReference[oaicite:6]{index=6}

What are practical limitations to consider with Kimi K2.5?

その規模(1T パラメータ)のため、フルウェイトのローカル展開には大量のハードウェア(RAM/VRAM が数百 GB)を要し、最も高度な機能(Agent Swarm など)は実験的またはベータである可能性があります。 :contentReference[oaicite:7]{index=7}

Kimi K2.5の機能

Kimi K2.5のパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

Kimi K2.5の料金

Kimi K2.5の競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。Kimi K2.5がコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$0.48/M
出力:$2.4/M
入力:$0.6/M
出力:$3/M
-20%

Kimi K2.5のサンプルコードとAPI

Kimi K2.5の包括的なサンプルコードとAPIリソースにアクセスして、統合プロセスを効率化しましょう。詳細なドキュメントでは段階的なガイダンスを提供し、プロジェクトでKimi K2.5の潜在能力を最大限に活用できるよう支援します。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

その他のモデル