Home/Models/Moonshot AI/Kimi K2.5
M

Kimi K2.5

輸入:$0.48/M
輸出:$2.4/M
Kimi K2.5 是 Kimi 迄今最智能的模型,在 Agent、代码、视觉理解以及一系列通用智能任务上实现了开源 SoTA 性能。Kimi K2.5 也是 Kimi 迄今功能最全面的模型,采用原生多模态架构,支持视觉与文本输入、思考与非思考模式,以及对话与 Agent 任务。
新
商用
Playground
概览
功能亮点
定价
API

Kimi k2.5 的技术规范

ItemValue / notes
Model name / vendorKimi-K2.5 (v1.0) — Moonshot AI (开放权重,open-weights)。
Architecture family专家混合(Mixture-of-Experts, MoE)混合推理模型(DeepSeek 风格 MoE)。
Parameters (total / active)≈ 1 万亿总参数;每个 token 激活约 ~32B(据报共有 384 个专家,每个 token 选择 8 个)。
Modalities (input / output)输入:文本、图像、视频(多模态)。输出:以文本为主(丰富的推理轨迹),可选结构化工具调用/多步输出。
Context window256k tokens
Training data持续预训练于约 15 万亿混合视觉+文本 tokens(厂商报告)。训练标签/数据集构成:未披露。
ModesThinking 模式(返回内部推理轨迹;建议 temp=1.0)与 Instant 模式(无推理轨迹;建议 temp=0.6)。
Agent featuresAgent Swarm/并行子代理:编排器可生成最多 100 个子代理并执行大量工具调用(厂商称最多约 ~1,500 次工具调用;并行执行可降低运行时间)。

什么是 Kimi K2.5?

Kimi K2.5 是 Moonshot AI 的开放权重旗舰大语言模型,被设计为一个原生多模态、面向代理的系统,而非在纯文本 LLM 上叠加外部组件。它将语言推理、视觉理解与长上下文处理整合于单一架构中,能够处理涉及文档、图像、视频、工具与代理的复杂多步任务。

它面向长时程、工具增强的工作流(编码、多步检索、文档/视频理解),并提供两种交互模式(Thinking 与 Instant),同时原生支持 INT4 量化以提升推理效率。


Kimi K2.5 的核心特性

  1. 原生多模态推理
    自预训练起即联合训练视觉与语言。Kimi K2.5 可在不依赖外部视觉适配器的情况下,跨图像、截图、图表与视频帧进行推理。
  2. 超长上下文窗口(256K tokens)
    可对完整代码库、长篇论文、法律文档或数小时的扩展对话进行持续推理,无需截断上下文。
  3. Agent Swarm 执行模型
    支持动态创建与协调多达约 100 个专业化子代理,实现并行规划、工具使用与任务分解,适配复杂工作流。
  4. 多种推理模式
    • Instant 模式:低延迟响应
    • Thinking 模式:深度多步推理
    • Agent/Swarm 模式:自主任务执行与编排
  5. 强大的视觉到代码能力
    能将 UI 原型、截图或视频演示转换为可运行的前端代码,并结合视觉上下文进行软件调试。
  6. 高效的 MoE 扩展
    MoE 架构按 token 激活部分专家,使万亿规模容量在推理成本上相较稠密模型更可控。

Kimi K2.5 的基准表现

公开报告的基准结果(以推理为主的场景):

推理与知识基准

BenchmarkKimi K2.5GPT-5.2 (xhigh)Claude Opus 4.5Gemini 3 Pro
HLE-Full (with tools)50.245.543.245.8
AIME 202596.110092.895.0
GPQA-Diamond87.692.487.091.9
IMO-AnswerBench81.886.378.583.1

视觉与视频基准

BenchmarkKimi K2.5GPT-5.2Claude Opus 4.5Gemini 3 Pro
MMMU-Pro78.579.5*74.081.0
MathVista (Mini)90.182.8*80.2*89.8*
VideoMMMU87.486.0—88.4

带 * 的分数反映了原始来源报告的评估设置差异。

总体而言,Kimi K2.5 在多模态推理、长上下文任务与面向代理的工作流中展现出强劲竞争力,尤其是在超越短问答形式的评估中表现突出。


Kimi K2.5 与其他前沿模型对比

DimensionKimi K2.5GPT-5.2Gemini 3 Pro
Multimodality原生(视觉 + 文本)集成模块集成模块
Context length256K tokens长(具体上限未披露)长(<256K 典型)
Agent orchestration多代理群(Swarm)单代理为主单代理为主
Model access开放权重专有专有
Deployment本地/云/自定义仅 API仅 API

模型选择建议:

  • 选择 Kimi K2.5:当需要开放权重部署、研究、长上下文推理或复杂代理工作流时。
  • 选择 GPT-5.2:当需要面向生产的通用智能与成熟工具生态时。
  • 选择 Gemini 3 Pro:当需要与 Google 的生产力与搜索体系深度集成时。

典型用例

  1. 大规模文档与代码分析
    在单个上下文窗口中处理完整仓库、法律语料或研究档案。
  2. 视觉驱动的软件工程工作流
    基于截图、UI 设计或录屏生成、重构或调试代码。
  3. 自主代理流水线
    通过代理群进行规划、检索、工具调用与综述,执行端到端工作流。
  4. 企业知识自动化
    分析内部文档、表格、PDF 与演示文稿,生成结构化报告与洞见。
  5. 研究与模型定制
    借助开放权重开展微调、对齐研究与实验。

局限与注意事项

  • 硬件需求高:全精度部署需要大量 GPU 显存;生产环境通常采用量化(如 INT4)。
  • Agent Swarm 成熟度:高级多代理行为仍在演进中,可能需要精心设计编排方案。
  • 推理复杂度:最佳性能依赖推理引擎、量化策略与路由配置。

如何通过 CometAPI 访问 Kimi k2.5 API

步骤 1:注册获取 API Key

登录 cometapi.com。如果您还不是我们的用户,请先注册。进入 CometAPI 控制台。获取接口的访问凭证 API key。在个人中心的 API token 处点击“Add Token”,获得 token key:sk-xxxxx 并提交。

cometapi-key

步骤 2:向 Kimi k2.5 API 发送请求

选择 “kimi-k2.5” 端点发送 API 请求并设置请求体。请求方法与请求体可从我们网站的 API 文档获取。我们的网站也提供 Apifox 测试以便使用。将您账户中的实际 CometAPI key 替换到请求中。基础 URL 为 Chat Completions。

将您的问题或请求填入 content 字段——模型将对该字段作出响应。处理 API 响应以获取生成的答案。

步骤 3:获取并验证结果

处理 API 响应以获得生成的答案。处理完成后,API 会返回任务状态与输出数据。

常见问题

How many parameters does Kimi K2.5 have, and what architecture does it use?

Kimi K2.5 采用 Mixture-of-Experts(MoE)架构,总参数量约为 ~1 trillion 个参数,其中在推理时每个 token 激活约 32 billion 个参数。 :contentReference[oaicite:1]{index=1}

What types of input can Kimi K2.5 handle?

Kimi K2.5 是原生多模态模型,可在无需附加模块的情况下处理语言与视觉输入(图像和视频),使用其内置的 MoonViT 视觉编码器。 :contentReference[oaicite:2]{index=2}

What is the context window size of Kimi K2.5 and why does it matter?

Kimi K2.5 支持最多 256,000 tokens 的扩展上下文窗口,使其能够在大型文档、庞大代码库或长对话中保持上下文。 :contentReference[oaicite:3]{index=3}

What are the main modes of operation in Kimi K2.5?

该模型支持多种模式,包括 Instant(快速响应)、Thinking(深度推理)以及 Agent/Agent Swarm 模式,用于编排复杂的多步骤任务。 :contentReference[oaicite:4]{index=4}

How does the Agent Swarm feature enhance performance?

Agent Swarm 使 Kimi K2.5 能够动态生成并协同最多 ~100 个专门的子代理并行处理复杂目标,从而减少多步骤工作流的端到端运行时间。 :contentReference[oaicite:5]{index=5}

Is Kimi K2.5 suitable for coding tasks involving visual specifications?

是的 — Kimi K2.5 能够根据 UI 原型或截图等视觉输入生成或调试代码,因为其视觉与语言推理在核心层面实现了集成。 :contentReference[oaicite:6]{index=6}

What are practical limitations to consider with Kimi K2.5?

由于其规模(1T 参数),完整权重的本地部署需要大量硬件(数百 GBs 的 RAM/VRAM),且其最先进的功能(如 Agent Swarm)可能处于实验或测试阶段。 :contentReference[oaicite:7]{index=7}

Kimi K2.5 的功能

了解 Kimi K2.5 的核心能力,帮助提升性能与可用性,并改善整体体验。

Kimi K2.5 的定价

查看 Kimi K2.5 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)
輸入:$0.48/M
輸出:$2.4/M
輸入:$0.6/M
輸出:$3/M

Kimi K2.5 的示例代码与 API

获取完整示例代码与 API 资源,简化 Kimi K2.5 的集成流程,我们提供逐步指导,助你发挥模型潜能。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

更多模型