Home/Models/MiniMax/MiniMax M2.5
M

MiniMax M2.5

輸入:$0.24/M
輸出:$0.96/M
MiniMax-M2.5 是一款专为真实世界生产力而设计的 SOTA 大语言模型。在多样且复杂的真实世界数字化工作环境中训练,M2.5 在 M2.1 的编码专长基础上拓展至通用办公工作,能够熟练生成并操作 Word、Excel 和 Powerpoint 文件,在多种软件环境之间进行上下文切换,并与不同的智能体和人类团队协作工作。
新
商用
Playground
概览
功能亮点
定价
API

MiniMax‑M2.5 的技术规格

字段说明 / 数值
模型名称MiniMax-M2.5(生产版本,2026 年 2 月 12 日)
架构混合专家(MoE)Transformer(M2 家族)
总参数量~2300 亿(MoE 总容量)
激活参数量(单次推理)~100 亿在每次推理时被激活(稀疏激活)
输入类型文本和代码(原生支持多文件代码上下文)、工具调用 / API 工具接口(代理式工作流)
输出类型文本、结构化输出(JSON/工具调用)、代码(多文件)、Office 产物(通过工具链生成 PPT/Excel/Word)
变体 / 模式M2.5(高精度/高能力)和 M2.5-Lightning(同等质量、更低延迟 / 更高 TPS)

什么是 MiniMax‑M2.5?

MiniMax‑M2.5 是 M2.x 系列的旗舰更新,重点面向真实世界生产力和代理式工作流。此次发布强调更强的任务拆解能力、工具/搜索集成、代码生成保真度,以及在处理扩展型多步问题时更高的 token 效率。该模型提供标准版和低延迟的“lightning”变体,以适配不同的部署权衡。


MiniMax‑M2.5 的主要特性

  1. **代理优先设计:**改进了多阶段任务的规划与工具编排能力(搜索、工具调用、代码执行 harness)。
  2. **Token 效率:**据称相比 M2.1,每项任务的 token 消耗有所降低,从而降低长工作流的端到端成本。
  3. **更快的端到端完成速度:**提供方基准测试报告称,在代理式编码评估中,平均任务完成时间比 M2.1 快约 ~37%。
  4. **强大的代码理解能力:**基于多语言代码语料进行调优,可稳健支持跨语言重构、多文件编辑以及仓库级推理。
  5. **高吞吐服务能力:**面向具备高 token/sec 特征的生产部署;适用于持续运行的代理工作负载。
  6. **延迟与能力的权衡变体:**M2.5‑lightning 以更低算力和更小占用提供更低延迟,适合交互式场景。

基准性能(报告值)

提供方报告的亮点——代表性指标(发布版):

  • SWE‑Bench Verified:****80.2%(在提供方基准 harness 上报告的通过率)
  • **BrowseComp(搜索与工具使用):**76.3%
  • **Multi‑SWE‑Bench(多语言编码):**51.3%
  • 相对速度 / 效率:在提供方测试中,M2.5 在 SWE‑Bench Verified 上的端到端完成速度比 M2.1 快 ~37%;在某些评估中,搜索/工具轮次数减少约 20%。

**解读:**这些数据表明,在所引用的基准上,M2.5 与行业领先的代理式/代码模型相当或接近。相关基准由提供方报告,并被多个生态媒体复现——除非经过独立复现,否则应将其视为在提供方 harness/配置下测得的结果。


MiniMax‑M2.5 与同类模型对比(简要)

维度MiniMax‑M2.5MiniMax M2.1同类示例(Anthropic Opus 4.6)
SWE‑Bench Verified80.2%~71–76%(因 harness 不同而异)可比(Opus 报告结果接近顶尖)
代理式任务速度比 M2.1 快 37%(提供方测试)基线在特定 harness 上速度相近
Token 效率相比 M2.1 有所提升(~每项任务所需 token 更少)token 使用更高具有竞争力
最佳用途生产级代理式工作流、编码流水线同一家族的更早代模型擅长多模态推理和安全调优任务

**提供方说明:**对比数据来源于发布材料和厂商基准测试报告。细微差异可能对 harness、工具链和评估协议高度敏感。

代表性企业用例

  1. 仓库级重构与迁移流水线——在多文件编辑和自动化 PR 补丁中保持原始意图。
  2. 面向 DevOps 的代理式编排——通过工具集成编排测试运行、CI 步骤、软件包安装和环境诊断。
  3. 自动化代码审查与修复——分诊漏洞、提出最小修复方案,并准备可复现的测试用例。
  4. 搜索驱动的信息检索——利用 BrowseComp 级别的搜索能力,对技术知识库进行多轮探索与总结。
  5. 生产级代理与助手——需要成本高效且稳定的长时间推理的持续型代理。

如何访问并集成 MiniMax‑M2.5

第 1 步:注册并获取 API Key

登录 cometapi.com。如果您还不是我们的用户,请先注册。登录您的 CometAPI 控制台。获取接口访问凭证 API key。在个人中心的 API token 处点击“Add Token”,获取 token key:sk-xxxxx 并提交。

第 2 步:向 minimax-m2.5 API 发送请求

选择“minimax-m2.5”端点发送 API 请求,并设置请求体。请求方法和请求体可从我们网站的 API 文档中获取。我们的网站也提供 Apifox 测试,方便您使用。将 <YOUR_API_KEY> 替换为您账户中的实际 CometAPI key。调用位置:Chat 格式。

将您的问题或请求插入到 content 字段中——模型将对此作出响应。处理 API 响应以获取生成的答案。

第 3 步:获取并验证结果

处理 API 响应以获取生成的答案。处理完成后,API 会返回任务状态和输出数据。

常见问题

What kind of tasks is MiniMax-M2.5 optimized for?

MiniMax-M2.5 针对真实世界的生产力与代理式工作流进行了优化 — 尤其擅长复杂编码、多阶段规划、工具调用、搜索以及跨平台系统开发。其训练重点在于处理从架构规划到代码审查与测试的完整开发生命周期。

How does MiniMax-M2.5 compare to previous versions like M2.1?

与 M2.1 相比,M2.5 在任务分解、token 效率和速度方面有显著提升 — 例如在某些代理式基准上完成速度约快 37%,且每个任务消耗的 token 更少。

What benchmarks does MiniMax-M2.5 achieve on coding and agentic tasks?

在启用任务规划与搜索的场景下,M2.5 在 SWE-Bench Verified 上约为 80.2%,在 Multi-SWE-Bench 上约为 51.3%,在 BrowseComp 上约为 76.3% — 其结果可与其他厂商的旗舰模型相竞争。

Does MiniMax-M2.5 support multiple programming languages?

是的 — M2.5 在超过 10 种编程语言上进行了训练,包括 Python、Java、Rust、Go、TypeScript、C/C++、Ruby 和 Dart,使其能够处理跨生态的多样化编码任务。

Is MiniMax-M2.5 suitable for full-stack and cross-platform development?

是的 — MiniMax 将 M2.5 定位为能够处理跨 Web、Android、iOS、Windows 和 Mac 的全栈项目,覆盖设计、实现、迭代与测试阶段。

What are the main efficiency and cost advantages of MiniMax-M2.5?

M2.5 可以在高 token 吞吐量(例如,约 100 tokens/sec)下运行,在按输出计价方面的成本约比许多前沿模型低 10–20×,从而支持代理式工作流的可规模化部署。

How do I integrate MiniMax-M2.5 into my application?

可通过 API 端点(例如标准版与高吞吐变体)使用 MiniMax-M2.5,在请求中将模型指定为 minimax-m2.5 即可。

What are known limitations or ideal scenarios to avoid?

M2.5 擅长编码与代理式任务;与专门的创作型模型相比,它在纯粹的创意叙事生成方面可能不那么专长,因此在故事写作或创意小说等场景下,其他模型可能更合适。

MiniMax M2.5 的功能

了解 MiniMax M2.5 的核心能力,帮助提升性能与可用性,并改善整体体验。

MiniMax M2.5 的定价

查看 MiniMax M2.5 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
輸入:$0.24/M
輸出:$0.96/M
輸入:$0.3/M
輸出:$1.2/M
-20%

MiniMax M2.5 的示例代码与 API

获取完整示例代码与 API 资源,简化 MiniMax M2.5 的集成流程,我们提供逐步指导,助你发挥模型潜能。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="minimax-m2.5",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Write a one-sentence introduction to MiniMax M2.5."},
    ],
)

print(completion.choices[0].message.content)

更多模型