MiniMax, китайский стартап в области искусственного интеллекта, публично представил весы и инструменты для МиниМакс М2, её новейшая модель языка программирования, разработанная специально для рабочих процессов кодирования и использования агентских инструментов. Компания заявляет, что M2 представляет собой эффективную архитектуру, основанную на сочетании экспертов (MoE), которая обеспечивает высочайший уровень кодирования и производительности агентов по цене, составляющей лишь малую часть стоимости сопоставимых фирменных моделей. Я объясню, почему MiniMax M2 — король экономической эффективности, исходя из функциональности, производительности, архитектуры и стоимости.
Что такое MiniMax M2?
MiniMax M2 — это новейшая модель MiniMax с открытым исходным кодом для больших языков, предназначенная в первую очередь для кодирование, многошаговые рабочие процессы агентов и вызов инструментов. Модель использует архитектуру «Смесь экспертов»: она имеет очень большой общий параметрический след, но только небольшое количество параметров активированный за токен во время вывода — конструкция, которая снижает стоимость и задержку вывода, сохраняя при этом сильные возможности рассуждения и кодирования.
Ключевые заголовки (на момент публикации)
- Общий бюджет параметров: ~230 миллиардов (всего).
- Активированные/действующие параметры для каждого токена: ~10 миллиардов (активировано).
- Контекстное окно (сообщается): вплоть до ~192 000 токенов
- Лицензия: MIT (весы с открытым исходным кодом).
- Заявления о стоимости и скорости: Его стоимость за токен составляет всего 8% от Anthropic Claude Sonnet, а скорость примерно в два раза выше.
Каковы основные особенности MiniMax M2?
Агентное/инструментально-ориентированное поведение
МиниМакс М2 Поставляется с явной поддержкой вызова инструментов, структурированных подсказок и шаблонов чередования рассуждений → действий → верификации, что упрощает создание автономных агентов, которые вызывают внешние API, выполняют код или работают с терминалами. Несколько интеграционных рецептов ориентированы на среды выполнения агентов и стеки vLLM/Accelerate.
Оптимизировано для кодирования и многофайловых задач
Результаты бенчмарков Hugging Face и анализы сторонних компаний демонстрируют высокую производительность в тестовых наборах, ориентированных на разработчиков (модульные тесты, терминальное моделирование, многофайловый синтез), где M2 демонстрирует высокие результаты по сравнению с другими открытыми и закрытыми моделями. Это согласуется с заявленным акцентом MiniMax на инструментах для разработчиков и помощниках по кодированию.
Эффективность разреженной смеси экспертов (MoE)
Вместо одного плотного набора параметров, МиниМакс М2 использует редкая смесь экспертов Стратегия маршрутизации, при которой для каждого токена активируется только часть полного банка параметров. Это приводит к большому общему количеству параметров, но значительно меньшему активированный параметрический след во время вывода — повышение эффективности затрат и задержек для многих рабочих нагрузок.
Как устроен MiniMax M2?
Высокоуровневая архитектура
Согласно технической отчетности MiniMax и независимым отчетам, МиниМакс М2 реализован как разреженный трансформатор MoE со следующими широко известными проектными решениями:
- Очень большой общий количество параметров (по данным прессы, порядка сотен миллиардов), с только подмножество экспертов активируется на один токен (В ранних отчётах в прессе упоминаются примеры, например, 230 млрд в общей сложности с ~10 млрд активных данных на вывод). Это классический компромисс MoE: масштабируемая ёмкость без затрат на линейный вывод.
- Маршрутизация: маршрутизация экспертов top-k (Top-2 или Top-K), которая отправляет каждый токен небольшому количеству экспертов, благодаря чему вычислительная нагрузка становится разреженной и предсказуемой.
- Кодирование внимания и позиции: гибридные паттерны внимания (например, сочетание плотных и эффективных ядер внимания) и современные вращательные или позиционные кодирования в стиле RoPE упоминаются в документации к модели сообщества и карточке модели Hugging Face. Эти варианты улучшают поведение в длинном контексте, что важно для многофайлового кодирования и памяти агента.
Почему разреженный MoE способствует агентским рабочим процессам
Агентные рабочие процессы обычно требуют сочетания логического мышления, генерации кода, оркестровки инструментов и планирования с учётом состояния. С MoE МиниМакс М2 Может позволить себе множество специализированных экспертных подмодулей (например, эксперты, лучше разбирающиеся в коде, эксперты, специализирующиеся на форматировании инструментов, эксперты, занимающиеся поиском фактов), активируя при этом только тех экспертов, которые необходимы для каждого токена. Такая специализация повышает как пропускную способность, так и корректность решения сложных задач, одновременно снижая стоимость вывода по сравнению с однородно большой плотной моделью.
Заметки по обучению и настройке (опубликованные MiniMax)
MiniMax приводит смесь кода, настройки инструкций, веб-текста и наборов данных агентских циклов для определения беглости инструкций и инструментов M2.
Зачем нужен MoE для агентов и кода?
MoE позволяет наращивать ёмкость модели (для улучшения рассуждений и поддержки мультимодальных моделей) без линейного увеличения числа операций вывода (FLOP) для каждого токена. Для агентов и помощников по программированию, которые часто выполняют множество коротких интерактивных запросов и вызывают внешние инструменты, выборочная активация MoE позволяет снизить задержку и расходы на облачные вычисления, сохраняя при этом преимущества ёмкости, присущие очень большой модели.
Тестовая производительность
По данным независимых оценок Artificial Analysis, сторонней организации, занимающейся тестированием и исследованием моделей генеративного ИИ, M2 в настоящее время занимает первое место среди всех взвешенных систем с открытым исходным кодом в мире по «Индексу интеллекта» — комплексному измерению эффективности рассуждений, кодирования и выполнения задач.

Модель MiniMax показывает сравнительные результаты по кодирование / агентное Пакеты бенчмарков (SWE-bench, Terminal-Bench, BrowseComp, GAIA, τ²-Bench и др.). В опубликованных таблицах M2 демонстрирует высокие результаты по кодированию и многошаговым инструментальным задачам, а MiniMax выделяет композитные оценки конкурентной разведки/агентской аналитики по сравнению с другими открытыми моделями.
По этим показателям он находится на уровне или близок к уровню ведущих фирменных систем, таких как GPT-5 (мышление) и Claude Sonnet 4.5, что делает MiniMax-M2 самой производительной открытой моделью на сегодняшний день для задач вызова реальных агентов и инструментов.

MiniMax-M2 демонстрирует наивысшие или близкие к наивысшим показатели во многих категориях:
- SWE-bench Verified: 69.4 — близко к 74.9 у GPT-5
- ArtifactsBench: 66.8 — выше Claude Sonnet 4.5 и DeepSeek-V3.2
- τ²-Bench: 77.2 — приближается к 80.1 GPT-5
- GAIA (только текст): 75.7 — превосходит DeepSeek-V3.2
- BrowseComp: 44.0 — заметно лучше других открытых моделей
- FinSearchComp-global: 65.5 — лучший среди протестированных систем с открытым весом
Стоимость и цены
MiniMax публично предлагает очень конкурентоспособную цену API 0.30 долл. США за 1 000 000 входных токенов и 1.20 долл. США за 1 000 000 выходных токеновКомпания также сообщает о показателе пропускной способности вывода (TPS) на своей размещенной конечной точке ~100 токенов/сек (и заявляют, что работают над его улучшением). CometAPI предлагает скидку 20% на официальную цену доступа к API MiniMax M2.
Быстрая интерпретация
- Входные токены чрезвычайно дешевы по сравнению со многими коммерческими моделями; выходные токены дороже, но все еще низкие по сравнению со многими закрытыми альтернативами.
- Пропускная способность (токенов/сек) и задержка будут сильно зависеть от выбора способа развертывания (размещение или размещение на собственном сервере), типа графического процессора, пакетирования и квантования. Используйте опубликованное значение TPS в качестве базового значения только для планирования API на размещённом сервере.
Каковы наилучшие варианты использования MiniMax M2?
1) Помощники разработчика на всех этапах (написание кода → запуск → исправление → проверка)
MiniMax M2 специально разработан для редактирования нескольких файлов, циклов компиляции/запуска/исправления и автоматизации CI/IDE, где модель должна запоминать большие кодовые базы или длинные записи терминала, а также координировать вызовы инструментов (сборка, тестирование, линтинг, git). Результаты бенчмарков и предварительных тестов сообщества ставят его в один ряд с программными комплексами для кодинга/агентства.
Типичный поток: извлечь репозиторий → запустить тесты внутри песочницы → проанализировать ошибки → создать патч → снова запустить тесты → открыть PR, если он зеленый.
2) Многошаговые агенты и RPA (инструменты + память)
Агентские приложения, требующие планирования, вызова инструментов и восстановления (веб-браузер, терминал, база данных, пользовательские API), выигрывают от длинного контекста и структурированного вызова функций/инструментов. Поддержка длинного контекста в M2 позволяет хранить планы, журналы и состояние в памяти без активного внешнего извлечения.
3) Подробные обоснования документов и поддержка клиентов (руководства, руководства)
Поскольку M2 поддерживает очень большие контексты, вы можете загружать целые руководства по продуктам, руководства по играм или длинные истории разговоров с пользователями без значительного разделения на фрагменты — идеально для автоматизации поддержки с богатым контекстом, обоснования политик и проверок соответствия.
4) Исследования и эксперименты (открытые веса, разрешенное использование)
Благодаря открытым весам в Hugging Face вы можете проводить эксперименты (тонкую настройку, исследования MoE, новые стратегии маршрутизации или механизмы безопасности) локально или на частных кластерах. Это делает M2 привлекательным для лабораторий и команд, которым нужен полный контроль.
Практические рекомендации для инженеров и продуктовых команд
Если вы хотите быстрых экспериментов: Используйте облачный API MiniMax (совместимый с Anthropic/OpenAI). Он устраняет проблемы локальной инфраструктуры и обеспечивает мгновенный доступ к вызовам инструментов и функциям с длинным контекстом.
Если вам нужен контроль и оптимизация затрат: Загрузите весовые коэффициенты с Hugging Face и используйте их с помощью vLLM или SGLang. Ожидайте вложения в разработку шардинга MoE и тщательную настройку вывода. Проверьте память, стоимость и задержку на реальной рабочей нагрузке (многоходовые агенты и задачи с многофайловым кодом).
Тестирование и безопасность: Проводите собственные тесты «красной команды», фильтры безопасности и валидацию инструментов. Открытые весовые коэффициенты ускоряют исследования, но также позволяют злоумышленникам быстро вносить изменения; при необходимости создавайте детекторы и проверки с участием человека.
Заключение
MiniMax M2 представляет собой значимый этап в экосистеме LLM с открытым исходным кодом: крупная, ориентированная на агентов модель с разрешительной лицензией, которая отдает приоритет программированию и использованию инструментов, стремясь при этом сохранить разумную стоимость вывода за счет разреженной маршрутизации MoE. Для организаций, разрабатывающих инструменты для разработчиков, автономных агентов или исследовательских групп, которым необходим доступ к весам для тонкой настройки, M2 предлагает привлекательный и готовый к немедленному использованию вариант — при условии, что команда готова справиться со сложностью развертывания MoE.
Как получить доступ к API MiniMax M2
CometAPI — это унифицированная платформа API, которая объединяет более 500 моделей ИИ от ведущих поставщиков, таких как серия GPT OpenAI, Gemini от Google, Claude от Anthropic, Midjourney, Suno и других, в единый, удобный для разработчиков интерфейс. Предлагая последовательную аутентификацию, форматирование запросов и обработку ответов, CometAPI значительно упрощает интеграцию возможностей ИИ в ваши приложения. Независимо от того, создаете ли вы чат-ботов, генераторы изображений, композиторов музыки или конвейеры аналитики на основе данных, CometAPI позволяет вам выполнять итерации быстрее, контролировать расходы и оставаться независимыми от поставщика — и все это при использовании последних достижений в экосистеме ИИ.
Разработчики могут получить доступ Минимакс М2 API через CometAPI, последняя версия модели Всегда обновляется на официальном сайте. Для начала изучите возможности модели в Детская Площадка и проконсультируйтесь с API-руководство для получения подробных инструкций. Перед доступом убедитесь, что вы вошли в CometAPI и получили ключ API. CometAPI предложить цену намного ниже официальной, чтобы помочь вам интегрироваться.
Готовы к работе?→ Зарегистрируйтесь в CometAPI сегодня !
Если вы хотите узнать больше советов, руководств и новостей об искусственном интеллекте, подпишитесь на нас VK, X и Discord!
