Три недавние флагманские модели для китайского рынка — Qwen 3.5 от Alibaba Group, MiniMax M2.5 от MiniMax и GLM-5 от Zhipu AI — были анонсированы с разницей в несколько недель и представляют разные компромиссы. Qwen 3.5 фокусируется на агентных мультимодальных возможностях на очень крупном разреженном масштабе и заявляет о существенных преимуществах в отношении эффективности затрат; MiniMax M2.5 делает упор на сбалансированную продуктивность в реальных задачах (особенно кодинг) при более низкой стоимости сервинга; GLM-5 нацелена стать лучшей моделью с открытыми весами для задач рассуждений, кодинга и агентных сценариев, спроектированной для работы на отечественных чипах. Выбор «что лучше» сильно зависит от цели: массовые корпоративные развертывания агентных систем (Qwen), продуктивность разработчиков и чувствительность к стоимости (MiniMax) или исследования / принятие open-source и прозрачность (GLM).
Что такое Qwen 3.5, MiniMax M2.5, GLM-5 от Zhipu?
Qwen 3.5 — что это?
Qwen 3.5 — это семейство мультимодальных моделей с открытыми весами поколения 2026 от Alibaba (особенно вариант Qwen-3.5-397B), ориентированное на «агентные» рабочие нагрузки — то есть модели, которые умеют рассуждать с инструментами, взаимодействовать с GUI и работать с текстовыми, графическими и видео-входами. Alibaba позиционирует Qwen 3.5 как гибридную разреженную/плотную модель, обеспечивающую высокую мультимодальную и агентную производительность при существенно более низкой стоимости за токен по сравнению со многими западными закрытыми моделями. Запуск был приурочен к кануну Китайского Нового года, что сигнализирует об агрессивном продуктово-ценовом ходе.
Опубликованные ключевые характеристики и заявления:
- Класс параметров: ~397B всего с разреженной стратегией маршрутизации Mixture-of-Experts (MoE) и существенно меньшим числом активируемых параметров во многих сценариях инференса.
- Мультимодальность: нативная тренировка на визуальных и текстовых данных; поддержка изображений и расширенных видео-рассуждений.
- Окно контекста / длинные формы: варианты платформы Qwen (Plus) заявляют очень длинные окна контекста (целевые конфигурации от нескольких сотен тысяч до близких к миллиону токенов на хостинговых тарифах).
- Бизнес-предложение: агентные действия (взаимодействие с GUI приложений), низкая стоимость за токен и сильные бенчмарки по сравнению с предыдущими версиями Qwen и некоторыми заявлениями конкурентов.
MiniMax M2.5 — что это?
MiniMax M2.5 — последний релиз команды MiniMax (независимая лаборатория/стартап), позиционируемый как прагматичная, высокоэффективная модель, оптимизированная для кодинга, агентного использования инструментов и продуктивных рабочих процессов. MiniMax акцентирует дообучение, управляемое обучением с подкреплением, и RLHF в реальных задачах для повышения эффективности агентов в продакшене.
Опубликованные ключевые характеристики и заявления:
- Зоны фокуса: кодинг (SWE-задачи), оркестрация инструментов агентами и автоматизация поиска/офиса.
- Заявленные бенчмарки: высокие оценки на SWE-Bench Verified, Multi-SWE и агентных тестах класса BrowseComp (вендор сообщает 80.2% SWE-Bench Verified; 76.3% в наборах BrowseComp на некоторых опубликованных прогонах).
- Открытость: MiniMax распространяет веса модели и предоставляет доступ через распространенные стеки инференса и репозитории (например, Ollama).
GLM-5 от Zhipu — что это?
GLM-5 — флагманский релиз от Zhipu (Z.AI / Zhipu AI), последовавший за быстрым циклом обновлений GLM-4.x. GLM-5 нацелена как ширококачественная модель с открытыми весами, делающая акцент на кодинг, рассуждения, агентные последовательности и совместимость с отечественным железом (обучалась и оптимизировалась на ускорителях китайского производства, таких как Huawei Ascend и Kunlunxin). Zhipu позиционирует GLM-5 как лидера среди открытых моделей на многих академических бенчмарках.
Сравнительная таблица
| Измерение | Qwen-3.5 | GLM-5 (Zhipu) | MiniMax M2.5 |
|---|---|---|---|
| Время релиза | Канун Лунного Нового года 2026 (открытые веса для вариантов). | Начало февраля 2026; открытая модель с акцентом на отечественное железо. | Обновление февраля 2026; M2.5 сфокусирована на скорости агентов и SWE-bench. |
| Ключевая сильная сторона | Нативные мультимодальные агенты + эффективность пропускной способности. | Сильные функции кодинга и агентов; акцент на стек отечественных чипов. | Скорость агентов в реальном мире, эвристики декомпозиции, низкая задержка. |
| Положение в бенчмарках | Топ-уровень в открытых рейтингах; заявления вендора против закрытых SOTA. | Заявленные победы над Gemini 3 Pro и некоторыми закрытыми моделями на отдельных тестах. | Отличная скорость; конкурентная точность, более низкая стоимость задачи в ряде комм. тестов. |
| Деплой и железо | Открытые веса → гибкие варианты инфраструктуры; оптимизированное декодирование. | Разработана/обучена с учетом локальных чипов (Huawei Ascend, Kunlunxin) и суверенитета. | Оптимизированные рантайм-стеки; упор на пропускную способность в SWE-bench. |
| Экосистема | Облако Alibaba + сообщество через открытые веса. | Экосистема Zhipu + листинг в Гонконге; нацелена на расширение в КНР и за рубежом. | Фокус на продукт и скорость; коммерческие партнерства. |
Интерпретация: Эти три модели занимают пересекающиеся, но различающиеся ниши. Qwen-3.5 подается как широко способный мультимодальный агент с эффективной инфраструктурой и открытыми весами. GLM-5 заявляет сильные результаты в кодинге и агентных задачах с фокусом на цепочки поставок отечественного железа. MiniMax M2.5 делает упор на скорость рантайма и инженерные решения для продукционных агентных задач.
Qwen 3.5 vs Minimax M2.5 vs GLM 5: сравнение архитектур
Архитектурные различия существенно влияют на то, как модели справляются с задачами — рассуждения, кодинг, агентные рабочие процессы и мультимодальное понимание.
Ниже приведено сравнительное сопоставление ключевых архитектурных характеристик:
| Характеристика | Qwen 3.5 | MiniMax M2.5 | GLM 5 |
|---|---|---|---|
| Всего параметров | ~397 B | ~230 B | ~744 B |
| Активные (инференс) | ~17 B | ~10 B | ~40 B |
| Тип архитектуры | Разреженная MoE + Gated Delta (гибридное внимание) | Разреженная MoE | Разреженная MoE + DeepSeek Sparse Attention |
| Поддержка контекста | До ~1 M токенов | До ~205 K токенов | ~200 K токенов |
| Мультимодальность | Да (нативный текст + изображение + видео) | Ограниченная, текст-центричная, но расширенный контекст | Да (текст + потенциальная мультимодальность через интеграции) |
| Основная оптимизация | Агентная эффективность и мультимодальные задачи | Цикл-эффективная производительность в практических сценариях | Дальнобойные рассуждения и формализованная инженерия |
Интерпретация:
- Дизайн Qwen 3.5 фокусируется на масштабе и эффективности через гибридные разреженные архитектуры, обеспечивая огромные окна контекста и богатые мультимодальные выходы.
- MiniMax M2.5 приоритизирует эффективный инференс и продуктивность сегодня, достигая более низких вычислительных затрат и быстрых вызовов инструментов, что критично для реальных агентных задач.
- Масштаб GLM 5 и значительное число активных параметров нацелены на конкуренцию в бенчмарках и длинных пошаговых задачах, потенциально сопоставляясь с закрытыми лидерами.
Qwen 3.5 — гибрид «разреженная/плотная», агентная «проводка»
- Суть: Qwen 3.5 использует разреженную MoE (Mixture-of-Experts) в сочетании с плотной маршрутизацией для мультимодальных токенов. Это дает высокий общий счет параметров (например, ~397B), при этом во время инференса активируется только часть параметров — снижая вычислительные и памятьные затраты для типовых запросов.
- Следствия: Большая представляемая емкость для знаний и слияния модальностей при контролируемой стоимости инференса. Подходит для длинного контекста и тяжелых мультимодальных нагрузок, если хостинг-инфраструктура поддерживает разреженные ядра.
MiniMax M2.5 — задачно-оптимизированное RL + компактный бэбон
- Суть: MiniMax делает упор на обучение через обширные конвейеры RLHF/RL-in-environment и доводку для использования инструментов. Похоже, что M2.5 предпочитает плотный, но эффективный бэбон, настроенный под кодинг и агентные последовательности.
- Следствия: Меньше фокус на экстремальный масштаб параметров; больше — на поведенческое выравнивание, эргономику для разработчиков и надежность агентов. Часто дает лучшую реальную агентную эффективность на доллар вычислений в кодинговых рабочих процессах.
GLM-5 — плотная архитектура с инженерией под пропускную способность
- Суть: GLM-5 — это большая плотная модель, оптимизированная для скорости обучения и инкрементальных пост-тренировочных итераций на асинхронной RL-инфраструктуре (в некоторых карточках модели отмечается как "slime"). Zhipu также явно оптимизировала ее под отечественные ускорители.
- Следствия: Сильные обобщенные рассуждения и кодинг, с инженерными решениями, нацеленными на быструю итерацию и совместимость с китайской экосистемой кремния.
Как они сравниваются на бенчмарках?
Прямое межмодельное бенчмаркирование — один из самых полезных способов оценить производительность по базовым возможностям: рассуждения, кодинг и комплексное понимание.
Ниже — ключевые заявленные результаты с контекстом.
Общие рассуждения и знания
| Бенчмарк | Qwen 3.5 | MiniMax M2.5 | GLM 5 | Примечания |
|---|---|---|---|---|
| MMLU-Pro / Знания | Заявлен высокий | Нет крупной публичной цифры | Заявлен сильный | Qwen 3.5 явно заявляет сильные рассуждения во внутренних отчетах. |
| Многошаговые рассуждения | Сильные агентные заявления | Хорошие агентные процессы | Сильные | GLM 5 фокусируется на длинношагаемых задачах. |
| SWE Bench Verified (кодинг) | N/A публично | ~80.2% | GLM 5 конкурентен | M2.5 достигает ~80.2% на SWE-Bench Verified. |
Агентные процессы и кодинг
- MiniMax M2.5 демонстрирует сильные реальные показатели в кодинге с 80.2% на SWE-Bench Verified и устойчивым управлением многошаговыми задачами.
- GLM 5 по сообщениям приближается к закрытым лидерам и обгоняет некоторые бенчмарки, такие как Gemini 3 Pro, по отдельным метрикам кодинга и агентных задач.
- Qwen 3.5 широко сообщается, что работает на уровне топовых закрытых моделей, таких как Gemini 3 Pro и GPT-5.2, хотя полный пакет сторонних бенчмарков еще формируется.
Мультимодальная производительность
| Область задач | Qwen 3.5 | MiniMax M2.5 | GLM 5 |
|---|---|---|---|
| Изображение + текст | Да | Ограничено | Потенциально через экосистему |
| Понимание видео | Да | Нет | Возможна интеграция |
| Длинноконтекстные рассуждения | Исключительная (~1M токенов) | Высокая, но ниже | Высокая (~200K токенов) |
В целом, мультимодальная поддержка и расширенное окно контекста Qwen 3.5 дают ему потенциальное преимущество в длинных диалогах, понимании видео и агентных задачах, требующих длительного контекста.
Где какая модель особенно сильна:
- Qwen3.5: выделяется в мультимодальных агентных задачах (VITA, BFCL, TAU2), силен в мультимодальном понимании документов/видео и конкурентоспособен в кодинге и общих рассуждениях. Бизнес-преимущество Qwen — плавная интеграция в экосистему Alibaba и продуктовая стратегия, делающая акцент на агентную коммерцию и инструментарий.
- MiniMax M2.5: ставка на стоимость и пропускную способность при достойной, прагматичной производительности в агентных задачах; сильная сторона — экономика для высокообъемных циклов агентов. Независимые повторные срезы показывают, что MiniMax конкурентоспособен по индексам продуктивности, но не обязательно абсолютный лидер на каждом академическом лидерборде.
- GLM-5 (Zhipu): выделяется на наборах кодинга и SWE (SWE-bench Verified ~77.8, Terminal-Bench ~56.2), с очень большим окном контекста и сильной производительностью среди моделей с открытыми весами — GLM-5 вероятно является лучшим открытым выбором для тяжелых кодинговых/инженерных агентных нагрузок на начало февраля 2026.
Практическая рекомендация
Если ваша основная нагрузка — агентная мультимодальная оркестрация (вызов инструментов, автоматизация GUI, мультимодальные документы, e-commerce-агенты), Qwen3.5 — один из лучших вариантов и предлагает платформенные преимущества в Азии. Если вам нужен лучший открытый «инженер-кодер», GLM-5 сейчас выглядит сильнее по разработческим кодинговым бенчмаркам. Если же главным ограничением является стоимость/пропускная способность для массовых агентных циклов, MiniMax M2.5 — очевидный выбор по соотношению цена/производительность. Используйте гибридный подход, подбирая модель под компонент: например, GLM-5 для тяжелой генерации кода, Qwen3.5 для мультимодальной агентной «фронтовой» оркестрации, MiniMax M2.5 — для высокообъемных, низколатентных агентных циклов.
Итак — что лучше: Qwen 3.5, MiniMax M2.5 или GLM-5?
Короткий ответ
Единственной «лучшей» модели нет — каждая лидирует по разным осям:
- Qwen 3.5: лучший кандидат для мультимодальных агентных приложений и очень масштабных, чувствительных к стоимости развертываний (сильное ценообразование и нативный фокус на vision + action).
- MiniMax M2.5: лучший для кодинга и практических цепочек инструментов там, где важны эргономика для разработчиков и реальные кодинговые бенчмарки.
- GLM-5: лучший широкий открытый универсал, особенно привлекателен для развертываний в КНР и организаций, ценящих совместимость с отечественным железом и гибкость открытых весов.
Практическое сравнение возможностей
Помимо «сырых» баллов бенчмарков, реальная польза зависит от того, как хорошо модель выполняет задачи, важные для бизнеса и разработчиков: кодинг, рассуждения, обработка мультимодальных вводов и выполнение цепочек рассуждений.
Ниже — резюме относительных сильных сторон и типичных кейсов:
| Возможность | Qwen 3.5 | MiniMax M2.5 | GLM 5 |
|---|---|---|---|
| Общие рассуждения | Отличные | Сильные | Очень сильные |
| Кодинг и инструменты | Высокие | Лучшие среди открытых моделей | Очень сильные |
| Мультимодальность (vision/video) | Встроенная нативная поддержка | Ограниченная | Умеренная |
| Агентные процессы | Отличные | Очень хорошие | Отличные |
| Длинный контекст | Лидер (1M токенов) | Высокий | Высокий (200K) |
| Скорость и стоимость инференса | Средние | Лидер (быстро и недорого) | Выше стоимость и медленнее |
Ключевые выводы:
- MiniMax M2.5 силен в продукционных рабочих процессах — он быстрый, недорогой и высококонкурентный в кодинге и агентных бенчмарках.
- Qwen 3.5 превосходит в глубоком мультимодальном понимании и очень длинном контексте, что важно для сложных исследовательских задач.
- GLM 5 демонстрирует сильные агентные рассуждения, подходящие для корпоративных инженерных задач.
Сравнение цен и стоимости
Эффективность затрат — ключевой дифференциатор для корпоративного внедрения, особенно при больших объемах.
| Модель | Цена на ввод (примерно) | Цена на вывод (примерно) | Примечания |
|---|---|---|---|
| Qwen 3.5 | ~¥0.8 / 1M tokens (~$0.12) | Сопоставимая | Очень низкая стоимость за токен (сообщается). |
| MiniMax M2.5 | ~$0.30 / 1M tokens (input) | ~$1.20 / 1M tokens | Существенно экономичен. |
| GLM 5 | ~$1.00 / 1M tokens | ~$3.20 / 1M tokens | Выше, но все еще конкурентно. |
Интерпретация:
- MiniMax M2.5 лидирует по эффективности цены за миллион токенов, что делает его привлекательным для высокообъемных сценариев.
- Ценообразование Qwen 3.5 ниже многих крупных конкурентов, включая закрытые модели и даже некоторые открытые.
- GLM 5 имеет более высокую стоимость токена, но это может окупаться сильной производительностью в длинношагаемых агентных задачах и инженерными возможностями.
CometAPI на данный момент интегрирует все три модели, а его цены в API всегда со скидкой. Если вы не хотите менять вендоров и подстраиваться под разные ценовые стратегии, CometAPI — лучший выбор. Достаточно одного ключа для доступа в формате чата.
Заключение
В контексте начала 2026 года Qwen 3.5, MiniMax M2.5 и GLM 5 — каждая по-своему убедительная модель с дифференцированными сильными сторонами. Все три отражают продолжающуюся эволюцию высокопроизводительных моделей с открытыми весами:
- Qwen 3.5 лидирует в мультимодальности, длинном контексте и глобальной мультиязычной поддержке.
- MiniMax M2.5 продвигает эффективную реальную продуктивность и агентные рабочие процессы.
- GLM 5 масштабируется под высокие инженерные задачи с большим числом активных параметров.
Выбор правильной модели зависит от точных требований вашего проекта — будь то способность к мультимодальным рассуждениям, производительность в кодинге, масштаб контекста или эффективность затрат.
Разработчики уже сейчас могут получить доступ к Qwen 3.5 API, MiniMax M2.5 и GLM-5 (Zhipu) через CometAPI. Чтобы начать, изучите возможности модели в Playground и ознакомьтесь с руководством по API для подробных инструкций. Перед доступом убедитесь, что вы вошли в CometAPI и получили API-ключ. CometAPI предлагает цену значительно ниже официальной, чтобы помочь вам с интеграцией.
Готовы начать? → Зарегистрируйтесь на Qwen-3.5 уже сегодня!
Если вы хотите больше советов, гайдов и новостей об ИИ, подписывайтесь на нас в VK, X и Discord!
