Как работает Qwen3?

CometAPI
AnnaJun 1, 2025
Как работает Qwen3?

Qwen3 представляет собой значительный шаг вперед в области моделей большого языка с открытым исходным кодом (LLM), сочетая сложные возможности рассуждения с высокой эффективностью и широкой доступностью. Разработанный исследовательскими и облачными командами Alibaba, Qwen3 позиционируется как конкурент ведущим проприетарным системам, таким как OpenAI GPT-4x и Google PaLM, оставаясь при этом полностью открытым по лицензии Apache 2.0. В этой статье подробно рассматривается, как был задуман Qwen3, его основные механизмы, режим обучения, который сформировал его возможности, и пути, с помощью которых разработчики по всему миру могут использовать его мощь.


Что такое Qwen3 и почему это важно?

Большие языковые модели преобразили понимание и генерацию естественного языка, питая все: от разговорных агентов до помощников по кодированию. Qwen3 — это последняя модель в семействе Qwen от Alibaba, которая следует за Qwen2.5 и его вариантами и воплощает несколько флагманских инноваций:

  • Гибридное рассуждение: Плавная интеграция «мыслительных» и «немыслящих» режимов в единую архитектуру, позволяющая динамически распределять вычислительные ресурсы в зависимости от сложности задачи.
  • Варианты смешанного состава экспертов (MoE): предлагает модели, которые активируют только подмножество специализированных экспертных модулей для каждого запроса, повышая эффективность без ущерба для производительности.
  • Разнообразие масштабов: от легких плотных моделей с 0.6 миллиарда параметров до массивных разреженных вариантов MoE с 235 миллиардами параметров, подходящих для различных сценариев развертывания.
  • Расширенные контекстные окна: Большинство более крупных вариантов поддерживают до 128 тыс. контекстов токенов, что упрощает работу с длинными документами, кодовыми базами и многомодальными диалогами.
  • Многоязычность: обучено на 36 триллионах токенов, охватывающих 119 языков и диалектов, что позволяет создавать по-настоящему глобальные приложения.

Благодаря этим характеристикам Qwen3 не только занимает лидирующие позиции в тестах генерации кода, математических рассуждений и задач агентов, но и является гибким и экономически эффективным решением для реальных развертываний.

Какую архитектуру использует Qwen3?

Единая структура рассуждений

Традиционные экосистемы LLM часто разделяют оптимизированные для чата модели (например, GPT-4o) и специализированные модели рассуждений (например, QwQ-32B). Qwen3 разрушает это разделение, встраивая как быстрый контекстно-управляемый «недумающий» вывод, так и глубокие, многошаговые «мыслительные» процессы в одну и ту же модель. Токен режима или флаг API запускает либо легкие слои внимания для простых задач, либо более глубокие, итеративные конвейеры рассуждений для сложных запросов.

Варианты «Смешанные эксперты» (MoE)

Некоторые модели Qwen3 используют структуру MoE, в которой сеть состоит из сотен экспертных подмодулей, но только небольшой, релевантный задаче поднабор активируется во время выполнения. Это дает значительную экономию вычислений — только самые релевантные эксперты обрабатывают каждый токен — при этом сохраняя самую высокую точность в тестах рассуждений.

Плотные и смешанные модели экспертов

Для баланса эффективности и емкости семейство Qwen3 включает шесть плотных моделей (параметры 0.6B, 1.7B, 4B, 8B, 14B и 32B) наряду с двумя вариантами MoE (30B с 3B активными параметрами и 235B с 22B активными параметрами). Плотные модели предлагают оптимизированный вывод для сред с ограниченными ресурсами, в то время как архитектуры MoE используют разреженную активацию для поддержания высокой емкости без линейного увеличения вычислительных затрат.

Архитектуры Mixture-of-Experts (MoE) облегчают нагрузку на память и вычисления больших плотных моделей, активируя только часть параметров сети на токен. Qwen3 предлагает два разреженных варианта:

  • 30B-параметр MoE (3B активированных параметров на токен)
  • 235B-параметр MoE (22B активированных параметров на токен)

Эти разреженные семейства соответствуют или превосходят производительность сопоставимых плотных аналогов в тестах, одновременно снижая затраты на вывод, что особенно важно для приложений реального времени и крупномасштабных развертываний. Внутренние тесты Alibaba показывают, что варианты MoE достигают до 60 раз более быстрого времени рассуждения на специализированном оборудовании, таком как двигатели Cerebras' wafer-scale.

Режим мышления и режим немышления

Отличительной особенностью Qwen3 является его двухрежимная конструкция: режим мышления для сложных, многошаговых задач на рассуждение, и режим бездумья для быстрых, контекстно-зависимых ответов. Вместо того, чтобы поддерживать отдельные специализированные модели, Qwen3 объединяет обе возможности в рамках единой архитектуры. Это стало возможным благодаря динамическому механизм бюджетного мышления, который адаптивно распределяет вычислительные ресурсы во время вывода, позволяя модели гибко выбирать компромисс между задержкой и глубиной рассуждений в зависимости от сложности входных данных.


Как работает Qwen3?

Динамическое переключение режимов

Получив подсказку, Qwen3 оценивает требуемую сложность рассуждений по предопределенным пороговым значениям. Простые запросы запускают режим без мышления, выдавая ответы за миллисекунды, тогда как сложные многошаговые задачи, такие как математические доказательства или стратегическое планирование, активируют режим мышления, выделяя дополнительные слои трансформатора и головки внимания по мере необходимости. Разработчики также могут настраивать триггеры переключения режимов с помощью шаблонов чата или параметров API, подстраивая пользовательский опыт под конкретные приложения.

  • Режим бездумья: Выделяет минимальное количество слоев/экспертных вызовов, оптимизируя задержку и пропускную способность.
  • Режим мышления: Динамически расширяет граф вычислений, позволяя выполнять многошаговые рассуждения и объединять подвопросы во внутреннюю цепочку.
  • Адаптивное переключение: Модель может автономно переключаться между режимами в процессе вывода, если сложность запроса требует дополнительных этапов рассуждения.

Эффективность и задержка вывода

В сотрудничестве с такими партнерами по оборудованию, как Cerebras Systems, Qwen3-32B достигает производительности рассуждений в реальном времени. Тесты на платформе вывода Cerebras демонстрируют время отклика менее 1.2 секунды для сложных задач рассуждений, что в 60 раз быстрее, чем у сопоставимых моделей, таких как DeepSeek R1 и OpenAI o3-mini. Эта производительность с низкой задержкой открывает доступ к агентам и вторым пилотам производственного уровня в интерактивных условиях, от чат-ботов поддержки клиентов до систем поддержки принятия решений в реальном времени.


Развертывание и доступность

Выпуск и интеграция с открытым исходным кодом

28 апреля 2025 года Alibaba официально выпустила Qwen3 под лицензией Apache 2.0, что обеспечивает неограниченный доступ к весам, коду и документации на GitHub и Hugging Face. В течение нескольких недель после запуска семейство Qwen3 стало доступным для развертывания на ключевых платформах LLM, таких как Ollama, LM Studio, SGLang и vLLM, что упрощает локальный вывод для разработчиков и предприятий по всему миру.

Гибкие форматы и поддержка квантования

Для адаптации к различным сценариям развертывания — от высокопроизводительного вывода центра обработки данных до маломощных периферийных устройств — Qwen3 поддерживает несколько весовых форматов, включая унифицированный формат, сгенерированный GPT, квантование с учетом активации и общее квантование после обучения. Ранние исследования показывают, что квантование после обучения с разрядностью от 4 до 8 бит сохраняет конкурентоспособную производительность, хотя сверхнизкая (1–2 бита) точность приводит к заметному снижению точности, что выделяет области для будущих исследований в области эффективного сжатия LLM.


Производительность и сравнительный анализ

Рейтинг лидеров

Согласно рейтингу LiveBench по состоянию на 6 мая 2025 года, флагманская модель Qwen3-235B-A22B занимает лидирующее место среди LLM с открытым исходным кодом, занимая 7-е место в общем зачете как среди открытых, так и среди закрытых моделей и достигая наивысшего балла в задачах по выполнению инструкций. Этот рубеж подчеркивает конкурентное равенство Qwen3 с фирменными аналогами, такими как GPT-4 и DeepSeek R1.

Сравнительные оценки

Независимые оценки TechCrunch и VentureBeat подчеркивают превосходную производительность Qwen3 в кодировании и математических бенчмарках. По сравнению с ведущими решениями, такими как DeepSeek R1, o1 от OpenAI и Gemini 2.5-Pro ​​от Google, Qwen3-235B-A22B демонстрирует сопоставимые или улучшенные результаты по всему спектру задач, от синтеза алгоритмов до генерации формальных доказательств.

qwen3


Специализированные варианты: Qwen3-Math и QwenLong-L1

Qwen3-Математика

Qwen3-Math — это специализированный вариант, разработанный для задач математического рассуждения. Он расширяет поддержку как Chain-of-Thought (CoT), так и Tool-Integrated Reasoning (TIR) ​​для решения математических задач на китайском и английском языках. TIR повышает способность модели выполнять точные вычисления, символьные манипуляции и алгоритмические процессы, решая проблемы в задачах, требующих высокой точности вычислений.

QwenLong-L1

QwenLong-L1 — это фреймворк, который адаптирует модели рассуждений с коротким контекстом к сценариям с длинным контекстом посредством прогрессивного масштабирования контекста. Он использует этап контролируемой тонкой настройки для разогрева, чтобы установить надежную начальную политику, за которой следует метод поэтапного обучения с подкреплением, управляемый учебной программой, для стабилизации эволюции политики. Этот подход обеспечивает надежные рассуждения в средах с интенсивным использованием информации.

Проблемы и будущие направления

Галлюцинации и устойчивость

Несмотря на сильные количественные показатели, Qwen3 демонстрирует случайные «галлюцинации» в фактических или контекстуально неоднозначных сценариях. Текущие исследования сосредоточены на уточнении механизмов генерации и заземления с расширенным поиском для повышения фактической точности, поскольку предварительные анализы указывают на снижение частоты галлюцинаций на 15–20% при интеграции внешних баз знаний.

Квантование и развертывание периферии

В то время как умеренное квантование сохраняет основные возможности Qwen3, экстремальное сжатие остается проблемой. Дальнейшие достижения в обучении со смешанной точностью, аппаратно-ориентированных алгоритмах квантования и эффективных архитектурах преобразователей имеют важное значение для демократизации сложного ИИ на ограниченных устройствах, таких как смартфоны, датчики IoT и встроенные системы.


Заключение

Разработка Qwen3 отражает смену парадигмы в сторону унифицированных, динамически адаптируемых архитектур LLM, которые связывают беглость разговора с глубокими рассуждениями. Открывая исходный код своих весов и предлагая универсальные варианты развертывания — от облачного вывода до ускорения на устройстве — команда Qwen из Alibaba продвинула глобальное сотрудничество и инновации в области ИИ. Пока исследовательское сообщество решает оставшиеся проблемы в надежности моделей, квантизации и мультимодальной интеграции, Qwen3 выступает в качестве базовой платформы для интеллектуальных систем следующего поколения в различных отраслях.

Первые шаги

CometAPI предоставляет унифицированный интерфейс REST, который объединяет сотни моделей ИИ, включая семейство ChatGPT, в единой конечной точке со встроенным управлением ключами API, квотами использования и панелями выставления счетов. Вместо жонглирования несколькими URL-адресами поставщиков и учетными данными.

Разработчики могут получить доступ Квен 3 API через CometAPI.Для начала изучите возможности модели на игровой площадке и проконсультируйтесь с API-руководство для получения подробных инструкций. Перед доступом убедитесь, что вы вошли в CometAPI и получили ключ API.

Читать далее

500+ моделей в одном API

Скидка до 20%