Em 16 de fevereiro de 2026 — programado para coincidir com o momento de alta visibilidade da véspera do Ano Novo Chinês — a Alibaba anunciou o lançamento do Qwen 3.5, a próxima grande iteração de sua família principal de modelos grandes de linguagem e multimodais.
As variantes do Qwen estão reduzindo a diferença em relação aos principais modelos de código fechado, enquanto outros lançamentos chineses, como GLM-5 e MiniMax M2.5, também avançam a fronteira. Em tetos de benchmarks puros, algumas configurações proprietárias (variantes especializadas de GPT/Gemini/Claude) ainda lideram em nichos específicos, mas a combinação do Qwen-3.5 de pesos abertos, recursos de agente multimodal e custo operacional muito menor o torna a chegada mais disruptiva do início de 2026.
O que é Qwen3.5, exatamente?
Qwen3.5 é a última geração da família de modelos básicos multimodais de pesos abertos da Alibaba (pesos abertos para algumas variantes mais uma camada fechada/“plus” para uma oferta de maior desempenho) projetada para fluxos de trabalho chamados “agentic” — isto é, modelos que podem perceber (visão + texto), raciocinar em várias etapas e acionar ferramentas ou ações. O anúncio da Alibaba enquadra o Qwen3.5 como um salto de desempenho + custo em relação ao Qwen3 e variantes anteriores, com capacidades nativas de visão-linguagem/agentic e suporte a janelas de contexto amplas.
Versões lançadas
A Alibaba publicou pelo menos duas variantes:
| Versão do modelo | Parâmetros totais | Parâmetros ativos | Características principais |
|---|---|---|---|
| Qwen3.5-397B-A17B | ~397 bilhões | 17 bilhões | Carro-chefe de pesos abertos; inferência eficiente; multimodal |
| Qwen3.5-Plus | ~3970 bilhões equivalente | ~170 bilhões | Variante hospedada na nuvem de capacidade total para uso via API |
Quais são os principais recursos do Qwen3.5?
Abaixo está uma visão detalhada das inovações principais do Qwen3.5 e de como elas se comparam com os principais modelos de código fechado:
1. Arquitetura híbrida e eficiência de inferência
Qwen3.5 combina:
- Camadas MoE esparsas — para escalonamento eficiente
- Redes Gated Delta com atenção linear — para processamento de tokens mais rápido
- Janela de contexto massiva — até 1M de tokens (extensível), permitindo sequências de tarefas prolongadas, como vídeos longos ou bases de código, sem compromissos com placeholders
| Recurso | Qwen3.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| Arquitetura | MoE + Gated Delta | Transformer denso | Transformer denso | Transformer denso |
| Comprimento de contexto | Até 1M de tokens | ~100–200K tokens | ~100–200K tokens | ~100–200K tokens |
| Multimodal (nativo) | Sim | Sim | Sim | Sim |
| Idiomas suportados | 201+ | ~100+ | ~100+ | ~100+ |
| Eficiência de inferência | Muito alta | Moderada | Moderada | Moderada |
Avaliação: A arquitetura híbrida do Qwen3.5 é particularmente adequada para inferência eficiente com grande volume de tokens, uma vantagem competitiva em implantação real, onde throughput e custo importam.
2. Capacidades agentic
“Agentic AI” refere-se a modelos que operacionalizam tarefas de forma autônoma — tomando decisões, atuando em alvos de GUI ou executando lógica em várias etapas sem prompts humanos.
Os anúncios oficiais da Alibaba afirmam que o Qwen3.5:
- Executa tarefas multietapas autonomamente em aplicações móveis e desktop
- Suporta trabalho de agente visual, como manipulação de GUI e compreensão de vídeo
- Inclui raciocínio estendido e planejamento de tarefas
Isso posiciona o Qwen3.5 não apenas como um LLM conversacional, mas como uma base para fluxos de trabalho de IA autônoma — atualmente uma fronteira emergente em pesquisa e implantação de IA.
3. Multimodalidade e cobertura de idiomas
Um dos destaques do Qwen3.5 é a capacidade multimodal nativa: ele lida com entrada de texto, imagem e vídeo de forma integrada — um marco de sistemas de IA de próxima geração. Além disso, o suporte a idiomas foi ampliado dramaticamente, cobrindo agora 201 idiomas e dialetos (ante 119 no Qwen3), ampliando enormemente a aplicabilidade global.
4. Inteligência multimodal
Ao contrário da maioria dos modelos de linguagem tradicionais que se destacam apenas em texto, a integração visão-linguagem do Qwen 3.5 habilita funções como:
- Compreensão de vídeos longos — suportando supostamente até 2 horas de entrada de vídeo contínua.
- Raciocínio e interpretação visual — em tarefas como reconhecimento de imagens, legendagem e interpretação de comandos visuais.
- Síntese de GUI e código — p.ex., convertendo mockups visuais de UI em código funcional.
Esses recursos o posicionam não apenas como um LLM, mas como uma base multimodal para agentes autônomos.
Como o Qwen-3.5 se sai em benchmarks

Avaliações de raciocínio central e conhecimento
A tabela a seguir resume os números de benchmark publicados comparando o Qwen3.5 com grandes concorrentes proprietários:
| Benchmark | Qwen3.5 | GPT-5.2 | Claude 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMLU-Pro (conhecimento) | 87.8 | ~85+ | n/a | ~86+ |
| GPQA (raciocínio em nível de PhD) | 88.4 | ~87 | ~87 | ~88 |
| IFBench (seguimento de instruções) | 76.5 | ~74–75 | ~75 | ~74 |
| BFCL-V4 (agente geral) | >Gemini 3 Pro | Base | Abaixo de Qwen3.5 | Ver notas |
- TAU2-Bench (execução de ferramentas + raciocínio): Qwen3.5 (variante aberta 397B) — ~87.1; configurações do GPT-5.2 frequentemente variam entre altos 80s–90s nas suítes TAU nas tabelas dos fornecedores.
- BFCL-V4 (chamada de função/ferramenta): Qwen3.5 — ~72.9; modelos fechados de topo em quadros de líderes de fornecedores mostram valores mais altos (variantes GPT-5.2 / Claude Opus variam ~77–78 para algumas configurações). BFCL mede seleção precisa de função, montagem de argumentos e orquestração de ferramentas.
- VITA-Bench (interações agentic multimodais): Qwen3.5 — ~49.7; modelos fechados concorrentes mostram variação: alguns têm raciocínio visual monomodais mais altos, mas os números de agente multimodal integrado do Qwen são competitivos.
- DeepPlanning (planejamento de longo prazo): Qwen3.5 — ~34.3; DeepPlanning é um teste mais novo e mais difícil focado em planejamento de múltiplos dias e etapas de longo horizonte (artigo: arXiv). As pontuações em todos os modelos de fronteira mostram espaço para melhoria; o valor do Qwen é que está aprimorando a capacidade agentic de longo horizonte em relação a iterações anteriores do Qwen.
- MMLU / MMMLU / tarefas de conhecimento: Qwen3.5 — MMLU/variantes relatadas ~88–89 (números do fornecedor), colocando-o no alto escalão para conhecimento geral/raciocínio em comparação com versões anteriores do Qwen.
O que esses números implicam: O Qwen3.5 pontua especialmente bem em quadros de líderes de agentes multimodais e multiherramentas (BFCL, variantes TAU2, VITA), o que se alinha aos objetivos de produto declarados pela Alibaba (agentes que atuam em apps). Em fatias padrão de raciocínio ou codificação, o modelo é competitivo, mas não um dominador absoluto de ponta a ponta sobre os sistemas fechados mais fortes — em vez disso, ele está no escalão superior e reduz lacunas em muitas áreas práticas. O Qwen3.5 pelo menos iguala ou supera por pouco os principais modelos de código fechado em tarefas selecionadas — particularmente raciocínio de conhecimento, compreensão multimodal e fluxos de trabalho de agentes.
O Qwen3.5 supera os modelos de código fechado de nível máximo em 2026?
Esta é a questão central — e a resposta requer nuance cuidadosa. A maioria dos analistas neutros de IA caracterizaria o Qwen3.5 como competitivo com o escalão mais alto de modelos de código fechado em 2026, e — em termos de custo-valor real — frequentemente superior para muitos casos práticos, especialmente onde multimodalidade e comprimento de contexto são críticos.
Sim — em benchmarks específicos e métricas de custo
Eficiência e preços: Em custo por token, velocidade de inferência e acessibilidade de implantação, o Qwen3.5 está significativamente à frente.
Desempenho em benchmarks: Resultados relatados mostram o Qwen3.5 igualando ou superando GPT-5.2 e Gemini 3 Pro em raciocínio de conhecimento (MMLU-Pro) e benchmarks de raciocínio avançado. Em tarefas agentic, ele afirma desempenho acima de Gemini 3 Pro e GPT-5.2.
Capacidades de agentes: A arquitetura do Qwen3.5 parece particularmente forte em suítes de tarefas agentic onde multimodalidade e contexto estendido importam. Em tarefas agentic, ele afirma desempenho acima de Gemini 3 Pro e GPT-5.2.
Cenários em que o Qwen-3.5 provavelmente supera
- Pilhas de inferência em larga escala e sensíveis à latência onde melhorias de throughput se convertem diretamente em economia de custo (p.ex., atendimento ao cliente de alto volume, geração massiva de código). As alegações de throughput do Qwen-3.5 o tornam atraente.
- Implantações on-premise e sensíveis à privacidade onde pesos abertos e fine-tuning local são essenciais (saúde, setores regulados). A licença aberta reduz o lock-in de fornecedores.
- Pipelines agentic multimodais integrados em apps proprietários onde vias nativas de visão-para-ação reduzem a complexidade de integração e melhoram taxas de sucesso de ponta a ponta.
Preço e desconto: eficiência de custo como vantagem competitiva
Um dos diferenciais mais marcantes do Qwen3.5 é o preço — tanto seu custo absoluto quanto como ele se compara a sistemas proprietários baseados nos EUA.
Preços de API e tokens
| Modelo | Preço de API por 1M de tokens | Índice de custo relativo* |
|---|---|---|
| Qwen3.5-Plus (Alibaba) | ~0,8 CNY (~$0.11) | 1× |
| Gemini 3 Pro | ~14,4 CNY (~$2.00) | ~18× |
| GPT-5.2 | ~12–20 CNY (~$1.70–$2.80) | ~15–25× |
| Claude Opus 4.5 | ~12–15 CNY (~$1.70–$2.10) | ~15–18× |
*Convertido a partir de preços locais relatados; valores aproximados para contexto comparativo.
Insight: O preço nativo do Qwen3.5 — em cerca de 1/18 de alguns modelos proprietários — muda fundamentalmente o custo-desempenho para ecossistemas empresariais e de desenvolvedores. Custos de token mais baixos reduzem dramaticamente a sobrecarga de implantação, especialmente para tarefas de inferência de grande volume.
Impacto estratégico e de mercado
A combinação do Qwen3.5 de licenciamento aberto (Apache 2.0), capacidade multimodal, prontidão agentic e preço baixo pode remodelar padrões de implantação de IA global — especialmente para desenvolvedores internacionais que priorizam custo e flexibilidade.
Além disso, este lançamento pode acelerar dinâmicas competitivas:
- Aumento da pressão sobre fornecedores de código fechado para oferecer melhor precificação ou pesos abertos.
- Mais adoção de IA em sistemas empresariais locais onde restrições de custo historicamente limitaram a implantação.
- Inovação de pesquisa expandida devido ao acesso aberto e contribuições da comunidade em plataformas como Hugging Face e o próprio ecossistema de desenvolvedores da Alibaba.
Conclusão
O lançamento do Qwen3.5 na véspera do Ano Novo Chinês provavelmente estabeleceu um novo patamar no cenário de IA de 2026. Embora sistemas proprietários como GPT-5.2, Claude Opus 4.5 e Gemini 3 Pro permaneçam formidáveis, o Qwen3.5 iguala ou supera seu desempenho em muitas tarefas — e faz isso com custos dramaticamente menores e amplas capacidades multimodais.
Em avaliações de benchmark, muitas medidas líderes colocam o Qwen3.5 no mesmo nível ou acima do patamar de desempenho dos principais modelos de código fechado; em custo e eficiência de inferência, ele é decididamente superior.
Os desenvolvedores podem acessar a API do Qwen 3.5 via CometAPI agora. Para começar, explore as capacidades do modelo no Playground e consulte o guia da API para instruções detalhadas. Antes de acessar, certifique-se de que fez login na CometAPI e obteve a chave de API. A CometAPI oferece um preço muito inferior ao oficial para ajudá-lo a integrar.
Pronto para começar?→ Inscreva-se no Qwen-3.5 hoje!
Se quiser saber mais dicas, guias e notícias sobre IA, siga-nos no VK, X e Discord!
