Em 23 de julho de 2025, o Alibaba Group lançou oficialmente o Qwen3-Coder, um modelo de inteligência artificial de código aberto desenvolvido especialmente para desenvolvimento de software e tarefas de codificação autônomas. O anúncio posiciona o Qwen3-Coder como o modelo de codificação mais avançado da empresa até o momento, com escala e desempenho sem precedentes, projetados para atender às necessidades complexas das equipes modernas de engenharia de software.
A variante principal, Qwen3‑Coder‑480B‑A35B‑Instruct, compreende um modelo MoE de 480 bilhões de parâmetros com 35 bilhões de parâmetros ativos, suportando nativamente janelas de contexto de até 256 mil tokens e extensível a 1 milhão de tokens por meio de técnicas de extrapolação. Esse amplo comprimento de contexto permite que o modelo mantenha a coerência em grandes bases de código, documentação e projetos com vários arquivos sem perder o controle das dependências.
Especificações e capacidades do modelo do Qwen3‑Coder
Os principais destaques técnicos incluem:
Benchmarks Extensivos:De acordo com o Alibaba, o Qwen3‑Coder supera todos os modelos de codificação de código aberto existentes em benchmarks como SWE‑Bench‑Verified e avaliações de codificação agentic, demonstrando precisão, eficiência e qualidade de código superiores.
Estrutura de codificação agêntica:Aproveitando o aprendizado de reforço de longo prazo (Agent RL), o Qwen3‑Coder pode planejar tarefas de codificação de forma autônoma, invocar ferramentas externas para desenvolvedores e se autocorrigir com base em ciclos de feedback, espelhando processos de engenharia de software do mundo real.
Modos de pensamento duplo: Um modo unificado de pensamento e não pensamento permite que o modelo adapte orçamentos computacionais dinamicamente, alternando entre resposta rápida para scripts simples e raciocínio mais profundo para desafios algorítmicos complexos.
Benchmarks de desempenho
Em benchmarks internos, o Qwen3-Coder superou os principais concorrentes nacionais, incluindo o DeepSeek e o K2 da Moonshot AI, em métricas de codificação importantes, como precisão na geração de código e depuração de vários arquivos. Além disso, o Alibaba afirma estar em pé de igualdade com os principais modelos americanos — o GPT-4 da OpenAI e o Claude da Anthropic — em desafios de codificação padrão, reforçando sua competitividade em escala global.
| Modelo | Falhas de tempo de execução (%) | Erros gramaticais (%) | Taxa de pontuação zero (%) | Total de falhas (%) | Max Score | Pontuação mediana | Lacuna mediana (%) |
|---|---|---|---|---|---|---|---|
| OpenAI o4 mini (alto) | 1.11 | 3.33 | 6.67 | 11.11 | 77.75 | 66.75 | 14.16 |
| Soneto 4 de Claude (Pense) | 1.11 | 5.56 | 3.33 | 10.00 | 75.67 | 66.98 | 11.49 |
| Qwen3-Coder-480B-A35B | 5.56 | 4.44 | 10.00 | 20.00 | 72.85 | 52.04 | 28.57 |
| Gêmeos 2.5 Pró | 2.22 | 7.78 | 8.89 | 18.89 | 72.24 | 58.05 | 19.65 |
| DeepSeek R1 0528 | 3.33 | 5.56 | 13.33 | 22.22 | 69.36 | 49.25 | 29.00 |
| Soneto de Claude 4 | 3.33 | 4.44 | 7.78 | 15.55 | 68.26 | 61.02 | 10.60 |
| GPT-4.1 mini | 2.22 | 7.78 | 3.33 | 13.33 | 64.39 | 50.87 | 20.99 |
| Qwen3-235B-A22B-Instruct-2507 | 4.44 | 16.67 | 13.33 | 34.44 | 63.24 | 42.44 | 32.89 |
Treinado em um enorme Conjunto de dados de tokens de 7.5 trilhões, Com mais 70% Com base nos dados obtidos de repositórios de código de alta qualidade, o Qwen3-Coder foi refinado ainda mais usando aprendizado por reforço baseado em cenários de desenvolvimento do mundo real. Esse ajuste fino pós-treinamento melhorou significativamente a taxa de sucesso da execução do modelo e sua robustez na geração de código correto e eficiente.
Qwen3-Coder já está disponível em Abraçando o rosto e GitHub, e os desenvolvedores podem acessá-lo por meio do Estúdio de modelo de nuvem Alibaba API. Também foi integrado ao Tongyi Lingma (Código Qwen), assistente de codificação de IA do Alibaba, proporcionando implantação perfeita para desenvolvedores empresariais e individuais.
Código Qwen
Para facilitar a ampla adoção, o Alibaba está lançando simultaneamente Código Qwen, uma interface de linha de comando construída sobre o Gemini CLI que conecta perfeitamente o Qwen3-Coder a ambientes de desenvolvimento populares, sistemas de controle de versão e pipelines de CI/CD. Esta ferramenta apresenta:
- Prompts personalizados e chamadas de função: Padrões de interação pré-configurados que orientam os desenvolvedores durante a geração de testes, revisão de código e tarefas de implantação.
- Arquitetura de Plugin: Módulos extensíveis para integração de depuradores, linters e criadores de perfil de desempenho de terceiros.
- Acesso ao Alibaba Cloud Model Studio: Provisionamento de API com um clique, painéis de monitoramento e opções de ajuste fino dentro do ecossistema Alibaba Cloud.
Os desenvolvedores podem instalar o Qwen Code por meio do gerenciador npm ou usar o código-fonte do GitHub. O Qwen Code suporta o OpenAI SDK chamando LLM.
Começando a jornada
A CometAPI é uma plataforma de API unificada que agrega mais de 500 modelos de IA de provedores líderes — como a série GPT da OpenAI, a Gemini do Google, a Claude da Anthropic, a Midjourney e a Suno, entre outros — em uma interface única e amigável ao desenvolvedor. Ao oferecer autenticação, formatação de solicitações e tratamento de respostas consistentes, a CometAPI simplifica drasticamente a integração de recursos de IA em seus aplicativos. Seja para criar chatbots, geradores de imagens, compositores musicais ou pipelines de análise baseados em dados, a CometAPI permite iterar mais rapidamente, controlar custos e permanecer independente de fornecedores — tudo isso enquanto aproveita os avanços mais recentes em todo o ecossistema de IA.
Os desenvolvedores podem interagir com Codificador Qwen3 por meio de uma API compatível com o estilo OpenAI, disponível via CometAPI. CometAPI, que oferecem código aberto(qwen3-coder-480b-a35b-instruct) e versões comerciais(qwen3-coder-plus; qwen3-coder-plus-2025-07-22) pelo mesmo preço. A versão comercial tem 1 milhão de caracteres. Código de exemplo para Python (usando o cliente compatível com OpenAI) com as melhores práticas que recomendam configurações de amostragem de temperatura = 0.7, top_p = 0.8, top_k = 20 e repeat_penalty = 1.05. Os comprimentos de saída podem chegar a 65,536 tokens, tornando-o adequado para grandes tarefas de geração de código.
Para começar, explore as capacidades dos modelos no Playground e consulte o Guia de API para obter instruções detalhadas. Antes de acessar, certifique-se de ter feito login no CometAPI e obtido a chave da API.


