El 23 de julio de 2025, Alibaba Group lanzó oficialmente Qwen3-Coder, un modelo de inteligencia artificial de código abierto diseñado para el desarrollo de software y tareas de codificación autónoma. Este anuncio posiciona a Qwen3-Coder como el modelo de codificación más avanzado de la compañía hasta la fecha, con capacidades de escala y rendimiento sin precedentes, diseñadas para satisfacer las complejas necesidades de los equipos de ingeniería de software modernos.
La variante insignia, Qwen3‑Coder‑480B‑A35B‑InstructComprende un modelo MoE de 480 mil millones de parámetros con 35 mil millones de parámetros activos, compatible de forma nativa con ventanas de contexto de hasta 256 1 tokens y ampliable a XNUMX millón de tokens mediante técnicas de extrapolación. Esta amplia longitud de contexto permite que el modelo mantenga la coherencia en grandes bases de código, documentación y proyectos con múltiples archivos sin perder el control de las dependencias.
Especificaciones y capacidades del modelo Qwen3-Coder
Los aspectos técnicos más destacados incluyen:
Amplios puntos de referenciaSegún Alibaba, Qwen3-Coder supera a todos los modelos de codificación de código abierto existentes en puntos de referencia como SWE-Bench-Verified y evaluaciones de codificación agentic, demostrando una precisión, eficiencia y calidad de código superiores.
Marco de codificación agenticAl aprovechar el aprendizaje de refuerzo de horizonte largo (Agent RL), Qwen3-Coder puede planificar de forma autónoma tareas de codificación, invocar herramientas de desarrollo externas y autocorregirse en función de bucles de retroalimentación, reflejando los procesos de ingeniería de software del mundo real.
Modos de pensamiento dualUn modo unificado de pensamiento y no pensamiento permite que el modelo adapte los presupuestos computacionales de forma dinámica, alternando entre una respuesta rápida para scripts sencillos y un razonamiento más profundo para desafíos algorítmicos complejos.
Puntos de referencia de rendimiento
En benchmarks internos, Qwen3-Coder superó a sus principales competidores nacionales, como DeepSeek y K2 de Moonshot AI, en métricas clave de codificación, como la precisión en la generación de código y la depuración de múltiples archivos. Además, Alibaba afirma estar a la par con los principales modelos estadounidenses —en concreto, GPT-4 de OpenAI y Claude de Anthropic— en desafíos de codificación estándar, lo que subraya su competitividad a escala global.
| Modelo | Fallos en tiempo de ejecución (%) | Errores gramaticales (%) | Tasa de puntuación cero (%) | Fallos totales (%) | Max Score | Puntuación media | Brecha mediana (%) |
|---|---|---|---|---|---|---|---|
| OpenAI o4 mini (alto) | 1.11 | 3.33 | 6.67 | 11.11 | 77.75 | 66.75 | 14.16 |
| Soneto 4 de Claude (Piensa) | 1.11 | 5.56 | 3.33 | 10.00 | 75.67 | 66.98 | 11.49 |
| Codificador Qwen3-480B-A35B | 5.56 | 4.44 | 10.00 | 20.00 | 72.85 | 52.04 | 28.57 |
| Géminis 2.5 Pro | 2.22 | 7.78 | 8.89 | 18.89 | 72.24 | 58.05 | 19.65 |
| Búsqueda profunda R1 0528 | 3.33 | 5.56 | 13.33 | 22.22 | 69.36 | 49.25 | 29.00 |
| Soneto de Claude 4 | 3.33 | 4.44 | 7.78 | 15.55 | 68.26 | 61.02 | 10.60 |
| GPT-4.1 mini | 2.22 | 7.78 | 3.33 | 13.33 | 64.39 | 50.87 | 20.99 |
| Qwen3-235B-A22B-Instrucción-2507 | 4.44 | 16.67 | 13.33 | 34.44 | 63.24 | 42.44 | 32.89 |
Entrenado en un masivo conjunto de datos de 7.5 billones de tokens, con más de 70% A partir de los datos provenientes de repositorios de código de alta calidad, Qwen3-Coder se perfeccionó aún más mediante aprendizaje por refuerzo basado en escenarios de desarrollo reales. Este ajuste posterior al entrenamiento mejoró significativamente la tasa de éxito de ejecución del modelo y su robustez para generar código correcto y eficiente.
Qwen3-Coder ya está disponible en Abrazando la cara y GitHub, y los desarrolladores pueden acceder a él a través de Estudio de modelos de Alibaba Cloud API. También se ha integrado en **Tongyi Lingma (Código Qwen)**Asistente de codificación de inteligencia artificial de Alibaba, que proporciona una implementación perfecta tanto para empresas como para desarrolladores individuales.
Código Qwen
Para facilitar una adopción amplia, Alibaba está lanzando simultáneamente Código Qwen, una interfaz de línea de comandos basada en Gemini CLI que conecta Qwen3-Coder sin problemas con entornos de desarrollo populares, sistemas de control de versiones y pipelines de CI/CD. Esta herramienta incluye:
- Avisos personalizados y llamadas a funciones:Patrones de interacción preconfigurados que guían a los desarrolladores a través de la generación de pruebas, revisión de código y tareas de implementación.
- Arquitectura del complemento:Módulos extensibles para integrar depuradores, linters y perfiladores de rendimiento de terceros.
- Acceso a Alibaba Cloud Model Studio:Aprovisionamiento de API con un solo clic, paneles de monitoreo y opciones de ajuste dentro del ecosistema de Alibaba Cloud.
Los desarrolladores pueden instalar Qwen Code a través del administrador npm o usar el código fuente de GitHub. Qwen Code admite OpenAI SDK llamando a LLM.
Primeros Pasos
CometAPI es una plataforma API unificada que integra más de 500 modelos de IA de proveedores líderes, como la serie GPT de OpenAI, Gemini de Google, Claude de Anthropic, Midjourney, Suno y más, en una única interfaz intuitiva para desarrolladores. Al ofrecer autenticación, formato de solicitudes y gestión de respuestas consistentes, CometAPI simplifica drásticamente la integración de las capacidades de IA en sus aplicaciones. Ya sea que esté desarrollando chatbots, generadores de imágenes, compositores musicales o canales de análisis basados en datos, CometAPI le permite iterar más rápido, controlar costos y mantenerse independiente del proveedor, todo mientras aprovecha los últimos avances del ecosistema de IA.
Los desarrolladores pueden interactuar con Codificador Qwen3 a través de una API compatible con el estilo OpenAI, disponible a través de CometAPI. CometAPI, que ofrecen código abierto(qwen3-coder-480b-a35b-instruct) y versiones comerciales(qwen3-coder-plus; qwen3-coder-plus-2025-07-22) al mismo precio. La versión comercial tiene una longitud de 1 MB. Código de ejemplo para Python (usando el cliente compatible con OpenAI) con prácticas recomendadas que recomiendan ajustes de muestreo de temperatura = 0.7, top_p = 0.8, top_k = 20 y una penalización de repetición de 1.05. La longitud de salida puede alcanzar hasta 65,536 XNUMX tokens, lo que la hace ideal para tareas de generación de código de gran tamaño.
Para comenzar, explore las capacidades de los modelos en el Playground y consultar el Guía de API Para obtener instrucciones detalladas, consulte la sección "Antes de acceder, asegúrese de haber iniciado sesión en CometAPI y de haber obtenido la clave API".


