En abril de 2025, Alibaba Cloud lanzó Qwen3, la última versión de la serie Qwen de modelos de lenguaje de gran tamaño (LLM). Como avance significativo en el campo de la inteligencia artificial, Qwen3 demuestra capacidades excepcionales en comprensión del lenguaje, razonamiento, procesamiento multimodal y eficiencia computacional. El modelo admite 119 idiomas, se entrena con un conjunto de datos de 36 billones de tokens y ofrece diversos tamaños de modelo, desde 0.6 millones hasta 235 3 millones de parámetros. Este artículo ofrece un análisis exhaustivo de la definición, las características, los métodos de uso, los enfoques de acceso, las comparaciones con otros modelos y su posible impacto en el ámbito de la IA, con el objetivo de servir como una referencia completa para desarrolladores, investigadores y empresas.
¿Qué es Qwen3?
Qwen3 es una serie de grandes modelos de lenguaje diseñados para comprender y generar texto con un lenguaje similar al humano, aptos para diversos escenarios, desde conversaciones cotidianas hasta tareas de razonamiento complejas. Es la tercera generación de la serie Qwen desarrollada por Alibaba Cloud, tras el lanzamiento de Qwen en 2023 y Qwen2 en 2024, que introdujeron mejoras de rendimiento y funcionalidad.
Una breve historia de la serie Qwen
La serie Qwen comenzó en abril de 2023 con el lanzamiento del modelo Qwen, inicialmente llamado "Tongyi Qianwen", basado en la arquitectura Llama de Meta AI. Tras recibir la aprobación del gobierno chino en septiembre de 2023, Qwen se lanzó oficialmente al público. En diciembre de 2023, los modelos Qwen 72B y 1.8B se convirtieron en código abierto, seguido del lanzamiento de Qwen2 en junio de 2024, que adoptó una arquitectura de Mezcla de Expertos (MoE). Qwen3, presentado en abril de 2025, incorpora capacidades de razonamiento híbrido y funcionalidades multimodales, lo que lo convierte en la versión más avanzada de la serie.
Características de Qwen3
Qwen3 ofrece una gama de características innovadoras que lo distinguen en el panorama global de modelos de IA:
Soporte multilingüe
Qwen3 admite 119 idiomas, abarcando los principales sistemas lingüísticos globales. Esto lo convierte en la opción ideal para aplicaciones interculturales y multilingües, como la atención al cliente internacional y la generación de contenido multilingüe.
Datos de entrenamiento a gran escala
El conjunto de datos de entrenamiento de Qwen3 consta de casi 36 billones de tokens, equivalentes a aproximadamente 270 mil millones de palabras. Incluye una amplia gama de contenido, como libros de texto, pares de preguntas y respuestas, fragmentos de código y contenido generado por IA, principalmente en chino e inglés. Esta escala garantiza un excelente rendimiento en la comprensión y generación de idiomas.
Diversos tamaños de modelos.
Qwen3 ofrece una variedad de tamaños de modelos que van desde 0.6 mil millones a 235 mil millones de parámetros:
- Modelos pequeños (0.6B, 1.7B): Adecuado para aplicaciones ligeras, capaz de ejecutarse en dispositivos como teléfonos inteligentes.
- Modelos medianos (4B, 8B, 14B, 32B): Equilibrar el rendimiento con las necesidades de recursos, aplicable a la mayoría de los escenarios de desarrollo.
- Modelos grandes (235B): Proporciona un rendimiento de primer nivel para tareas de nivel empresarial.
| Nombre de Modelo | Tamaño del parámetro | Ventana de contexto (tokens) | Escenarios Aplicables |
|---|---|---|---|
| Qwen3-0.6B | Más de 0.6 mil millones | 32,768 | Dispositivos móviles, aplicaciones ligeras |
| Qwen3-1.7B | Más de 1.7 mil millones | 32,768 | Sistemas embebidos, razonamiento rápido |
| Qwen3-4B | Más de 4 mil millones | 131,072 | Proyectos de investigación de tamaño pequeño a mediano |
| Qwen3-8B | Más de 8 mil millones | 131,072 | Aplicaciones generales, desarrollo |
| Qwen3-32B | Más de 32 mil millones | 131,072 | Tareas de alto rendimiento, aplicaciones empresariales |
| Qwen3-235B-A22B | Más de 235 mil millones | 131,072 | Rendimiento de primer nivel, razonamiento complejo (no disponible públicamente) |
Capacidades de razonamiento híbrido
Qwen3 introduce una función de "razonamiento híbrido" que permite al modelo razonar paso a paso antes de proporcionar respuestas a preguntas complejas. Esta capacidad es especialmente importante en razonamiento lógico, problemas matemáticos y tareas de programación. Los usuarios pueden habilitar o deshabilitar este modo mediante la configuración (p. ej., enable_thinking=True).
Modelos de mezcla de expertos (MoE)
Qwen3 incluye modelos de Mezcla de Expertos, como Qwen3-30B-A3B (30 mil millones de parámetros, 3 mil millones de activos) y Qwen3-235B-A22B (235 mil millones de parámetros, 22 mil millones de activos). Estos modelos aceleran la inferencia activando solo un subconjunto de parámetros, manteniendo un alto rendimiento, lo que los hace ideales para implementaciones a gran escala.
Límites de tokens ampliados
Algunos modelos de Qwen3 admiten ventanas de contexto de hasta 131,072 4 tokens (modelos 2B y superiores), un aumento significativo respecto a los 32,768 XNUMX tokens de QwenXNUMX. Esta mejora permite al modelo gestionar diálogos más largos y tareas de generación de texto más complejas.

Puntos de referencia de Qwen 3
El modelo demuestra competencia en la generación de código, depuración y resolución de problemas matemáticos, lo que lo convierte en una herramienta valiosa para el desarrollo de software y el análisis de datos.

Cómo utilizar Qwen3
Aplicaciones
La versatilidad de Qwen3 lo hace adecuado para diversos escenarios:
- Chatbots y Asistentes Virtuales: Proporcionar respuestas naturales y adaptadas al contexto para aplicaciones de asistencia al cliente y asistente personal.
- Generación de contenido: Generar artículos, historias, códigos y otros contenidos creativos o técnicos.
- Análisis de los datos: Ayudar a interpretar y resumir grandes conjuntos de datos para investigación e inteligencia empresarial.
- Herramientas educativas: Ayudar a los estudiantes con tareas, explicaciones y experiencias de aprendizaje personalizadas.
- Investigación científica: Apoyar la revisión de literatura, la generación de hipótesis y la resolución de problemas científicos.
Integración de proyectos
Los desarrolladores pueden integrar Qwen3 en sus proyectos utilizando los siguientes marcos y herramientas:
- Transformers: Requiere
transformers>=4.51.0Fragmento de código de ejemplo:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
outputs = model.generate(**inputs, enable_thinking=True)
print(tokenizer.decode(outputs))
Los usuarios pueden habilitar el modo de razonamiento con enable_thinking=True o controlarlo usando /think y /nothink.
- llama.cpp: Requiere
llama.cpp>=b5092Ejemplo de línea de comandos:
./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
- Ollama: Requiere
Ollama v0.6.6o superior. Ejecutar comando:
ollama run qwen3:8b
Admite parámetros como num_ctx 40960 y num_predict 32768.
- Opciones de implementación:
- Lenguaje único: Requiere
sglang>=0.4.6.post1Comando de lanzamiento:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 - vLLM: Requiere
vllm>=0.8.5. Comando de servicio:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1 - MindIE: Admite Ascend NPU; visita Modelers para obtener más detalles.
Uso de herramientas
Qwen-Agent admite la interacción de Qwen3 con herramientas y API externas, ideal para tareas que requieren acceso dinámico a datos. Esta función también es compatible con SGLang, vLLM, Transformers, llama.cpp y Ollama.
Sintonia FINA
Qwen3 se puede ajustar utilizando marcos como Axolotl, UnSloth, Swift y Llama-Factory, que admiten técnicas como el ajuste fino supervisado (SFT), la optimización de preferencia directa (DPO) y la optimización de preferencia robusta de grupo (GRPO).
Conclusión
Qwen3 representa un gran avance en el campo de los modelos de lenguaje de gran tamaño, ofreciendo mayor funcionalidad, versatilidad y accesibilidad. Con su compatibilidad multilingüe, razonamiento híbrido y versiones especializadas para tareas de visión, matemáticas y audio, Qwen3 se posiciona como un actor clave en el campo de la IA. Su rendimiento competitivo en benchmarks como Codeforces, AIME y BFCL, junto con su disponibilidad de código abierto, lo convierten en la opción ideal para desarrolladores, investigadores y empresas. A medida que la tecnología de IA avanza, Qwen3 representa un paso importante hacia la creación de sistemas inteligentes capaces de comprender, razonar e interactuar con el mundo de formas cada vez más sofisticadas.
Primeros Pasos
Los desarrolladores pueden acceder Qwen 3 API a través de CometAPIPara comenzar, explore las capacidades del modelo en el Playground y consulte la Guía de API Para obtener instrucciones detalladas, tenga en cuenta que algunos desarrolladores podrían necesitar verificar su organización antes de usar el modelo.
