Qwen3: Qué es y cómo se usa

CometAPI
AnnaApr 29, 2025
Qwen3: Qué es y cómo se usa

En abril de 2025, Alibaba Cloud lanzó Qwen3, la última versión de la serie Qwen de modelos de lenguaje de gran tamaño (LLM). Como avance significativo en el campo de la inteligencia artificial, Qwen3 demuestra capacidades excepcionales en comprensión del lenguaje, razonamiento, procesamiento multimodal y eficiencia computacional. El modelo admite 119 idiomas, se entrena con un conjunto de datos de 36 billones de tokens y ofrece diversos tamaños de modelo, desde 0.6 millones hasta 235 3 millones de parámetros. Este artículo ofrece un análisis exhaustivo de la definición, las características, los métodos de uso, los enfoques de acceso, las comparaciones con otros modelos y su posible impacto en el ámbito de la IA, con el objetivo de servir como una referencia completa para desarrolladores, investigadores y empresas.

¿Qué es Qwen3?

Qwen3 es una serie de grandes modelos de lenguaje diseñados para comprender y generar texto con un lenguaje similar al humano, aptos para diversos escenarios, desde conversaciones cotidianas hasta tareas de razonamiento complejas. Es la tercera generación de la serie Qwen desarrollada por Alibaba Cloud, tras el lanzamiento de Qwen en 2023 y Qwen2 en 2024, que introdujeron mejoras de rendimiento y funcionalidad.

Una breve historia de la serie Qwen

La serie Qwen comenzó en abril de 2023 con el lanzamiento del modelo Qwen, inicialmente llamado "Tongyi Qianwen", basado en la arquitectura Llama de Meta AI. Tras recibir la aprobación del gobierno chino en septiembre de 2023, Qwen se lanzó oficialmente al público. En diciembre de 2023, los modelos Qwen 72B y 1.8B se convirtieron en código abierto, seguido del lanzamiento de Qwen2 en junio de 2024, que adoptó una arquitectura de Mezcla de Expertos (MoE). Qwen3, presentado en abril de 2025, incorpora capacidades de razonamiento híbrido y funcionalidades multimodales, lo que lo convierte en la versión más avanzada de la serie.

Características de Qwen3

Qwen3 ofrece una gama de características innovadoras que lo distinguen en el panorama global de modelos de IA:

Soporte multilingüe

Qwen3 admite 119 idiomas, abarcando los principales sistemas lingüísticos globales. Esto lo convierte en la opción ideal para aplicaciones interculturales y multilingües, como la atención al cliente internacional y la generación de contenido multilingüe.

Datos de entrenamiento a gran escala

El conjunto de datos de entrenamiento de Qwen3 consta de casi 36 billones de tokens, equivalentes a aproximadamente 270 mil millones de palabras. Incluye una amplia gama de contenido, como libros de texto, pares de preguntas y respuestas, fragmentos de código y contenido generado por IA, principalmente en chino e inglés. Esta escala garantiza un excelente rendimiento en la comprensión y generación de idiomas.

Diversos tamaños de modelos.

Qwen3 ofrece una variedad de tamaños de modelos que van desde 0.6 mil millones a 235 mil millones de parámetros:

  • Modelos pequeños (0.6B, 1.7B): Adecuado para aplicaciones ligeras, capaz de ejecutarse en dispositivos como teléfonos inteligentes.
  • Modelos medianos (4B, 8B, 14B, 32B): Equilibrar el rendimiento con las necesidades de recursos, aplicable a la mayoría de los escenarios de desarrollo.
  • Modelos grandes (235B): Proporciona un rendimiento de primer nivel para tareas de nivel empresarial.
Nombre de ModeloTamaño del parámetroVentana de contexto (tokens)Escenarios Aplicables
Qwen3-0.6BMás de 0.6 mil millones32,768Dispositivos móviles, aplicaciones ligeras
Qwen3-1.7BMás de 1.7 mil millones32,768Sistemas embebidos, razonamiento rápido
Qwen3-4BMás de 4 mil millones131,072Proyectos de investigación de tamaño pequeño a mediano
Qwen3-8BMás de 8 mil millones131,072Aplicaciones generales, desarrollo
Qwen3-32BMás de 32 mil millones131,072Tareas de alto rendimiento, aplicaciones empresariales
Qwen3-235B-A22BMás de 235 mil millones131,072Rendimiento de primer nivel, razonamiento complejo (no disponible públicamente)

Capacidades de razonamiento híbrido

Qwen3 introduce una función de "razonamiento híbrido" que permite al modelo razonar paso a paso antes de proporcionar respuestas a preguntas complejas. Esta capacidad es especialmente importante en razonamiento lógico, problemas matemáticos y tareas de programación. Los usuarios pueden habilitar o deshabilitar este modo mediante la configuración (p. ej., enable_thinking=True).

Modelos de mezcla de expertos (MoE)

Qwen3 incluye modelos de Mezcla de Expertos, como Qwen3-30B-A3B (30 mil millones de parámetros, 3 mil millones de activos) y Qwen3-235B-A22B (235 mil millones de parámetros, 22 mil millones de activos). Estos modelos aceleran la inferencia activando solo un subconjunto de parámetros, manteniendo un alto rendimiento, lo que los hace ideales para implementaciones a gran escala.

Límites de tokens ampliados

Algunos modelos de Qwen3 admiten ventanas de contexto de hasta 131,072 4 tokens (modelos 2B y superiores), un aumento significativo respecto a los 32,768 XNUMX tokens de QwenXNUMX. Esta mejora permite al modelo gestionar diálogos más largos y tareas de generación de texto más complejas.

Qwen3

Puntos de referencia de Qwen 3

El modelo demuestra competencia en la generación de código, depuración y resolución de problemas matemáticos, lo que lo convierte en una herramienta valiosa para el desarrollo de software y el análisis de datos.

Qwen3: Qué es y cómo se usa

Cómo utilizar Qwen3

Aplicaciones

La versatilidad de Qwen3 lo hace adecuado para diversos escenarios:

  • Chatbots y Asistentes Virtuales: Proporcionar respuestas naturales y adaptadas al contexto para aplicaciones de asistencia al cliente y asistente personal.
  • Generación de contenido: Generar artículos, historias, códigos y otros contenidos creativos o técnicos.
  • Análisis de los datos: Ayudar a interpretar y resumir grandes conjuntos de datos para investigación e inteligencia empresarial.
  • Herramientas educativas: Ayudar a los estudiantes con tareas, explicaciones y experiencias de aprendizaje personalizadas.
  • Investigación científica: Apoyar la revisión de literatura, la generación de hipótesis y la resolución de problemas científicos.

Integración de proyectos

Los desarrolladores pueden integrar Qwen3 en sus proyectos utilizando los siguientes marcos y herramientas:

  • Transformers: Requiere transformers>=4.51.0Fragmento de código de ejemplo:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Los usuarios pueden habilitar el modo de razonamiento con enable_thinking=True o controlarlo usando /think y /nothink.

  • llama.cpp: Requiere llama.cpp>=b5092Ejemplo de línea de comandos:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Ollama: Requiere Ollama v0.6.6 o superior. Ejecutar comando:
  ollama run qwen3:8b

Admite parámetros como num_ctx 40960 y num_predict 32768.

  • Opciones de implementación:
  • Lenguaje único: Requiere sglang>=0.4.6.post1Comando de lanzamiento: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: Requiere vllm>=0.8.5. Comando de servicio: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: Admite Ascend NPU; visita Modelers para obtener más detalles.

Uso de herramientas

Qwen-Agent admite la interacción de Qwen3 con herramientas y API externas, ideal para tareas que requieren acceso dinámico a datos. Esta función también es compatible con SGLang, vLLM, Transformers, llama.cpp y Ollama.

Sintonia FINA

Qwen3 se puede ajustar utilizando marcos como Axolotl, UnSloth, Swift y Llama-Factory, que admiten técnicas como el ajuste fino supervisado (SFT), la optimización de preferencia directa (DPO) y la optimización de preferencia robusta de grupo (GRPO).

Conclusión

Qwen3 representa un gran avance en el campo de los modelos de lenguaje de gran tamaño, ofreciendo mayor funcionalidad, versatilidad y accesibilidad. Con su compatibilidad multilingüe, razonamiento híbrido y versiones especializadas para tareas de visión, matemáticas y audio, Qwen3 se posiciona como un actor clave en el campo de la IA. Su rendimiento competitivo en benchmarks como Codeforces, AIME y BFCL, junto con su disponibilidad de código abierto, lo convierten en la opción ideal para desarrolladores, investigadores y empresas. A medida que la tecnología de IA avanza, Qwen3 representa un paso importante hacia la creación de sistemas inteligentes capaces de comprender, razonar e interactuar con el mundo de formas cada vez más sofisticadas.

Primeros Pasos

Los desarrolladores pueden acceder Qwen 3 API a través de CometAPIPara comenzar, explore las capacidades del modelo en el Playground y consulte la Guía de API Para obtener instrucciones detalladas, tenga en cuenta que algunos desarrolladores podrían necesitar verificar su organización antes de usar el modelo.

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento