Alibaba AI presenta Qwen3-Max: modelo Qwen de billones de parámetros, compatible con CometAPI

CometAPI
AnnaOct 15, 2025
Alibaba AI presenta Qwen3-Max: modelo Qwen de billones de parámetros, compatible con CometAPI

El equipo Qwen de Alibaba ha lanzado Vista previa de Qwen3-Max (Instrucciones) — el modelo más grande de la compañía hasta la fecha, con más de 1 billón de parámetros — y lo puso a disposición de inmediato a través de Qwen Chat, Alibaba Cloud Model Studio (API) y plataformas de terceros como CometAPI. La versión preliminar se centra en el razonamiento, la codificación y los flujos de trabajo con documentos extensos, combinando una escalabilidad extrema con una ventana de contexto muy amplia y almacenamiento en caché de contexto para mantener una latencia baja en sesiones largas.

Aspectos técnicos clave

  1. Recuento masivo de parámetros (más de un billón): La transición a un modelo con más de un billón de parámetros está diseñada para aumentar la capacidad de aprendizaje de patrones complejos (razonamiento multipaso, síntesis de código, comprensión profunda de documentos). Los primeros benchmarks publicados por Qwen indican mejores resultados en razonamiento, codificación y conjuntos de benchmarks en comparación con los modelos superiores anteriores de Qwen.
  2. Contexto ultralargo y almacenamiento en caché: El elemento 262k token La ventana permite a los equipos alimentar informes extensos, bases de código multiarchivo o historiales de chat extensos en una sola pasada. La compatibilidad con el almacenamiento en caché de contexto reduce los cálculos repetidos para contextos recurrentes y puede reducir la latencia y el costo de sesiones prolongadas.
  3. Habilidad multilingüe y codificación: La familia Qwen3 enfatiza el soporte bilingüe (chino/inglés) y multilingüe amplio, además de una codificación más sólida y un manejo de salida estructurado, útil para asistentes de código, generación de informes automatizados y análisis de texto a gran escala.
  4. Diseñado para velocidad y calidad. Los usuarios de la versión preliminar describen una velocidad de respuesta "increíble" y un mejor seguimiento de instrucciones y razonamiento en comparación con las variantes anteriores de Qwen3. Alibaba posiciona el modelo como un producto estrella de alto rendimiento para escenarios de producción, agentes y desarrolladores.

Disponibilidad y acceso

Cargos de Alibaba Cloud escalonado, basado en tokens Precios de Qwen3-Max-Preview (tarifas de entrada y salida independientes). La facturación se realiza por millón de tokens y se aplica a los tokens consumidos después de cualquier cuota gratuita.

Los precios de vista previa publicados por Alibaba (USD) están escalonados según solicitud Las opciones de entrada Volumen de tokens (los mismos niveles determinan qué tarifas unitarias se aplican):

  • 0–32 XNUMX tokens de entrada: 0.861 / 1 millón de tokens de entrada** y **3.441 / 1 millón de tokens de salida.
  • 32 128–XNUMX XNUMX tokens de entrada: 1.434 / 1 millón de tokens de entrada** y **5.735 / 1 millón de tokens de salida.
  • 128 252–XNUMX XNUMX tokens de entrada: 2.151 / 1 millón de tokens de entrada** y **8.602 / 1 millón de tokens de salida.

CometAPI ofrece un descuento oficial del 20% para ayudar a los usuarios a llamar a la API, los detalles se refieren a Vista previa de Qwen3-Max:

Tokens de entrada$0.24
Fichas de salida$2.42

Qwen3-Max amplía la familia Qwen3 (que ha utilizado diseños híbridos como variantes de Mezcla de Expertos y múltiples niveles de parámetros activos en versiones anteriores). Las versiones anteriores de Qwen3 de Alibaba se centraban tanto en el modo de "pensamiento" (razonamiento paso a paso) como en el de "instrucciones"; Qwen3-Max se posiciona como la nueva variante de instrucción de gama alta en esta línea, lo que demuestra que supera al anterior producto de mayor rendimiento de la compañía, el Qwen3-235B-A22B-2507, y que el modelo de parámetros 1T es líder en diversas pruebas.

En SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2 y LiveBench (20241125), Qwen3-Max-Preview se ubica constantemente por delante de Claude Opus 4, Kimi K2 y Deepseek-V3.1.

Alibaba AI presenta Qwen3-Max: modelo Qwen de billones de parámetros, compatible con CometAPI

Cómo acceder y utilizar Qwen3-Max (guía práctica)

1) Pruébalo en el navegador (Qwen Chat)

Visite Chat de Qwen (interfaz web/chat oficial de Qwen) y seleccione el Vista previa de Qwen3-Max (Instruir) modelo si se muestra en el selector de modelos. Esta es la forma más rápida de evaluar visualmente las tareas conversacionales y de instrucción.

2) Acceso vía Alibaba Cloud (Model Studio / API en la nube)

  • Iniciar sesión en Alibaba Cloud → Estudio de modelos / Servicio de modelosCree una instancia de inferencia o seleccione el punto final del modelo alojado para qwen3-max-vista previa (o la versión de vista previa etiquetada).
  • Autentíquese usando su clave de acceso de Alibaba Cloud/roles de RAM y llame al punto final de inferencia con una solicitud POST que contenga su mensaje y cualquier parámetro de generación (temperatura, tokens máximos, etc.).

3) Utilizar a través de hosts/agregadores de terceros

Según la cobertura, la vista previa está disponible a través de CometAPI y otros agregadores de API que permiten a los desarrolladores acceder a múltiples modelos alojados con una única clave de API. Esto simplifica las pruebas entre proveedores, pero también permite verificar la latencia, la disponibilidad regional y las políticas de gestión de datos de cada host.

Primeros Pasos

CometAPI es una plataforma API unificada que integra más de 500 modelos de IA de proveedores líderes, como la serie GPT de OpenAI, Gemini de Google, Claude de Anthropic, Midjourney, Suno y más, en una única interfaz intuitiva para desarrolladores. Al ofrecer autenticación, formato de solicitudes y gestión de respuestas consistentes, CometAPI simplifica drásticamente la integración de las capacidades de IA en sus aplicaciones. Ya sea que esté desarrollando chatbots, generadores de imágenes, compositores musicales o canales de análisis basados ​​en datos, CometAPI le permite iterar más rápido, controlar costos y mantenerse independiente del proveedor, todo mientras aprovecha los últimos avances del ecosistema de IA.

Conclusión

Qwen3-Max-Preview posiciona a Alibaba entre las organizaciones que envían modelos a gran escala a sus clientes. La combinación de una longitud de contexto extrema y una API compatible con OpenAI reduce la barrera de integración para las empresas que necesitan razonamiento de documentos extensos, automatización de código u orquestación de agentes. El costo y la estabilidad de la vista previa son las principales consideraciones de adopción: las organizaciones querrán realizar pruebas piloto con almacenamiento en caché, streaming y llamadas por lotes para gestionar tanto la latencia como los precios.

SHARE THIS BLOG

500+ Modelos en Una API

Hasta 20% de Descuento