Il 16 febbraio 2026 — in concomitanza con il momento di massima visibilità della vigilia del Capodanno cinese — Alibaba ha annunciato il lancio di Qwen 3.5, la prossima grande iterazione della sua famiglia di modelli linguistici e multimodali di punta.
Le varianti di Qwen stanno colmando il divario con i principali modelli closed-source, mentre altri rilasci cinesi come GLM-5 e MiniMax M2.5 spingono anch’essi la frontiera. Sui soli massimali dei benchmark alcune configurazioni proprietarie (varianti specializzate di GPT/Gemini/Claude) restano in testa in nicchie ristrette, ma la combinazione di pesi aperti, funzionalità agentiche multimodali e costi operativi molto più bassi fa di Qwen-3.5 l’arrivo più dirompente dell’inizio del 2026.
Che cos’è esattamente Qwen3.5?
Qwen3.5 è l’ultima generazione della famiglia di modelli fondamentali multimodali a pesi aperti di Alibaba (pesi aperti per alcune varianti, più un livello chiuso/“plus” per un’offerta a prestazioni superiori) progettata per flussi di lavoro cosiddetti “agentici”, ossia modelli che sanno percepire (visione + testo), ragionare su più passaggi e azionare strumenti o eseguire azioni. L’annuncio di Alibaba presenta Qwen3.5 come un salto in prestazioni + costi rispetto a Qwen3 e alle varianti precedenti, con capacità native visione-linguaggio/agentiche e supporto per finestre di contesto molto ampie.
Versioni rilasciate
Alibaba ha pubblicato almeno due varianti:
| Versione del modello | Parametri totali | Parametri attivi | Caratteristiche chiave |
|---|---|---|---|
| Qwen3.5-397B-A17B | ~397 miliardi | 17 miliardi | Modello di punta a pesi aperti; inferenza efficiente; multimodale |
| Qwen3.5-Plus | ~3970 miliardi equivalenti | ~170 miliardi | Variante a piena capacità ospitata nel cloud per uso via API |
Quali sono le caratteristiche chiave di Qwen3.5?
Di seguito una panoramica dettagliata delle principali innovazioni alla base di Qwen3.5 e del confronto con i migliori modelli closed-source:
1. Architettura ibrida ed efficienza d’inferenza
Qwen3.5 combina:
- Strati MoE sparsi — per uno scaling efficiente
- Gated Delta Networks con attenzione lineare — per un’elaborazione dei token più rapida
- Finestra di contesto enorme — fino a 1M token (estensibile), che abilita sequenze di compiti estese come video lunghi o codebase senza compromessi provvisori
| Caratteristica | Qwen3.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| Architettura | MoE + Gated Delta | Transformer denso | Transformer denso | Transformer denso |
| Lunghezza del contesto | Fino a 1M token | ~100–200K token | ~100–200K token | ~100–200K token |
| Multimodale (nativa) | Sì | Sì | Sì | Sì |
| Lingue supportate | 201+ | ~100+ | ~100+ | ~100+ |
| Efficienza d’inferenza | Molto alta | Moderata | Moderata | Moderata |
Valutazione: L’architettura ibrida di Qwen3.5 è particolarmente adatta all’inferenza efficiente su grandi quantità di token, un vantaggio competitivo nelle implementazioni reali dove contano throughput e costi.
2. Capacità agentiche
“AI agentica” si riferisce a modelli che operazionalizzano i compiti in modo autonomo — prendendo decisioni, agendo su target GUI o eseguendo logiche multistep senza prompt umani.
Gli annunci ufficiali di Alibaba affermano che Qwen3.5:
- Esegue compiti multistep in modo autonomo su applicazioni mobile e desktop
- Supporta il lavoro di agenti visivi, come la manipolazione della GUI e la comprensione di video
- Include ragionamento esteso e pianificazione dei compiti
Questo colloca Qwen3.5 non solo come un LLM conversazionale, ma come fondamento per flussi di lavoro AI autonomi — attualmente una frontiera emergente nella ricerca e nell’adozione dell’AI.
3. Multimodalità e copertura linguistica
Una delle caratteristiche distintive di Qwen3.5 è la multimodalità nativa: gestisce input di testo, immagini e video senza soluzione di continuità — un segno distintivo dei sistemi di nuova generazione. Inoltre, il supporto linguistico si è ampliato notevolmente, coprendo ora 201 lingue e dialetti (in aumento rispetto a 119 in Qwen3), ampliando enormemente l’applicabilità globale.
4. Intelligenza multimodale
A differenza della maggior parte dei modelli linguistici tradizionali che eccellono solo sul testo, l’integrazione visione-linguaggio di Qwen 3.5 abilita funzioni come:
- Comprensione di video lunghi — con supporto dichiarato fino a 2 ore di input video continuo.
- Ragionamento e interpretazione visivi — per compiti come riconoscimento d’immagine, didascalizzazione e interpretazione di comandi visivi.
- Sintesi di GUI e codice — ad es., conversione di mockup visivi di UI in codice funzionante.
Queste caratteristiche lo posizionano non solo come un LLM ma come fondamento multimodale per agenti autonomi.
Come si comporta Qwen-3.5 nei benchmark

Valutazioni del ragionamento di base e della conoscenza
La seguente tabella riassume i valori di benchmark pubblicati che confrontano Qwen3.5 con i principali concorrenti proprietari:
| Benchmark | Qwen3.5 | GPT-5.2 | Claude 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMLU-Pro (conoscenza) | 87,8 | ~85+ | n/d | ~86+ |
| GPQA (ragionamento a livello PhD) | 88,4 | ~87 | ~87 | ~88 |
| IFBench (esecuzione di istruzioni) | 76,5 | ~74–75 | ~75 | ~74 |
| BFCL-V4 (agente generale) | >Gemini 3 Pro | Baseline | Inferiore a Qwen3.5 | Vedi note |
- TAU2-Bench (esecuzione di strumenti + ragionamento): Qwen3.5 (variante aperta 397B) — ~87,1; le configurazioni GPT-5.2 spesso variano tra alti 80 e 90 nei suite TAU secondo le tabelle dei vendor.
- BFCL-V4 (function/tool calling): Qwen3.5 — ~72,9; i modelli chiusi al vertice nelle classifiche dei fornitori mostrano valori più alti (varianti GPT-5.2 / Claude Opus intorno a ~77–78 per alcune configurazioni). BFCL misura selezione accurata della funzione, composizione degli argomenti e orchestrazione degli strumenti.
- VITA-Bench (interazioni agentiche multimodali): Qwen3.5 — ~49,7; i modelli chiusi concorrenti mostrano una distribuzione: alcuni hanno un ragionamento visivo single-modality più alto ma i numeri dell’agente multimodale integrato di Qwen sono competitivi.
- DeepPlanning (pianificazione a lungo orizzonte): Qwen3.5 — ~34,3; DeepPlanning è un test più recente e più impegnativo focalizzato su pianificazione multi-day e passaggi a lungo orizzonte (paper: arXiv). I punteggi di tutti i modelli d’avanguardia mostrano margini di miglioramento; il valore di Qwen è che migliora la capacità agentica a lungo orizzonte rispetto alle iterazioni Qwen precedenti.
- MMLU / MMMLU / compiti di conoscenza: Qwen3.5 — MMLU/varianti riportati ~88–89 (numeri del vendor), posizionandolo nella fascia alta per conoscenza/ ragionamento generale rispetto alle versioni Qwen precedenti.
Cosa implicano questi numeri: Qwen3.5 ottiene punteggi particolarmente elevati nelle classifiche di agenti multimodali e multi-tool (BFCL, varianti TAU2, VITA), in linea con gli obiettivi di prodotto dichiarati da Alibaba (agenti che agiscono nelle app). Su ragionamento standard o segmenti di coding il modello è competitivo ma non un dominatore assoluto su tutta la linea rispetto ai sistemi chiusi più forti — piuttosto siede nella fascia alta e colma il divario in molte aree pratiche. Qwen3.5 almeno eguaglia o supera di poco i principali modelli closed-source in compiti selezionati — in particolare ragionamento su conoscenza, comprensione multimodale e flussi di lavoro agentici.
Qwen3.5 supera i modelli closed-source di fascia alta nel 2026?
Questa è la domanda centrale — e la risposta richiede una sfumatura attenta. La maggior parte degli analisti neutrali di AI caratterizzerebbe Qwen3.5 come competitivo con la fascia più alta dei modelli closed-source nel 2026 e — in termini di costo-valore reale — spesso superiore per molti casi d’uso pratici, soprattutto quando multimodalità e lunghezza del contesto sono critiche.
Sì — In specifici benchmark e metriche di costo
Efficienza e prezzi: Su costo per token, velocità d’inferenza e convenienza d’implementazione, Qwen3.5 è significativamente avanti.
Prestazioni sui benchmark: I risultati riportati mostrano che Qwen3.5 eguaglia o supera GPT-5.2 e Gemini 3 Pro nel ragionamento basato su conoscenza (MMLU-Pro) e su benchmark di ragionamento avanzato. Nei compiti agentici, dichiara prestazioni superiori a Gemini 3 Pro e GPT-5.2.
Capacità agentiche: L’architettura di Qwen3.5 sembra particolarmente forte nelle suite di compiti agentici in cui multimodalità e contesto esteso contano. Nei compiti agentici, dichiara prestazioni superiori a Gemini 3 Pro e GPT-5.2.
Scenari in cui Qwen-3.5 verosimilmente supera
- Stack d’inferenza su larga scala e sensibili alla latenza in cui i miglioramenti di throughput si traducono direttamente in risparmi sui costi (es., chat clienti ad alto volume, generazione di codice in bulk). Le affermazioni sul throughput di Qwen-3.5 lo rendono attraente.
- Implementazioni on-premise e sensibili alla privacy in cui pesi aperti e fine-tuning locale sono essenziali (sanità, settori regolamentati). La licenza aperta riduce il lock-in al fornitore.
- Pipeline agentiche multimodali integrate in app proprietarie in cui i percorsi nativi dalla visione all’azione riducono la complessità di integrazione e migliorano i tassi di successo end-to-end.
Prezzo e sconti: l’efficienza dei costi come vantaggio competitivo
Uno dei differenziatori più rilevanti per Qwen3.5 è il pricing — sia il costo assoluto sia il confronto con sistemi proprietari statunitensi.
Prezzi di API e token
| Modello | Prezzo API per 1M di token | Indice di costo relativo* |
|---|---|---|
| Qwen3.5-Plus (Alibaba) | ~0,8 CNY (~$0,11) | 1× |
| Gemini 3 Pro | ~14,4 CNY (~$2,00) | ~18× |
| GPT-5.2 | ~12–20 CNY (~$1,70–$2,80) | ~15–25× |
| Claude Opus 4.5 | ~12–15 CNY (~$1,70–$2,10) | ~15–18× |
*Convertito da prezzi locali riportati; valori approssimativi a scopo di confronto.
Osservazione: Il prezzo nativo di Qwen3.5 — circa 1/18 di alcuni modelli proprietari — cambia radicalmente il rapporto costo-prestazioni per ecosistemi enterprise e sviluppatori. Costi per token più bassi riducono drasticamente l’overhead di implementazione, specialmente per compiti d’inferenza ad alto volume.
Impatto strategico e di mercato
La combinazione di licenza aperta (Apache 2.0), multimodalità, prontezza agentica e prezzi bassi di Qwen3.5 potrebbe rimodellare i modelli globali di adozione dell’AI — soprattutto per gli sviluppatori internazionali che danno priorità a costo e flessibilità.
Inoltre, questo rilascio potrebbe accelerare le dinamiche competitive:
- Maggiore pressione sui fornitori a sorgente chiusa affinché offrano prezzi migliori o pesi aperti.
- Più adozione dell’AI nei sistemi enterprise locali dove i vincoli di costo storicamente limitavano l’implementazione.
- Innovazione di ricerca ampliata grazie all’accesso aperto e ai contributi della community su piattaforme come Hugging Face e l’ecosistema sviluppatori di Alibaba.
Conclusione
Il rilascio di Qwen3.5 alla vigilia del Capodanno cinese ha probabilmente stabilito un nuovo riferimento nel panorama dell’AI del 2026. Sebbene sistemi proprietari come GPT-5.2, Claude Opus 4.5 e Gemini 3 Pro restino formidabili, Qwen3.5 eguaglia o supera le loro prestazioni in molti compiti — e lo fa con costi drasticamente inferiori e ampie capacità multimodali.
Nelle valutazioni di benchmark, molte misure di vertice collocano Qwen3.5 alla pari o al di sopra della fascia di prestazioni dei principali modelli closed-source; in termini di costo ed efficienza d’inferenza, è decisamente superiore.
Gli sviluppatori possono accedere alla Qwen 3.5 API tramite CometAPI già da ora. Per iniziare, esplora le capacità del modello nel Playground e consulta la guida API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l’accesso a CometAPI e di aver ottenuto la chiave API. CometAPI offre un prezzo molto più basso rispetto al prezzo ufficiale per aiutarti a integrare.
Pronto a iniziare? → Registrati a Qwen-3.5 oggi!
Se vuoi conoscere altri suggerimenti, guide e news sull’AI seguici su VK, X e Discord!
