Nell'aprile 2025, Alibaba Cloud ha lanciato Qwen3, l'ultima versione della serie Qwen di modelli linguistici di grandi dimensioni (LLM). Rappresentando un significativo progresso nel campo dell'intelligenza artificiale, Qwen3 dimostra eccezionali capacità in termini di comprensione del linguaggio, ragionamento, elaborazione multimodale ed efficienza computazionale. Il modello supporta 119 lingue, è addestrato su un dataset di 36 trilioni di token e offre diverse dimensioni di modello, da 0.6 miliardi a 235 miliardi di parametri. Questo articolo fornisce un'analisi approfondita della definizione, delle caratteristiche, dei metodi di utilizzo, degli approcci di accesso, dei confronti con altri modelli e del suo potenziale impatto sul dominio dell'intelligenza artificiale, con l'obiettivo di fungere da riferimento completo per sviluppatori, ricercatori e aziende.
Cos'è Qwen3?
Qwen3 è una serie di modelli linguistici di grandi dimensioni progettati per comprendere e generare testi di tipo umano, adatti a una vasta gamma di scenari, dalle conversazioni quotidiane ai compiti di ragionamento più complessi. È la terza generazione della serie Qwen sviluppata da Alibaba Cloud, dopo il rilascio di Qwen nel 2023 e Qwen2 nel 2024, che hanno introdotto miglioramenti in termini di prestazioni e funzionalità.
Una breve storia della serie Qwen
La serie Qwen è iniziata nell'aprile 2023 con il rilascio del modello Qwen, inizialmente denominato "Tongyi Qianwen", basato sull'architettura Llama di Meta AI. Dopo aver ricevuto l'approvazione del governo cinese nel settembre 2023, Qwen è stato ufficialmente rilasciato al pubblico. Nel dicembre 2023, i modelli Qwen 72B e 1.8B sono stati resi open source, seguiti dal lancio di Qwen2 nel giugno 2024, che ha adottato un'architettura Mixture of Experts (MoE). Qwen3, introdotto nell'aprile 2025, incorpora capacità di ragionamento ibrido e funzionalità multimodali, rendendolo la versione più avanzata della serie.
Caratteristiche di Qwen3
Qwen3 offre una gamma di funzionalità innovative che lo distinguono nel panorama globale dei modelli di intelligenza artificiale:
Supporto multilingue
Qwen3 supporta 119 lingue, coprendo i principali sistemi linguistici globali. Questo lo rende la scelta ideale per applicazioni multiculturali e multilingue, come l'assistenza clienti internazionale e la generazione di contenuti multilingue.
Dati di addestramento su larga scala
Il dataset di addestramento di Qwen3 è composto da quasi 36 trilioni di token, equivalenti a circa 270 miliardi di parole. Include un'ampia gamma di contenuti, come libri di testo, coppie di domande e risposte, frammenti di codice e contenuti generati dall'intelligenza artificiale, principalmente in cinese e inglese. Questa scala garantisce le sue eccellenti prestazioni nella comprensione e nella generazione delle lingue.
Diverse dimensioni del modello
Qwen3 offre una varietà di dimensioni di modelli che vanno da 0.6 miliardi a 235 miliardi di parametri:
- Modelli piccoli (0.6B, 1.7B): Adatto ad applicazioni leggere, in grado di funzionare su dispositivi come gli smartphone.
- Modelli medi (4B, 8B, 14B, 32B): Bilanciare le prestazioni con le esigenze di risorse, applicabile alla maggior parte degli scenari di sviluppo.
- Modelli grandi (235B): Garantisce prestazioni di altissimo livello per le attività di livello aziendale.
| Nome del modello | Dimensione parametro | Finestra di contesto (token) | Scenari applicabili |
|---|---|---|---|
| Qwen3-0.6B | 0.6 miliardi | 32,768 | Dispositivi mobili, applicazioni leggere |
| Qwen3-1.7B | 1.7 miliardi | 32,768 | Sistemi embedded, ragionamento rapido |
| Qwen3-4B | 4 miliardi | 131,072 | Progetti di piccole e medie dimensioni, ricerca |
| Qwen3-8B | 8 miliardi | 131,072 | Applicazioni generali, sviluppo |
| Qwen3-32B | 32 miliardi | 131,072 | Attività ad alte prestazioni, applicazioni aziendali |
| Qwen3-235B-A22B | 235 miliardi | 131,072 | Prestazioni di alto livello, ragionamento complesso (non disponibile al pubblico) |
Capacità di ragionamento ibrido
Qwen3 introduce una funzionalità di "ragionamento ibrido" che consente al modello di ragionare passo dopo passo prima di fornire risposte a domande complesse. Questa capacità è particolarmente evidente nel ragionamento logico, nei problemi matematici e nelle attività di programmazione. Gli utenti possono abilitare o disabilitare questa modalità tramite le impostazioni (ad esempio, enable_thinking=True).
Modelli di mix di esperti (MoE)
Qwen3 include modelli Mixture of Experts, come Qwen3-30B-A3B (30 miliardi di parametri, 3 miliardi attivi) e Qwen3-235B-A22B (235 miliardi di parametri, 22 miliardi attivi). Questi modelli accelerano l'inferenza attivando solo un sottoinsieme di parametri, mantenendo al contempo prestazioni elevate, il che li rende ideali per l'implementazione su larga scala.
Limiti dei token estesi
Alcuni modelli Qwen3 supportano finestre di contesto fino a 131,072 token (modelli 4B e superiori), un aumento significativo rispetto ai 2 token di Qwen32,768. Questo miglioramento consente al modello di gestire dialoghi più lunghi e attività di generazione di testo più complesse.

Benchmark di Qwen 3
Il modello dimostra competenza nella generazione di codice, nel debug e nella risoluzione di problemi matematici, il che lo rende uno strumento prezioso per lo sviluppo di software e l'analisi dei dati.

Come usare Qwen3
Applicazioni
La versatilità di Qwen3 lo rende adatto a diversi scenari:
- Chatbot e assistenti virtuali: Fornire risposte naturali e contestuali per applicazioni di assistenza clienti e di assistenza personale.
- Generazione di contenuti: Genera articoli, storie, codice e altri contenuti creativi o tecnici.
- Analisi dei dati: Aiutare nell'interpretazione e nella sintesi di grandi set di dati per la ricerca e l'intelligence aziendale.
- Strumenti didattici: Aiutare gli studenti con i compiti, le spiegazioni e le esperienze di apprendimento personalizzate.
- Ricerca scientifica: Supportare la revisione della letteratura, la generazione di ipotesi e la risoluzione di problemi scientifici.
Integrazione del progetto
Gli sviluppatori possono integrare Qwen3 nei loro progetti utilizzando i seguenti framework e strumenti:
- Transformers: Richiede
transformers>=4.51.0Esempio di frammento di codice:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
outputs = model.generate(**inputs, enable_thinking=True)
print(tokenizer.decode(outputs))
Gli utenti possono abilitare la modalità di ragionamento con enable_thinking=True o controllarlo utilizzando /think e al /nothink.
- lama.cpp: Richiede
llama.cpp>=b5092Esempio di riga di comando:
./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
- Ollam: Richiede
Ollama v0.6.6o superiore. Esegui il comando:
ollama run qwen3:8b
Supporta parametri come num_ctx 40960 e al num_predict 32768.
- Opzioni di distribuzione:
- SGLang: Richiede
sglang>=0.4.6.post1. Comando di avvio:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 - vLLM: Richiede
vllm>=0.8.5. Comando di servizio:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1 - MindIE: Supporta Ascend NPU; visita Modelers per maggiori dettagli.
Utilizzo dello strumento
Qwen-Agent supporta l'interazione di Qwen3 con strumenti e API esterni, ideale per attività che richiedono un accesso dinamico ai dati. Questa funzionalità è supportata anche da SGLang, vLLM, Transformers, llama.cpp e Ollama.
Ritocchi
Qwen3 può essere ottimizzato utilizzando framework quali Axolotl, UnSloth, Swift e Llama-Factory, supportando tecniche quali Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) e Group Robust Preference Optimization (GRPO).
Conclusione
Qwen3 rappresenta una svolta nel campo dei modelli linguistici di grandi dimensioni, offrendo funzionalità avanzate, versatilità e accessibilità. Grazie al supporto multilingue, al ragionamento ibrido e alle versioni specializzate per attività visive, matematiche e audio, Qwen3 si posiziona come un attore chiave nel campo dell'intelligenza artificiale. Le sue prestazioni competitive in benchmark come Codeforces, AIME e BFCL, insieme alla sua disponibilità open source, lo rendono la scelta ideale per sviluppatori, ricercatori e aziende. Con l'avanzare della tecnologia dell'intelligenza artificiale, Qwen3 rappresenta un passo importante verso la creazione di sistemi intelligenti in grado di comprendere, ragionare e interagire con il mondo in modi sempre più sofisticati.
Iniziamo
Gli sviluppatori possono accedere Qwen 3 API tramite CometaAPIPer iniziare, esplora le capacità del modello nel Playground e consulta il Guida API per istruzioni dettagliate. Si noti che alcuni sviluppatori potrebbero dover verificare la propria organizzazione prima di utilizzare il modello.
