Qwen3: cos'è e come si usa

CometAPI
AnnaApr 29, 2025
Qwen3: cos'è e come si usa

Nell'aprile 2025, Alibaba Cloud ha lanciato Qwen3, l'ultima versione della serie Qwen di modelli linguistici di grandi dimensioni (LLM). Rappresentando un significativo progresso nel campo dell'intelligenza artificiale, Qwen3 dimostra eccezionali capacità in termini di comprensione del linguaggio, ragionamento, elaborazione multimodale ed efficienza computazionale. Il modello supporta 119 lingue, è addestrato su un dataset di 36 trilioni di token e offre diverse dimensioni di modello, da 0.6 miliardi a 235 miliardi di parametri. Questo articolo fornisce un'analisi approfondita della definizione, delle caratteristiche, dei metodi di utilizzo, degli approcci di accesso, dei confronti con altri modelli e del suo potenziale impatto sul dominio dell'intelligenza artificiale, con l'obiettivo di fungere da riferimento completo per sviluppatori, ricercatori e aziende.

Cos'è Qwen3?

Qwen3 è una serie di modelli linguistici di grandi dimensioni progettati per comprendere e generare testi di tipo umano, adatti a una vasta gamma di scenari, dalle conversazioni quotidiane ai compiti di ragionamento più complessi. È la terza generazione della serie Qwen sviluppata da Alibaba Cloud, dopo il rilascio di Qwen nel 2023 e Qwen2 nel 2024, che hanno introdotto miglioramenti in termini di prestazioni e funzionalità.

Una breve storia della serie Qwen

La serie Qwen è iniziata nell'aprile 2023 con il rilascio del modello Qwen, inizialmente denominato "Tongyi Qianwen", basato sull'architettura Llama di Meta AI. Dopo aver ricevuto l'approvazione del governo cinese nel settembre 2023, Qwen è stato ufficialmente rilasciato al pubblico. Nel dicembre 2023, i modelli Qwen 72B e 1.8B sono stati resi open source, seguiti dal lancio di Qwen2 nel giugno 2024, che ha adottato un'architettura Mixture of Experts (MoE). Qwen3, introdotto nell'aprile 2025, incorpora capacità di ragionamento ibrido e funzionalità multimodali, rendendolo la versione più avanzata della serie.

Caratteristiche di Qwen3

Qwen3 offre una gamma di funzionalità innovative che lo distinguono nel panorama globale dei modelli di intelligenza artificiale:

Supporto multilingue

Qwen3 supporta 119 lingue, coprendo i principali sistemi linguistici globali. Questo lo rende la scelta ideale per applicazioni multiculturali e multilingue, come l'assistenza clienti internazionale e la generazione di contenuti multilingue.

Dati di addestramento su larga scala

Il dataset di addestramento di Qwen3 è composto da quasi 36 trilioni di token, equivalenti a circa 270 miliardi di parole. Include un'ampia gamma di contenuti, come libri di testo, coppie di domande e risposte, frammenti di codice e contenuti generati dall'intelligenza artificiale, principalmente in cinese e inglese. Questa scala garantisce le sue eccellenti prestazioni nella comprensione e nella generazione delle lingue.

Diverse dimensioni del modello

Qwen3 offre una varietà di dimensioni di modelli che vanno da 0.6 miliardi a 235 miliardi di parametri:

  • Modelli piccoli (0.6B, 1.7B): Adatto ad applicazioni leggere, in grado di funzionare su dispositivi come gli smartphone.
  • Modelli medi (4B, 8B, 14B, 32B): Bilanciare le prestazioni con le esigenze di risorse, applicabile alla maggior parte degli scenari di sviluppo.
  • Modelli grandi (235B): Garantisce prestazioni di altissimo livello per le attività di livello aziendale.
Nome del modelloDimensione parametroFinestra di contesto (token)Scenari applicabili
Qwen3-0.6B0.6 miliardi32,768Dispositivi mobili, applicazioni leggere
Qwen3-1.7B1.7 miliardi32,768Sistemi embedded, ragionamento rapido
Qwen3-4B4 miliardi131,072Progetti di piccole e medie dimensioni, ricerca
Qwen3-8B8 miliardi131,072Applicazioni generali, sviluppo
Qwen3-32B32 miliardi131,072Attività ad alte prestazioni, applicazioni aziendali
Qwen3-235B-A22B235 miliardi131,072Prestazioni di alto livello, ragionamento complesso (non disponibile al pubblico)

Capacità di ragionamento ibrido

Qwen3 introduce una funzionalità di "ragionamento ibrido" che consente al modello di ragionare passo dopo passo prima di fornire risposte a domande complesse. Questa capacità è particolarmente evidente nel ragionamento logico, nei problemi matematici e nelle attività di programmazione. Gli utenti possono abilitare o disabilitare questa modalità tramite le impostazioni (ad esempio, enable_thinking=True).

Modelli di mix di esperti (MoE)

Qwen3 include modelli Mixture of Experts, come Qwen3-30B-A3B (30 miliardi di parametri, 3 miliardi attivi) e Qwen3-235B-A22B (235 miliardi di parametri, 22 miliardi attivi). Questi modelli accelerano l'inferenza attivando solo un sottoinsieme di parametri, mantenendo al contempo prestazioni elevate, il che li rende ideali per l'implementazione su larga scala.

Limiti dei token estesi

Alcuni modelli Qwen3 supportano finestre di contesto fino a 131,072 token (modelli 4B e superiori), un aumento significativo rispetto ai 2 token di Qwen32,768. Questo miglioramento consente al modello di gestire dialoghi più lunghi e attività di generazione di testo più complesse.

Qwen3

Benchmark di Qwen 3

Il modello dimostra competenza nella generazione di codice, nel debug e nella risoluzione di problemi matematici, il che lo rende uno strumento prezioso per lo sviluppo di software e l'analisi dei dati.

Qwen3: cos'è e come si usa

Come usare Qwen3

Applicazioni

La versatilità di Qwen3 lo rende adatto a diversi scenari:

  • Chatbot e assistenti virtuali: Fornire risposte naturali e contestuali per applicazioni di assistenza clienti e di assistenza personale.
  • Generazione di contenuti: Genera articoli, storie, codice e altri contenuti creativi o tecnici.
  • Analisi dei dati: Aiutare nell'interpretazione e nella sintesi di grandi set di dati per la ricerca e l'intelligence aziendale.
  • Strumenti didattici: Aiutare gli studenti con i compiti, le spiegazioni e le esperienze di apprendimento personalizzate.
  • Ricerca scientifica: Supportare la revisione della letteratura, la generazione di ipotesi e la risoluzione di problemi scientifici.

Integrazione del progetto

Gli sviluppatori possono integrare Qwen3 nei loro progetti utilizzando i seguenti framework e strumenti:

  • Transformers: Richiede transformers>=4.51.0Esempio di frammento di codice:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Gli utenti possono abilitare la modalità di ragionamento con enable_thinking=True o controllarlo utilizzando /think e al /nothink.

  • lama.cpp: Richiede llama.cpp>=b5092Esempio di riga di comando:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Ollam: Richiede Ollama v0.6.6 o superiore. Esegui il comando:
  ollama run qwen3:8b

Supporta parametri come num_ctx 40960 e al num_predict 32768.

  • Opzioni di distribuzione:
  • SGLang: Richiede sglang>=0.4.6.post1. Comando di avvio: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: Richiede vllm>=0.8.5. Comando di servizio: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: Supporta Ascend NPU; visita Modelers per maggiori dettagli.

Utilizzo dello strumento

Qwen-Agent supporta l'interazione di Qwen3 con strumenti e API esterni, ideale per attività che richiedono un accesso dinamico ai dati. Questa funzionalità è supportata anche da SGLang, vLLM, Transformers, llama.cpp e Ollama.

Ritocchi

Qwen3 può essere ottimizzato utilizzando framework quali Axolotl, UnSloth, Swift e Llama-Factory, supportando tecniche quali Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) e Group Robust Preference Optimization (GRPO).

Conclusione

Qwen3 rappresenta una svolta nel campo dei modelli linguistici di grandi dimensioni, offrendo funzionalità avanzate, versatilità e accessibilità. Grazie al supporto multilingue, al ragionamento ibrido e alle versioni specializzate per attività visive, matematiche e audio, Qwen3 si posiziona come un attore chiave nel campo dell'intelligenza artificiale. Le sue prestazioni competitive in benchmark come Codeforces, AIME e BFCL, insieme alla sua disponibilità open source, lo rendono la scelta ideale per sviluppatori, ricercatori e aziende. Con l'avanzare della tecnologia dell'intelligenza artificiale, Qwen3 rappresenta un passo importante verso la creazione di sistemi intelligenti in grado di comprendere, ragionare e interagire con il mondo in modi sempre più sofisticati.

Iniziamo

Gli sviluppatori possono accedere Qwen 3 API tramite CometaAPIPer iniziare, esplora le capacità del modello nel Playground e consulta il Guida API per istruzioni dettagliate. Si noti che alcuni sviluppatori potrebbero dover verificare la propria organizzazione prima di utilizzare il modello.

Leggi di più

500+ Modelli in Una API

Fino al 20% di sconto