Come funziona Qwen3?

CometAPI
AnnaJun 1, 2025
Come funziona Qwen3?

Qwen3 rappresenta un significativo passo avanti nei modelli linguistici di grandi dimensioni (LLM) open source, combinando sofisticate capacità di ragionamento con elevata efficienza e ampia accessibilità. Sviluppato dai team di ricerca e cloud computing di Alibaba, Qwen3 è posizionato per competere con i principali sistemi proprietari come GPT-4x di OpenAI e PaLM di Google, pur rimanendo completamente aperto grazie alla licenza Apache 2.0. Questo articolo esplora in dettaglio la concezione di Qwen3, i suoi meccanismi sottostanti, il programma di addestramento che ne ha forgiato le capacità e le modalità con cui gli sviluppatori di tutto il mondo possono sfruttarne la potenza.


Cos'è Qwen3 e perché è importante?

I modelli linguistici di grandi dimensioni hanno trasformato la comprensione e la generazione del linguaggio naturale, alimentando tutto, dagli agenti conversazionali agli assistenti di programmazione. Qwen3 è l'ultimo arrivato nella famiglia Qwen di Alibaba, dopo Qwen2.5 e le sue varianti, e incarna diverse innovazioni di punta:

  • Ragionamento ibrido:Integra perfettamente le modalità "pensante" e "non pensante" in un'unica architettura, consentendo l'allocazione dinamica delle risorse di calcolo in base alla complessità dell'attività.
  • Opzioni di mix di esperti (MoE): Offre modelli che attivano solo un sottoinsieme di moduli esperti specializzati per query, aumentando l'efficienza senza sacrificare le prestazioni.
  • Diversità di scala: spazia da modelli densi e leggeri da 0.6 miliardi di parametri a varianti MoE sparse e massicce da 235 miliardi di parametri, adattandosi a diversi scenari di distribuzione.
  • Finestre di contesto estese: La maggior parte delle varianti più grandi supportano fino a 128K contesti di token, facilitando documenti di formato esteso, basi di codice e conversazioni multimodali.
  • Ampiezza multilingue: Addestrato su 36 trilioni di token che coprono 119 lingue e dialetti, potenziando applicazioni realmente globali.

Queste caratteristiche posizionano Qwen3 non solo come uno dei migliori performer nei benchmark di generazione di codice, ragionamento matematico e attività di agente, ma anche come una soluzione flessibile e conveniente per distribuzioni nel mondo reale.

Quale architettura utilizza Qwen3?

Quadro di ragionamento unificato

Gli ecosistemi LLM tradizionali spesso separano modelli ottimizzati per la chat (ad esempio, GPT-4o) e modelli di ragionamento specializzati (ad esempio, QwQ-32B). Qwen3 abbatte questa divisione integrando sia l'inferenza rapida "non-pensante" basata sul contesto sia processi di "pensiero" approfonditi e multi-step all'interno dello stesso modello. Un token di modalità o un flag API attiva livelli di attenzione leggeri per attività semplici o pipeline di ragionamento iterative più approfondite per query complesse.

Varianti Mixture-of-Experts (MoE)

Alcuni modelli Qwen3 adottano una struttura MoE, in cui la rete comprende centinaia di sottomoduli esperti, ma solo un piccolo sottoinsieme rilevante per il compito viene attivato a runtime. Ciò consente un notevole risparmio di elaborazione – solo gli esperti più competenti elaborano ogni token – mantenendo al contempo un'accuratezza allo stato dell'arte nei benchmark di ragionamento.

Modelli densi e con una miscela di esperti

Per bilanciare efficienza e capacità, la famiglia Qwen3 comprende sei modelli densi (0.6B, 1.7B, 4B, 8B, 14B e 32B di parametri) insieme a due varianti MoE (30B con 3B di parametri attivi e 235B con 22B di parametri attivi). I modelli densi offrono un'inferenza semplificata per ambienti con risorse limitate, mentre le architetture MoE sfruttano l'attivazione sparsa per mantenere un'elevata capacità senza aumenti lineari dei costi computazionali.

Le architetture Mixture-of-Experts (MoE) alleggeriscono il carico di memoria e di calcolo di modelli densi e di grandi dimensioni attivando solo una frazione dei parametri di rete per token. Qwen3 offre due varianti sparse:

  • MoE a 30B parametri (3B parametri attivati ​​per token)
  • MoE a 235B parametri (22B parametri attivati ​​per token)

Queste famiglie sparse eguagliano o superano le prestazioni di controparti dense comparabili nei benchmark, riducendo al contempo i costi di inferenza, un aspetto particolarmente critico per applicazioni in tempo reale e distribuzioni su larga scala. I test interni di Alibaba mostrano che le varianti di MoE raggiungono tempi di ragionamento fino a 60 volte più veloci su hardware specializzato come i motori wafer-scale di Cerebras.

Modalità di pensiero e modalità di non pensiero

Un'innovazione distintiva di Qwen3 è il suo design a doppia modalità: modalità di pensiero per compiti di ragionamento complessi e articolati, e modalità non-pensiero per risposte rapide e basate sul contesto. Anziché mantenere modelli specializzati separati, Qwen3 integra entrambe le funzionalità in un'architettura unificata. Ciò è reso possibile da un'architettura dinamica meccanismo di bilancio pensante, che alloca le risorse di calcolo in modo adattivo durante l'inferenza, consentendo al modello di bilanciare in modo flessibile latenza e profondità di ragionamento in base alla complessità dell'input.


Come funziona Qwen3?

Commutazione dinamica della modalità

Alla ricezione di un prompt, Qwen3 valuta la complessità di ragionamento richiesta rispetto a soglie predefinite. Le query semplici attivano la modalità non-thinking, producendo risposte in millisecondi, mentre le attività multi-hop complesse, come dimostrazioni matematiche o pianificazione strategica, attivano la modalità thinking, assegnando ulteriori livelli di trasformatore e livelli di attenzione secondo necessità. Gli sviluppatori possono anche personalizzare i trigger di cambio modalità tramite modelli di chat o parametri API, adattando l'esperienza utente a specifiche applicazioni.

  • Modalità non-pensiero: Assegna livelli minimi/chiamate esperte, ottimizzando la latenza e la produttività.
  • Modalità di pensiero: Estende dinamicamente il grafico di calcolo, consentendo il ragionamento multi-hop e il concatenamento interno delle sotto-domande.
  • Commutazione adattiva:Il modello può spostarsi autonomamente tra le modalità durante l'inferenza se la complessità della query giustifica ulteriori passaggi di ragionamento.

Efficienza e latenza dell'inferenza

In collaborazione con partner hardware come Cerebras Systems, Qwen3-32B raggiunge prestazioni di ragionamento in tempo reale. I benchmark sulla piattaforma di inferenza Cerebras dimostrano tempi di risposta inferiori a 1.2 secondi per attività di ragionamento complesse, fino a 60 volte più veloci rispetto a modelli comparabili come DeepSeek R1 e OpenAI o3-mini. Queste prestazioni a bassa latenza consentono di utilizzare agenti e copiloti di livello produttivo in contesti interattivi, dai chatbot di assistenza clienti ai sistemi di supporto alle decisioni in tempo reale.


Distribuzione e accessibilità

Rilascio e integrazione open source

Il 28 aprile 2025, Alibaba ha rilasciato ufficialmente Qwen3 con licenza Apache 2.0, consentendo l'accesso illimitato a pesi, codice e documentazione su GitHub e Hugging Face. Nelle settimane successive al lancio, la famiglia Qwen3 è diventata implementabile su piattaforme LLM chiave come Ollama, LM Studio, SGLang e vLLM, semplificando l'inferenza locale per sviluppatori e aziende in tutto il mondo.

Formati flessibili e supporto della quantizzazione

Per adattarsi a diversi scenari di implementazione, dall'inferenza in data center ad alta produttività ai dispositivi edge a basso consumo, Qwen3 supporta diversi formati di peso, tra cui il formato unificato generato da GPT, la quantizzazione basata sull'attivazione e la quantizzazione post-addestramento generale. Studi preliminari rivelano che la quantizzazione post-addestramento da 4 a 8 bit mantiene prestazioni competitive, sebbene una precisione ultra-bassa (1-2 bit) introduca un notevole degrado dell'accuratezza, evidenziando aree di ricerca future per una compressione LLM efficiente.


Prestazioni e benchmarking

Classifiche in classifica

Secondo la classifica di LiveBench del 6 maggio 2025, il modello di punta Qwen3-235B-A22B si classifica come il miglior LLM open source, assicurandosi il settimo posto assoluto tra i modelli aperti e chiusi e ottenendo il punteggio più alto nelle attività di instruction-following. Questo traguardo sottolinea la parità competitiva di Qwen7 con le controparti proprietarie come GPT-3 e DeepSeek R4.

Valutazioni comparative

Valutazioni indipendenti di TechCrunch e VentureBeat evidenziano le prestazioni superiori di Qwen3 nei benchmark di codifica e matematica. Rispetto a soluzioni leader come DeepSeek R1, o1 di OpenAI e Gemini 2.5-Pro ​​di Google, Qwen3-235B-A22B dimostra risultati comparabili o addirittura superiori in una vasta gamma di attività, dalla sintesi di algoritmi alla generazione di dimostrazioni formali.

qwen3


Varianti specializzate: Qwen3-Math e QwenLong-L1

Qwen3-Matematica

Qwen3-Math è una variante specializzata progettata per compiti di ragionamento matematico. Estende il supporto sia al Chain-of-Thought (CoT) che al Tool-Integrated Reasoning (TIR) ​​per la risoluzione di problemi matematici sia in cinese che in inglese. Il TIR migliora la capacità del modello di eseguire calcoli precisi, manipolazioni simboliche e processi algoritmici, affrontando le sfide in compiti che richiedono un'elevata precisione computazionale.

QwenLong-L1

QwenLong-L1 è un framework che adatta modelli di ragionamento di ampio respiro a contesti brevi a scenari a contesto lungo tramite un progressivo ridimensionamento del contesto. Utilizza una fase di fine-tuning supervisionata di riscaldamento per stabilire una policy iniziale robusta, seguita da una tecnica di apprendimento per rinforzo graduale guidata dal curriculum per stabilizzare l'evoluzione della policy. Questo approccio consente un ragionamento robusto in ambienti ad alta intensità di informazioni.

Sfide e direzioni future

Allucinazioni e robustezza

Nonostante le solide metriche quantitative, Qwen3 mostra occasionali "allucinazioni" in scenari fattuali o contestualmente ambigui. La ricerca in corso si concentra sul perfezionamento dei meccanismi di generazione e grounding basati sul recupero per migliorare l'accuratezza fattuale, poiché analisi preliminari indicano una riduzione del 15-20% dei tassi di allucinazione quando si integrano basi di conoscenza esterne.

Quantizzazione e distribuzione dei bordi

Mentre una quantizzazione moderata preserva le capacità principali di Qwen3, la compressione estrema rimane una sfida. Ulteriori progressi nell'addestramento a precisione mista, negli algoritmi di quantizzazione basati sull'hardware e nelle architetture di trasformatori efficienti sono essenziali per democratizzare l'intelligenza artificiale sofisticata su dispositivi con vincoli come smartphone, sensori IoT e sistemi embedded.


Conclusione

Lo sviluppo di Qwen3 riflette un cambio di paradigma verso architetture LLM unificate e dinamicamente adattabili che uniscono la fluidità conversazionale al ragionamento profondo. Rendendo open source i suoi pesi e offrendo opzioni di implementazione versatili, dall'inferenza cloud all'accelerazione su dispositivo, il team Qwen di Alibaba ha promosso la collaborazione e l'innovazione globali nell'intelligenza artificiale. Mentre la comunità di ricerca affronta le sfide rimanenti in termini di robustezza dei modelli, quantizzazione e integrazione multimodale, Qwen3 si propone come piattaforma fondamentale per i sistemi intelligenti di nuova generazione in tutti i settori.

Iniziamo

CometAPI fornisce un'interfaccia REST unificata che aggrega centinaia di modelli di intelligenza artificiale, inclusa la famiglia ChatGPT, in un endpoint coerente, con gestione integrata delle chiavi API, quote di utilizzo e dashboard di fatturazione. Questo significa che non dovrete più destreggiarvi tra URL e credenziali di più fornitori.

Gli sviluppatori possono accedere Qwen 3 API tramite CometaAPIPer iniziare, esplora le capacità del modello nel Playground e consulta il Guida API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l'accesso a CometAPI e di aver ottenuto la chiave API.

Leggi di più

500+ Modelli in Una API

Fino al 20% di sconto