L'API Qwen 3 è un'interfaccia compatibile con OpenAI sviluppata da Alibaba Cloud, che consente agli sviluppatori di integrare modelli linguistici avanzati di Qwen 3 di grandi dimensioni, disponibili sia in architetture dense che mixed-of-experts (MoE), nelle loro applicazioni per attività quali la generazione di testo, il ragionamento e il supporto multilingue.
Panoramica di Qwen 3
Funzionalità principali
- Capacità di ragionamento ibrido:Qwen 3 integra sia le funzioni di intelligenza artificiale convenzionali sia il ragionamento dinamico avanzato, migliorando l'adattabilità e l'efficienza per gli sviluppatori.
- Scalabilità:La famiglia di modelli include sia modelli densi (da 0.6B a 32B di parametri) che sparsi (30B con 3B di parametri attivati, 235B con 22B di parametri attivati), adatti a un'ampia gamma di applicazioni.
- Finestra di contesto estesa:La maggior parte dei modelli Qwen 3 supporta una finestra di contesto del token da 128K, facilitando l'elaborazione di documenti lunghi e attività complesse.
- Supporto multimodale:I modelli Qwen 3 sono in grado di elaborare testo, immagini, input audio e video, il che li rende adatti a diverse applicazioni, tra cui interazioni vocali in tempo reale e analisi di dati visivi.
- Accessibilità open source:Tutti i modelli Qwen 3 sono concessi in licenza Apache 2.0 e sono disponibili tramite piattaforme come Hugging Face e ModelScope.
Architettura tecnica
Varianti del modello
Qwen 3 comprende una gamma di modelli per soddisfare diverse esigenze computazionali:
- Modelli densi: Disponibile nelle misure di parametri 0.6B, 1.7B, 4B, 8B, 14B e 32B.
- Modelli sparsi: Include un modello da 30B con 3B parametri attivati e un modello da 235B con 22B parametri attivati.
L'architettura consente un'implementazione efficiente su diverse configurazioni hardware, dai dispositivi mobili ai server ad alte prestazioni.
Comprensione contestuale
Grazie a una finestra di contesto di 128K token, i modelli Qwen 3 riescono a mantenere la coerenza durante interazioni prolungate, il che li rende adatti a compiti che richiedono una comprensione contestuale approfondita, come la generazione di contenuti di lunga durata e la risoluzione di problemi complessi.
Evoluzione della serie Qwen
Da Qwen a Qwen 3
La serie Qwen ha subito un'evoluzione significativa:
- Qwen: Introdotti come modelli linguistici di base preaddestrati, dimostrano prestazioni superiori in vari compiti.
- Qwen-Chat: Modelli di chat perfezionati con tecniche di allineamento umano, che mettono in mostra capacità avanzate di pianificazione e utilizzo degli strumenti.
- Qwen2: Ampliamento della suite di modelli con modelli linguistici ottimizzati per le istruzioni, con intervalli di parametri da 0.5 a 72 miliardi. Il modello di punta, Qwen2-72B, ha mostrato prestazioni notevoli in diversi benchmark.
- Qwen2.5: Sono stati introdotti modelli come Qwen2.5-Omni, in grado di elaborare testo, immagini, video e audio e di generare output sia di testo che audio.
- Qwen 3: L'ultima iterazione, che incorpora capacità di ragionamento ibrido e maggiore efficienza, segna un significativo progresso nella serie.
Prestazioni di riferimento
Superando significativamente modelli precedenti come QwQ e Qwen2.5, Qwen3 offre funzionalità superiori in matematica, programmazione, ragionamento basato sul buon senso, scrittura creativa e dialogo interattivo. La variante Qwen3-30B-A3B include 30.5 miliardi di parametri (3.3 miliardi attivati), 48 livelli, 128 esperti (8 attivati per attività) e supporta fino a 131 contesti token con YaRN, stabilendo un nuovo standard tra i modelli open source.
- AIME25: Qwen3 ha totalizzato 81.5 punti, stabilendo un nuovo record open source.
- Informazioni su LiveCodeBench: Qwen3 ha totalizzato oltre 70 punti, addirittura meglio di Grok3.
- ArenaHard: Qwen3 ha superato OpenAl-o1 e DeepSeek-FR1 con 95.6 punti.
Esempio di codice
Gli sviluppatori possono interagire con i modelli Qwen 3 utilizzando il seguente frammento di codice Python:
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")
# Encode input prompt
input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response
output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)
print(response)
Questo esempio mostra come caricare un modello Qwen 3 e generare una risposta a un dato prompt utilizzando la libreria Hugging Face Transformers.
Conclusione
Qwen 3 rappresenta una pietra miliare significativa nello sviluppo dell'intelligenza artificiale di Alibaba, offrendo capacità di ragionamento avanzate, scalabilità e supporto multimodale. La sua disponibilità open source con licenza Apache 2.0 incoraggia un'adozione diffusa e un'ulteriore innovazione all'interno della comunità dell'intelligenza artificiale. Con la continua evoluzione del panorama dell'intelligenza artificiale, Qwen 3 posiziona Alibaba come un attore di rilievo sia nel mercato nazionale che in quello globale.
Come chiamare Qwen 3 API di CometAPI
Qwen 3 Prezzi API in CometAPI:
| Versione del modello | Qwen3 235B A22B | Qwen: Qwen3 30B A3B | Qwen3 8B |
| Prezzo in CometAPI | Input token: $1.6/M token | Input token: $0.4/M token | Input token: $0.32/M token |
| Token di output: $ 4.8 / M token | Token di output: $ 1.2 / M token | Token di output: $ 0.96 / M token | |
| Nome del modello | qwen3-235b-a22b | qwen3-30b-a3b | qwen3-8b |
| illustrare | Si tratta del modello di punta della serie Qwen3, con 235 miliardi di parametri, che utilizza un'architettura Mixture of Experts (MoE). | qwen3-30b-a3b: con 30 miliardi di parametri, bilancia prestazioni e requisiti di risorse, adatto per applicazioni di livello aziendale. | Un modello leggero con 800 milioni di parametri, progettato specificamente per ambienti con risorse limitate (come dispositivi mobili o server a bassa configurazione). |
Passi richiesti
- Accedere cometapi.comSe non sei ancora un nostro utente, registrati prima
- Ottieni la chiave API delle credenziali di accesso dell'interfaccia. Fai clic su "Aggiungi token" nel token API nell'area personale, ottieni la chiave token: sk-xxxxx e invia.
- Ottieni l'URL di questo sito: https://api.cometapi.com/
Metodi di utilizzo
- Selezionare l'opzione "
qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b"endpoint" per inviare la richiesta API e impostarne il corpo. Il metodo e il corpo della richiesta sono reperibili nella documentazione API del nostro sito web. Il nostro sito web fornisce anche il test Apifox per vostra comodità. - Sostituire con la tua chiave CometAPI effettiva dal tuo account.
- Inserisci la tua domanda o richiesta nel campo contenuto: il modello risponderà a questa domanda.
- Elaborare la risposta API per ottenere la risposta generata.
Per informazioni sul modello lanciato in Comet API, vedere https://api.cometapi.com/new-model.
Per informazioni sul prezzo del modello in Comet API, vedere https://api.cometapi.com/pricing.
Vedere anche API massima di Qwen 2.5



