API Qwen 3

CometAPI
AnnaApr 29, 2025
API Qwen 3

L'API Qwen 3 è un'interfaccia compatibile con OpenAI sviluppata da Alibaba Cloud, che consente agli sviluppatori di integrare modelli linguistici avanzati di Qwen 3 di grandi dimensioni, disponibili sia in architetture dense che mixed-of-experts (MoE), nelle loro applicazioni per attività quali la generazione di testo, il ragionamento e il supporto multilingue.


Panoramica di Qwen 3

Funzionalità principali

  • Capacità di ragionamento ibrido:Qwen 3 integra sia le funzioni di intelligenza artificiale convenzionali sia il ragionamento dinamico avanzato, migliorando l'adattabilità e l'efficienza per gli sviluppatori.
  • Scalabilità:La famiglia di modelli include sia modelli densi (da 0.6B a 32B di parametri) che sparsi (30B con 3B di parametri attivati, 235B con 22B di parametri attivati), adatti a un'ampia gamma di applicazioni.
  • Finestra di contesto estesa:La maggior parte dei modelli Qwen 3 supporta una finestra di contesto del token da 128K, facilitando l'elaborazione di documenti lunghi e attività complesse.
  • Supporto multimodale:I modelli Qwen 3 sono in grado di elaborare testo, immagini, input audio e video, il che li rende adatti a diverse applicazioni, tra cui interazioni vocali in tempo reale e analisi di dati visivi.
  • Accessibilità open source:Tutti i modelli Qwen 3 sono concessi in licenza Apache 2.0 e sono disponibili tramite piattaforme come Hugging Face e ModelScope.

Architettura tecnica

Varianti del modello

Qwen 3 comprende una gamma di modelli per soddisfare diverse esigenze computazionali:

  • Modelli densi: Disponibile nelle misure di parametri 0.6B, 1.7B, 4B, 8B, 14B e 32B.
  • Modelli sparsi: Include un modello da 30B con 3B parametri attivati ​​e un modello da 235B con 22B parametri attivati.

L'architettura consente un'implementazione efficiente su diverse configurazioni hardware, dai dispositivi mobili ai server ad alte prestazioni.

Comprensione contestuale

Grazie a una finestra di contesto di 128K token, i modelli Qwen 3 riescono a mantenere la coerenza durante interazioni prolungate, il che li rende adatti a compiti che richiedono una comprensione contestuale approfondita, come la generazione di contenuti di lunga durata e la risoluzione di problemi complessi.

Evoluzione della serie Qwen

Da Qwen a Qwen 3

La serie Qwen ha subito un'evoluzione significativa:

  • Qwen: Introdotti come modelli linguistici di base preaddestrati, dimostrano prestazioni superiori in vari compiti.​
  • Qwen-Chat: Modelli di chat perfezionati con tecniche di allineamento umano, che mettono in mostra capacità avanzate di pianificazione e utilizzo degli strumenti.
  • Qwen2: Ampliamento della suite di modelli con modelli linguistici ottimizzati per le istruzioni, con intervalli di parametri da 0.5 a 72 miliardi. Il modello di punta, Qwen2-72B, ha mostrato prestazioni notevoli in diversi benchmark.
  • Qwen2.5: Sono stati introdotti modelli come Qwen2.5-Omni, in grado di elaborare testo, immagini, video e audio e di generare output sia di testo che audio.
  • Qwen 3: L'ultima iterazione, che incorpora capacità di ragionamento ibrido e maggiore efficienza, segna un significativo progresso nella serie.

Prestazioni di riferimento

Superando significativamente modelli precedenti come QwQ e Qwen2.5, Qwen3 offre funzionalità superiori in matematica, programmazione, ragionamento basato sul buon senso, scrittura creativa e dialogo interattivo. La variante Qwen3-30B-A3B include 30.5 miliardi di parametri (3.3 miliardi attivati), 48 livelli, 128 esperti (8 attivati ​​per attività) e supporta fino a 131 contesti token con YaRN, stabilendo un nuovo standard tra i modelli open source.

  • AIME25: Qwen3 ha totalizzato 81.5 punti, stabilendo un nuovo record open source.
  • Informazioni su LiveCodeBench: Qwen3 ha totalizzato oltre 70 punti, addirittura meglio di Grok3.
  • ArenaHard: Qwen3 ha superato OpenAl-o1 e DeepSeek-FR1 con 95.6 punti.

Esempio di codice

Gli sviluppatori possono interagire con i modelli Qwen 3 utilizzando il seguente frammento di codice Python:

from transformers import AutoTokenizer, AutoModelForCausalLM

# Load tokenizer and model

tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")

# Encode input prompt

input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")

# Generate response

output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)

print(response)

Questo esempio mostra come caricare un modello Qwen 3 e generare una risposta a un dato prompt utilizzando la libreria Hugging Face Transformers.

Conclusione

Qwen 3 rappresenta una pietra miliare significativa nello sviluppo dell'intelligenza artificiale di Alibaba, offrendo capacità di ragionamento avanzate, scalabilità e supporto multimodale. La sua disponibilità open source con licenza Apache 2.0 incoraggia un'adozione diffusa e un'ulteriore innovazione all'interno della comunità dell'intelligenza artificiale. Con la continua evoluzione del panorama dell'intelligenza artificiale, Qwen 3 posiziona Alibaba come un attore di rilievo sia nel mercato nazionale che in quello globale.


Come chiamare Qwen 3 API di CometAPI

Qwen 3 Prezzi API in CometAPI:

Versione del modelloQwen3 235B A22BQwen: Qwen3 30B A3BQwen3 8B
Prezzo in CometAPIInput token: $1.6/M tokenInput token: $0.4/M tokenInput token: $0.32/M token
Token di output: $ 4.8 / M tokenToken di output: $ 1.2 / M tokenToken di output: $ 0.96 / M token
Nome del modelloqwen3-235b-a22bqwen3-30b-a3bqwen3-8b
illustrareSi tratta del modello di punta della serie Qwen3, con 235 miliardi di parametri, che utilizza un'architettura Mixture of Experts (MoE).qwen3-30b-a3b: con 30 miliardi di parametri, bilancia prestazioni e requisiti di risorse, adatto per applicazioni di livello aziendale.Un modello leggero con 800 milioni di parametri, progettato specificamente per ambienti con risorse limitate (come dispositivi mobili o server a bassa configurazione).

Passi richiesti

  • Accedere cometapi.comSe non sei ancora un nostro utente, registrati prima
  • Ottieni la chiave API delle credenziali di accesso dell'interfaccia. Fai clic su "Aggiungi token" nel token API nell'area personale, ottieni la chiave token: sk-xxxxx e invia.
  • Ottieni l'URL di questo sito: https://api.cometapi.com/

Metodi di utilizzo

  1. Selezionare l'opzione "qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b"endpoint" per inviare la richiesta API e impostarne il corpo. Il metodo e il corpo della richiesta sono reperibili nella documentazione API del nostro sito web. Il nostro sito web fornisce anche il test Apifox per vostra comodità.
  2. Sostituire con la tua chiave CometAPI effettiva dal tuo account.
  3. Inserisci la tua domanda o richiesta nel campo contenuto: il modello risponderà a questa domanda.
  4. Elaborare la risposta API per ottenere la risposta generata.

Per informazioni sul modello lanciato in Comet API, vedere https://api.cometapi.com/new-model.

Per informazioni sul prezzo del modello in Comet API, vedere https://api.cometapi.com/pricing.

Vedere anche API massima di Qwen 2.5

SHARE THIS BLOG

500+ Modelli in Una API

Fino al 20% di sconto