Qwen3 : Qu'est-ce que c'est et comment l'utiliser

CometAPI
AnnaApr 29, 2025
Qwen3 : Qu'est-ce que c'est et comment l'utiliser

En avril 2025, Alibaba Cloud a lancé Qwen3, la dernière version de la série Qwen de grands modèles de langage (LLM). Avancée significative dans le domaine de l'intelligence artificielle, Qwen3 démontre des capacités exceptionnelles en matière de compréhension du langage, de raisonnement, de traitement multimodal et d'efficacité de calcul. Le modèle prend en charge 119 langues, est entraîné sur un ensemble de données de 36 0.6 milliards de jetons et propose différentes tailles de modèle allant de 235 milliard à 3 milliards de paramètres. Cet article explore en profondeur la définition de QwenXNUMX, ses fonctionnalités, ses méthodes d'utilisation, ses approches d'accès, ses comparaisons avec d'autres modèles et son impact potentiel sur le domaine de l'IA, afin de servir de référence complète aux développeurs, aux chercheurs et aux entreprises.

Qu’est-ce que Qwen3 ?

Qwen3 est une série de modèles de langage de grande taille conçus pour comprendre et générer du texte de type humain, adaptés à une variété de scénarios, allant de la conversation courante aux tâches de raisonnement complexes. Il s'agit de la troisième génération de la série Qwen développée par Alibaba Cloud, après Qwen en 2023 et Qwen2 en 2024, qui ont apporté des améliorations en termes de performances et de fonctionnalités.

Une brève histoire de la série Qwen

La série Qwen a débuté en avril 2023 avec la sortie du modèle Qwen, initialement nommé « Tongyi Qianwen », basé sur l'architecture Llama de Meta AI. Après avoir reçu l'approbation du gouvernement chinois en septembre 2023, Qwen a été officiellement lancé au public. En décembre 2023, les modèles Qwen 72B et 1.8B ont été rendus open source, suivis du lancement de Qwen2 en juin 2024, qui a adopté une architecture Mixture of Experts (MoE). Qwen3, introduit en avril 2025, intègre des capacités de raisonnement hybride et des fonctionnalités multimodales, ce qui en fait la version la plus avancée de la série.

Caractéristiques de Qwen3

Qwen3 propose une gamme de fonctionnalités innovantes qui le distinguent dans le paysage mondial des modèles d'IA :

Soutien multilingue

Qwen3 prend en charge 119 langues, couvrant les principaux systèmes linguistiques mondiaux. Il constitue donc un choix idéal pour les applications interculturelles et multilingues, telles que le support client international et la création de contenu multilingue.

Données de formation à grande échelle

L'ensemble de données d'entraînement Qwen3 comprend près de 36 270 milliards de jetons, soit environ XNUMX milliards de mots. Il inclut un large éventail de contenus, tels que des manuels, des paires de questions-réponses, des extraits de code et du contenu généré par l'IA, principalement en chinois et en anglais. Cette envergure garantit d'excellentes performances en matière de compréhension et de génération de langage.

Diverses tailles de modèles

Qwen3 propose une variété de tailles de modèles allant de 0.6 milliard à 235 milliards de paramètres :

  • Petits modèles (0.6 milliard, 1.7 milliard) : Convient aux applications légères, capables de fonctionner sur des appareils tels que les smartphones.
  • Modèles moyens (4B, 8B, 14B, 32B) : Équilibrer les performances avec les besoins en ressources, applicable à la plupart des scénarios de développement.
  • Grands modèles (235B) : Offrez des performances de premier ordre pour les tâches de niveau entreprise.
Nom du modèleTaille du paramètreFenêtre de contexte (jetons)Scénarios applicables
Qwen3-0.6B0.6 milliards32,768Appareils mobiles, applications légères
Qwen3-1.7B1.7 milliards32,768Systèmes embarqués, raisonnement rapide
Qwen3-4B4 milliards131,072Projets de petite et moyenne taille, recherche
Qwen3-8B8 milliards131,072Applications générales, développement
Qwen3-32B32 milliards131,072Tâches hautes performances, applications d'entreprise
Qwen3-235B-A22B235 milliards131,072Performances de haut niveau, raisonnement complexe (non disponible publiquement)

Capacités de raisonnement hybride

Qwen3 introduit une fonctionnalité de « raisonnement hybride » qui permet au modèle de raisonner étape par étape avant de fournir des réponses à des questions complexes. Cette fonctionnalité est particulièrement utile pour le raisonnement logique, les problèmes mathématiques et les tâches de programmation. Les utilisateurs peuvent activer ou désactiver ce mode via les paramètres (par exemple, enable_thinking=True).

Modèles de mélange d'experts (MoE)

Qwen3 inclut des modèles Mixture of Experts, tels que Qwen3-30B-A3B (30 milliards de paramètres, 3 milliards actifs) et Qwen3-235B-A22B (235 milliards de paramètres, 22 milliards actifs). Ces modèles accélèrent l'inférence en activant uniquement un sous-ensemble de paramètres tout en maintenant des performances élevées, ce qui les rend particulièrement adaptés aux déploiements à grande échelle.

Limites de jetons étendues

Certains modèles Qwen3 prennent en charge des fenêtres contextuelles allant jusqu'à 131,072 4 jetons (modèles 2B et supérieurs), soit une augmentation significative par rapport aux 32,768 XNUMX jetons de QwenXNUMX. Cette amélioration permet au modèle de gérer des dialogues plus longs et des tâches de génération de texte plus complexes.

Qwen3

Points de repère de Qwen 3

Le modèle démontre une compétence en matière de génération de code, de débogage et de résolution de problèmes mathématiques, ce qui en fait un outil précieux pour le développement de logiciels et l'analyse de données.

Qwen3 : Qu'est-ce que c'est et comment l'utiliser

Comment utiliser Qwen3

Applications

La polyvalence de Qwen3 le rend adapté à divers scénarios :

  • Chatbots et assistants virtuels : Fournissez des réponses naturelles et contextuelles pour les applications de support client et d'assistant personnel.
  • Génération de contenu : Générez des articles, des histoires, du code et d’autres contenus créatifs ou techniques.
  • L'analyse des données: Aider à interpréter et à résumer de grands ensembles de données à des fins de recherche et de veille économique.
  • Outils pédagogiques : Aidez les élèves avec leurs devoirs, leurs explications et leurs expériences d’apprentissage personnalisées.
  • Recherche scientifique: Soutenir la revue de la littérature, la génération d’hypothèses et la résolution de problèmes scientifiques.

Intégration des projets

Les développeurs peuvent intégrer Qwen3 dans leurs projets en utilisant les frameworks et outils suivants :

  • Transformateurs: Nécessite transformers>=4.51.0. Exemple d'extrait de code :
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Les utilisateurs peuvent activer le mode de raisonnement avec enable_thinking=True ou le contrôler en utilisant /think et /nothink.

  • lama.cpp: Nécessite llama.cpp>=b5092. Exemple de ligne de commande :
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Ollama : Nécessite Ollama v0.6.6 ou supérieur. Exécutez la commande :
  ollama run qwen3:8b

Prend en charge des paramètres tels que num_ctx 40960 et num_predict 32768.

  • Options de déploiement :
  • SGLang: Nécessite sglang>=0.4.6.post1. Commande de lancement : python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM : Nécessite vllm>=0.8.5. Commande de service : vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE : Prend en charge Ascend NPU ; visitez Modelers pour plus de détails.

Utilisation de l'outil

Qwen-Agent prend en charge l'interaction de Qwen3 avec des outils et API externes, ce qui est idéal pour les tâches nécessitant un accès dynamique aux données. Cette fonctionnalité est également prise en charge par SGLang, vLLM, Transformers, llama.cpp et Ollama.

Réglage fin

Qwen3 peut être affiné à l'aide de frameworks tels qu'Axolotl, UnSloth, Swift et Llama-Factory, prenant en charge des techniques telles que le réglage fin supervisé (SFT), l'optimisation directe des préférences (DPO) et l'optimisation robuste des préférences de groupe (GRPO).

Conclusion

Qwen3 représente une avancée majeure dans le domaine des grands modèles linguistiques, offrant des fonctionnalités, une polyvalence et une accessibilité accrues. Grâce à sa prise en charge multilingue, son raisonnement hybride et ses versions spécialisées pour les tâches visuelles, mathématiques et audio, Qwen3 se positionne comme un acteur incontournable de l'IA. Ses performances compétitives dans des benchmarks tels que Codeforces, AIME et BFCL, ainsi que sa disponibilité en open source, en font un choix idéal pour les développeurs, les chercheurs et les entreprises. À mesure que l'IA progresse, Qwen3 marque une étape importante vers la création de systèmes intelligents capables de comprendre, de raisonner et d'interagir avec le monde de manière toujours plus sophistiquée.

Pour commencer

Les développeurs peuvent accéder Qwen 3 API via API CometPour commencer, explorez les capacités du modèle dans le Playground et consultez le Guide de l'API Pour des instructions détaillées, veuillez noter que certains développeurs devront peut-être vérifier leur organisation avant d'utiliser le modèle.

En savoir plus

500+ Modèles en Une API

Jusqu'à 20% de réduction