L'API Qwen 3 est une interface compatible OpenAI développée par Alibaba Cloud, permettant aux développeurs d'intégrer des modèles de langage Qwen 3 avancés (disponibles dans des architectures denses et mixtes d'experts (MoE)) dans leurs applications pour des tâches telles que la génération de texte, le raisonnement et le support multilingue.
Présentation de Qwen 3
Fonctionnalités clés
- Capacités de raisonnement hybride:Qwen 3 intègre à la fois des fonctions d'IA conventionnelles et un raisonnement dynamique avancé, améliorant ainsi l'adaptabilité et l'efficacité des développeurs.
- Évolutivité:La famille de modèles comprend à la fois des modèles denses (0.6B à 32B paramètres) et clairsemés (30B avec 3B paramètres activés, 235B avec 22B paramètres activés), répondant à une large gamme d'applications.
- Fenêtre de contexte étendue:La plupart des modèles Qwen 3 prennent en charge une fenêtre de contexte de jetons de 128 Ko, facilitant le traitement de documents longs et de tâches complexes.
- Prise en charge multimodale:Les modèles Qwen 3 sont capables de traiter des entrées de texte, d'images, d'audio et de vidéo, ce qui les rend adaptés à diverses applications, notamment les interactions vocales en temps réel et l'analyse de données visuelles.
- Accessibilité open source:Tous les modèles Qwen 3 sont sous licence Apache 2.0 et sont disponibles via des plateformes telles que Hugging Face et ModelScope.
Architecture technique
Variantes de modèle
Qwen 3 englobe une gamme de modèles pour répondre à différents besoins informatiques :
- Modèles denses:Disponible dans les tailles de paramètres 0.6B, 1.7B, 4B, 8B, 14B et 32B.
- Modèles clairsemés: Inclut un modèle 30B avec 3B paramètres activés et un modèle 235B avec 22B paramètres activés.
L'architecture permet un déploiement efficace sur différentes configurations matérielles, des appareils mobiles aux serveurs hautes performances.
Compréhension contextuelle
Avec une fenêtre de contexte de 128 3 jetons, les modèles Qwen XNUMX peuvent maintenir la cohérence sur des interactions étendues, ce qui les rend aptes à effectuer des tâches nécessitant une compréhension contextuelle approfondie, telles que la génération de contenu long et la résolution de problèmes complexes.
Évolution de la série Qwen
De Qwen à Qwen 3
La série Qwen a connu une évolution significative :
- Qwen:Introduits comme modèles de langage pré-entraînés de base, démontrant des performances supérieures dans diverses tâches.
- Qwen-Chat: Modèles de discussion affinés avec des techniques d'alignement humain, présentant des capacités avancées d'utilisation d'outils et de planification.
- Qwen2: La suite de modèles a été étendue avec des modèles de langage optimisés pour les instructions, avec des plages de paramètres allant de 0.5 à 72 milliards. Le modèle phare, Qwen2-72B, a affiché des performances remarquables lors de divers tests de performance.
- Qwen2.5:Des modèles comme Qwen2.5-Omni ont été introduits, capables de traiter du texte, des images, des vidéos et de l'audio, et de générer des sorties texte et audio.
- Qwen 3:La dernière itération, intégrant des capacités de raisonnement hybride et une efficacité améliorée, marque une avancée significative dans la série.
Performances de référence
Surpassant largement les modèles précédents comme QwQ et Qwen2.5, Qwen3 offre des capacités supérieures en mathématiques, codage, raisonnement logique, écriture créative et dialogue interactif. La variante Qwen3-30B-A3B inclut 30.5 milliards de paramètres (dont 3.3 milliards activés), 48 couches, 128 experts (dont 8 activés par tâche) et prend en charge jusqu'à 131 XNUMX contextes de jetons avec YaRN, établissant ainsi une nouvelle norme parmi les modèles open source.
- AIME25:Qwen3 a obtenu 81.5 points, établissant un nouveau record open source.
- LiveCodeBench : Qwen3 a marqué plus de 70 points, encore mieux que Grok3.
- ArèneDifficile : Qwen3 a dépassé OpenAl-o1 et DeepSeek-FR1 avec 95.6 points.
Exemple de code
Les développeurs peuvent interagir avec les modèles Qwen 3 à l'aide de l'extrait de code Python suivant :
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")
# Encode input prompt
input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response
output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)
print(response)
Cet exemple montre comment charger un modèle Qwen 3 et générer une réponse à une invite donnée à l'aide de la bibliothèque Hugging Face Transformers.
Conclusion
Qwen 3 représente une étape importante dans le développement de l'IA d'Alibaba, offrant des capacités de raisonnement améliorées, une évolutivité accrue et un support multimodal. Sa disponibilité en open source sous licence Apache 2.0 favorise une adoption généralisée et une innovation accrue au sein de la communauté de l'IA. Alors que le paysage de l'IA continue d'évoluer, Qwen 3 positionne Alibaba comme un acteur majeur sur la scène nationale et internationale.
Comment appeler Qwen 3 API de CometAPI
Qwen 3 Tarification des API dans CometAPI :
| Version du modèle | Qwen3 235B A22B | Qwen : Qwen3 30B A3B | Qwen3 8B |
| Prix en CometAPI | Jetons d'entrée : 1.6 $/M jetons | Jetons d'entrée : 0.4 $/M jetons | Jetons d'entrée : 0.32 $/M jetons |
| Jetons de sortie : 4.8 $/M jetons | Jetons de sortie : 1.2 $/M jetons | Jetons de sortie : 0.96 $/M jetons | |
| le nom du modèle | qwen3-235b-a22b | qwen3-30b-a3b | qwen3-8b |
| illustrer | Il s'agit du modèle phare de la série Qwen3, avec 235 milliards de paramètres, utilisant une architecture Mixture of Experts (MoE). | qwen3-30b-a3b : Avec 30 milliards de paramètres, il équilibre les performances et les besoins en ressources, adapté aux applications de niveau entreprise. | Un modèle léger avec 800 millions de paramètres, conçu spécifiquement pour les environnements à ressources limitées (tels que les appareils mobiles ou les serveurs à faible configuration). |
Étapes requises
- Se connecter à cometapi.comSi vous n'êtes pas encore notre utilisateur, veuillez d'abord vous inscrire
- Obtenez la clé API d'accès à l'interface. Cliquez sur « Ajouter un jeton » au niveau du jeton API dans l'espace personnel, récupérez la clé : sk-xxxxx et validez.
- Obtenez l'URL de ce site : https://api.cometapi.com/
Méthodes d'utilisation
- Sélectionnez l'option "
qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8bPoint de terminaison pour envoyer la requête API et définir le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site web. Notre site web propose également le test Apifox pour plus de commodité. - Remplacer avec votre clé CometAPI réelle de votre compte.
- Insérez votre question ou demande dans le champ de contenu : c'est à cela que le modèle répondra.
- Traitez la réponse de l'API pour obtenir la réponse générée.
Pour les informations sur le modèle lancé dans l'API Comet, veuillez consulter https://api.cometapi.com/new-model.
Pour obtenir des informations sur le prix des modèles dans l'API Comet, veuillez consulter https://api.cometapi.com/pricing.
Voir aussi API Qwen 2.5 Max



