Le 23 juillet 2025, le groupe Alibaba a officiellement lancé Qwen3-Coder, un modèle d'intelligence artificielle open source conçu pour le développement logiciel et les tâches de codage autonomes. Cette annonce positionne Qwen3-Coder comme le modèle de codage le plus avancé de l'entreprise à ce jour, offrant des capacités d'évolutivité et de performance sans précédent, conçues pour répondre aux besoins complexes des équipes d'ingénierie logicielle modernes.
La variante phare, Qwen3-Coder-480B-A35B-Instruct, comprend un modèle MoE de 480 milliards de paramètres avec 35 milliards de paramètres actifs, prenant en charge nativement des fenêtres de contexte jusqu'à 256 1 jetons et extensibles à XNUMX million de jetons par extrapolation. Cette longueur de contexte étendue permet au modèle de maintenir la cohérence sur des bases de code volumineuses, de la documentation et des projets multifichiers sans perdre de vue les dépendances.
Spécifications et capacités du modèle Qwen3-Coder
Les principaux points techniques importants comprennent :
Des repères approfondis:Selon Alibaba, Qwen3-Coder surpasse tous les modèles de codage open source existants sur des benchmarks tels que SWE-Bench-Verified et les évaluations de codage agentique, démontrant une précision, une efficacité et une qualité de code supérieures.
Cadre de codage agentique:En tirant parti de l'apprentissage par renforcement à long terme (Agent RL), Qwen3-Coder peut planifier de manière autonome des tâches de codage, invoquer des outils de développement externes et s'autocorriger en fonction de boucles de rétroaction, reflétant ainsi les processus d'ingénierie logicielle du monde réel.
Modes de pensée doubles:Un mode de pensée et de non-pensée unifié permet au modèle d'adapter les budgets de calcul de manière dynamique, en basculant entre une réponse rapide pour des scripts simples et un raisonnement plus approfondi pour des défis algorithmiques complexes.
Benchmarks de Performance
Lors des benchmarks internes, Qwen3-Coder a surpassé ses principaux concurrents nationaux, notamment DeepSeek et K2 de Moonshot AI, sur des indicateurs clés de codage, tels que la précision de la génération de code et le débogage multi-fichiers. De plus, Alibaba revendique une égalité avec les meilleurs modèles américains, à savoir GPT-4 d'OpenAI et Claude d'Anthropic, sur les défis de codage standard, soulignant ainsi sa compétitivité à l'échelle mondiale.
| Modèle | Échecs d'exécution (%) | Erreurs de grammaire (%) | Taux de score zéro (%) | Nombre total d'échecs (%) | Score Max | Score médian | Écart médian (%) |
|---|---|---|---|---|---|---|---|
| OpenAI o4 mini (haut) | 1.11 | 3.33 | 6.67 | 11.11 | 77.75 | 66.75 | 14.16 |
| Claude Sonnet 4 (Pense) | 1.11 | 5.56 | 3.33 | 10.00 | 75.67 | 66.98 | 11.49 |
| Qwen3-Coder-480B-A35B | 5.56 | 4.44 | 10.00 | 20.00 | 72.85 | 52.04 | 28.57 |
| Gémeaux 2.5 Pro | 2.22 | 7.78 | 8.89 | 18.89 | 72.24 | 58.05 | 19.65 |
| DeepSeek R1 0528 | 3.33 | 5.56 | 13.33 | 22.22 | 69.36 | 49.25 | 29.00 |
| Claude Sonnet 4 | 3.33 | 4.44 | 7.78 | 15.55 | 68.26 | 61.02 | 10.60 |
| GPT-4.1 mini | 2.22 | 7.78 | 3.33 | 13.33 | 64.39 | 50.87 | 20.99 |
| Qwen3-235B-A22B-Instruct-2507 | 4.44 | 16.67 | 13.33 | 34.44 | 63.24 | 42.44 | 32.89 |
Formé sur un terrain massif Ensemble de données de 7.5 billions de jetons, avec plus de 70% À partir des données issues de référentiels de code de haute qualité, Qwen3-Coder a été affiné grâce à l'apprentissage par renforcement basé sur des scénarios de développement réels. Ce peaufinage post-formation a considérablement amélioré le taux de réussite d'exécution du modèle et sa robustesse à générer un code correct et efficace.
Qwen3-Coder est désormais disponible sur Étreindre le visage et GitHub, et les développeurs peuvent y accéder via le Alibaba Cloud Model Studio API. Elle a également été intégrée dans **Tongyi Lingma (Code Qwen)**L'assistant de codage IA d'Alibaba, offrant un déploiement transparent pour les développeurs d'entreprise et individuels.
Code Qwen
Pour faciliter une adoption à grande échelle, Alibaba publie simultanément Code Qwen, une interface de ligne de commande basée sur Gemini CLI qui connecte Qwen3-Coder de manière transparente aux environnements de développement, systèmes de contrôle de version et pipelines CI/CD courants. Cet outil comprend :
- Invites personnalisées et appel de fonctions: Modèles d’interaction préconfigurés qui guident les développeurs tout au long des tâches de génération de tests, de révision de code et de déploiement.
- Architecture de plugin: Modules extensibles pour l'intégration de débogueurs, de linters et de profileurs de performances tiers.
- Accès à Alibaba Cloud Model Studio: Provisionnement d'API en un clic, tableaux de bord de surveillance et options de réglage fin au sein de l'écosystème Alibaba Cloud.
Les développeurs peuvent installer Qwen Code via le gestionnaire npm ou utiliser le code source de GitHub. Qwen Code prend en charge l'appel OpenAI SDK LLM.
Pour commencer
CometAPI est une plateforme d'API unifiée qui regroupe plus de 500 modèles d'IA provenant de fournisseurs leaders, tels que la série GPT d'OpenAI, Gemini de Google, Claude d'Anthropic, Midjourney, Suno, etc., au sein d'une interface unique et conviviale pour les développeurs. En offrant une authentification, un formatage des requêtes et une gestion des réponses cohérents, CometAPI simplifie considérablement l'intégration des fonctionnalités d'IA dans vos applications. Que vous développiez des chatbots, des générateurs d'images, des compositeurs de musique ou des pipelines d'analyse pilotés par les données, CometAPI vous permet d'itérer plus rapidement, de maîtriser les coûts et de rester indépendant des fournisseurs, tout en exploitant les dernières avancées de l'écosystème de l'IA.
Les développeurs peuvent interagir avec Qwen3-Coder via une API de style OpenAI compatible, disponible via CometAPI. API Comet, qui proposent l'Open source(qwen3-coder-480b-a35b-instruct) et versions commerciales(qwen3-coder-plus; qwen3-coder-plus-2025-07-22) au même prix. La version commerciale fait 1 Mo. Exemple de code pour Python (utilisant le client compatible OpenAI) avec les meilleures pratiques recommandant des paramètres d'échantillonnage de température = 0.7, top_p = 0.8, top_k = 20 et une pénalité de répétition = 1.05. La longueur de sortie peut atteindre 65,536 XNUMX jetons, ce qui la rend adaptée aux tâches de génération de code volumineuses.
Pour commencer, explorez les capacités des modèles dans le cour de récréation et consultez le Guide de l'API Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API avant d'y accéder.


