Le 16 février 2026 — synchronisé avec le moment très médiatisé de la veille du Nouvel An chinois — Alibaba a annoncé le lancement de Qwen 3.5, la prochaine itération majeure de sa gamme phare de grands modèles de langue et multimodaux.
Les variantes de Qwen comblent l’écart avec les meilleurs modèles propriétaires, tandis que d’autres sorties chinoises telles que GLM-5 et MiniMax M2.5 poussent également la frontière. Sur les plafonds de benchmarks purs, certaines configurations propriétaires (variantes spécialisées de GPT/Gemini/Claude) restent en tête dans des niches étroites, mais la combinaison de Qwen-3.5 — poids ouverts, fonctionnalités d’agent multimodal, et coûts d’exploitation nettement plus faibles — en fait l’arrivée la plus disruptive du début 2026.
Qu’est-ce que Qwen3.5, exactement ?
Qwen3.5 est la dernière génération de la famille de modèles fondamentaux multimodaux à poids ouverts d’Alibaba (poids ouverts pour certaines variantes plus un niveau fermé/« plus » pour une offre de performance supérieure) conçue pour des flux de travail dits « agentiques » — c’est‑à‑dire des modèles capables de percevoir (vision + texte), de raisonner sur plusieurs étapes et de déclencher des outils ou des actions. L’annonce d’Alibaba présente Qwen3.5 comme un saut de performance et de coût par rapport à Qwen3 et aux variantes antérieures, avec des capacités natives vision‑langage/agentiques et la prise en charge de grandes fenêtres de contexte.
Versions publiées
| Version du modèle | Nombre total de paramètres | Paramètres actifs | Caractéristiques clés |
|---|---|---|---|
| Qwen3.5-397B-A17B | ~397 milliards | 17 milliards | Modèle phare à poids ouverts; inférence efficace; multimodal |
| Qwen3.5-Plus | ~3970 milliards équivalent | ~170 milliards | Variante hébergée dans le cloud à pleine capacité pour utilisation via API |
Quelles sont les principales fonctionnalités de Qwen3.5 ?
Ci‑dessous figure un aperçu détaillé des principales innovations derrière Qwen3.5 et de leur comparaison avec les meilleurs modèles propriétaires :
1. Architecture hybride et efficacité d’inférence
Qwen3.5 combine :
- Couches MoE clairsemées — pour une mise à l’échelle efficace
- Gated Delta Networks avec attention linéaire — pour un traitement des tokens plus rapide
- Fenêtre de contexte massive — jusqu’à 1M tokens (extensible), permettant des séquences de tâches prolongées comme des vidéos longues ou des bases de code sans compromis liés aux espaces réservés
| Caractéristique | Qwen3.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| Architecture | MoE + Gated Delta | Transformeur dense | Transformeur dense | Transformeur dense |
| Longueur du contexte | Jusqu’à 1M tokens | ~100–200K tokens | ~100–200K tokens | ~100–200K tokens |
| Multimodal (natif) | Oui | Oui | Oui | Oui |
| Langues prises en charge | 201+ | ~100+ | ~100+ | ~100+ |
| Efficacité d’inférence | Très élevée | Modérée | Modérée | Modérée |
Évaluation : l’architecture hybride de Qwen3.5 est particulièrement adaptée à l’inférence efficace sur un grand nombre de tokens, un avantage concurrentiel dans les déploiements réels où le débit et le coût comptent.
2. Capacités agentiques
« Agentic AI » désigne des modèles qui opérationnalisent des tâches de manière autonome — prenant des décisions, agissant sur des cibles d’interface graphique (GUI) ou exécutant une logique en plusieurs étapes sans invites humaines.
Les annonces officielles d’Alibaba affirment que Qwen3.5 :
- Exécute des tâches multi‑étapes de manière autonome sur des applications mobiles et desktop
- Prend en charge le travail d’agent visuel, comme la manipulation d’interface (GUI) et la compréhension vidéo
- Inclut un raisonnement étendu et la planification de tâches
Cela positionne Qwen3.5 non seulement comme un LLM conversationnel, mais comme une base pour des flux de travail d’IA autonome — un front actuellement émergent de la recherche et du déploiement en IA.
3. Multimodalité et couverture linguistique
L’une des fonctionnalités marquantes de Qwen3.5 est sa capacité multimodale native : il gère texte, image et vidéo de manière fluide — un marqueur des systèmes d’IA de prochaine génération. De plus, la prise en charge des langues s’est fortement étendue, couvrant désormais 201 langues et dialectes (contre 119 dans Qwen3), élargissant considérablement l’applicabilité mondiale.
4. Intelligence multimodale
Contrairement à la plupart des modèles de langue traditionnels qui excellent uniquement en texte, l’intégration vision‑langage de Qwen 3.5 permet des fonctions telles que :
- Compréhension de vidéos longues — prendrait en charge jusqu’à 2 heures d’entrée vidéo continue.
- Raisonnement et interprétation visuels — pour des tâches telles que la reconnaissance d’images, la génération de légendes et l’interprétation de commandes visuelles.
- Synthèse GUI et code — par exemple, conversion de maquettes d’IU visuelles en code fonctionnel.
Ces fonctionnalités le positionnent non seulement comme un LLM mais comme une base multimodale pour des agents autonomes.
Comment Qwen-3.5 se comporte‑t‑il sur les benchmarks

Évaluations de raisonnement central et de connaissances
Le tableau suivant résume les chiffres de benchmarks publiés comparant Qwen3.5 à des homologues propriétaires majeurs :
| Benchmark | Qwen3.5 | GPT-5.2 | Claude 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMLU-Pro (connaissances) | 87.8 | ~85+ | n/a | ~86+ |
| GPQA (raisonnement niveau doctorat) | 88.4 | ~87 | ~87 | ~88 |
| IFBench (suivi d’instructions) | 76.5 | ~74–75 | ~75 | ~74 |
| BFCL-V4 (agent général) | >Gemini 3 Pro | Référence | Inférieur à Qwen3.5 | Voir notes |
- TAU2-Bench (exécution d’outils + raisonnement) : Qwen3.5 (variante ouverte 397B) — ~87.1 ; les configurations GPT-5.2 se situent souvent dans la fourchette haute des 80–90 sur les suites TAU dans les tableaux des fournisseurs.
- BFCL-V4 (appel de fonctions/outils) : Qwen3.5 — ~72.9 ; les modèles propriétaires en tête des classements de fournisseurs affichent des valeurs plus élevées (les variantes GPT-5.2 / Claude Opus se situent ~77–78 pour certaines configurations). BFCL mesure la sélection correcte de fonctions, l’assemblage des arguments et l’orchestration des outils.
- VITA-Bench (interactions agentiques multimodales) : Qwen3.5 — ~49.7 ; des modèles propriétaires concurrents montrent une dispersion : certains ont un raisonnement visuel monomodale supérieur, mais les chiffres d’agent multimodal intégré de Qwen sont compétitifs.
- DeepPlanning (planification à long horizon) : Qwen3.5 — ~34.3 ; DeepPlanning est un test plus récent et plus difficile axé sur la planification multi‑jours et les étapes à long horizon (papier : arXiv). Les scores de tous les modèles de pointe montrent une marge d’amélioration ; la valeur de Qwen est qu’il améliore la capacité agentique à long horizon par rapport aux itérations précédentes de Qwen.
- MMLU / MMMLU / tâches de connaissances : Qwen3.5 — MMLU/variantes rapportées ~88–89 (chiffres du fournisseur), le plaçant dans le haut niveau pour les connaissances générales / le raisonnement par rapport aux versions antérieures de Qwen.
Ce que ces chiffres impliquent : Qwen3.5 obtient des scores particulièrement bons sur les tableaux d’agent multimodal et multi‑outils (BFCL, variantes TAU2, VITA), ce qui correspond aux objectifs produits déclarés par Alibaba (des agents qui agissent dans les applications). Sur les volets standard de raisonnement ou de code, le modèle est compétitif mais n’est pas un dominateur absolu sur l’ensemble des systèmes propriétaires les plus puissants — il se situe plutôt dans le haut du panier et réduit les écarts dans de nombreux domaines pratiques. Qwen3.5 au moins s’aligne ou surpasse de peu les modèles propriétaires de premier plan sur des tâches sélectionnées — particulièrement le raisonnement en connaissances, la compréhension multimodale et les flux de travail d’agent.
Qwen3.5 dépasse‑t‑il les modèles propriétaires de premier plan en 2026 ?
C’est la question centrale — et la réponse demande de la nuance. La plupart des analystes IA neutres caractériseraient Qwen3.5 comme compétitif avec le plus haut niveau de modèles propriétaires en 2026, et — en termes réels de coût‑valeur — souvent supérieur pour de nombreux cas d’utilisation pratiques, surtout là où la multimodalité et la longueur de contexte sont critiques.
Oui — dans des benchmarks et des métriques de coût spécifiques
Efficacité et tarification : Sur le coût par token, la vitesse d’inférence et l’accessibilité du déploiement, Qwen3.5 est nettement en avance.
Performances sur benchmarks : Les résultats rapportés montrent que Qwen3.5 égale ou dépasse GPT-5.2 et Gemini 3 Pro en raisonnement de connaissances (MMLU-Pro) et sur des benchmarks de raisonnement avancé. Dans les tâches agentiques, il revendique des performances supérieures à Gemini 3 Pro et GPT-5.2.
Capacités d’agent : L’architecture de Qwen3.5 semble particulièrement forte dans les suites de tâches agentiques où la multimodalité et le contexte étendu comptent. Dans les tâches agentiques, il revendique des performances supérieures à Gemini 3 Pro et GPT-5.2.
Scénarios où Qwen‑3.5 est susceptible de surpasser
- Stacks d’inférence à grande échelle sensibles à la latence où les améliorations de débit se traduisent directement par des économies de coûts (par ex., chat client à volume élevé, génération de code en masse). Les revendications de débit de Qwen‑3.5 le rendent attrayant.
- Déploiements on‑premise sensibles à la confidentialité où des poids ouverts et un affinement local sont essentiels (santé, secteurs réglementés). La licence ouverte réduit le verrouillage fournisseur.
- Pipelines multimodaux agentiques intégrés dans des applications propriétaires où les voies natives vision‑vers‑action réduisent la complexité d’intégration et améliorent les taux de réussite de bout en bout.
Prix et remise : l’efficacité des coûts comme avantage concurrentiel
L’un des différenciateurs les plus marquants de Qwen3.5 est la tarification — à la fois son coût absolu et sa comparaison avec les systèmes propriétaires basés aux États‑Unis.
Tarification de l’API et des tokens
| Modèle | Prix API par 1M de tokens | Indice de coût relatif* |
|---|---|---|
| Qwen3.5-Plus (Alibaba) | ~0.8 CNY (~$0.11) | 1× |
| Gemini 3 Pro | ~14.4 CNY (~$2.00) | ~18× |
| GPT-5.2 | ~12–20 CNY (~$1.70–$2.80) | ~15–25× |
| Claude Opus 4.5 | ~12–15 CNY (~$1.70–$2.10) | ~15–18× |
*Converti à partir des tarifs locaux rapportés ; valeurs approximatives pour le contexte comparatif.
Analyse : Le prix natif de Qwen3.5 — à environ 1/18 de certains modèles propriétaires — change fondamentalement le ratio coût‑performance pour les écosystèmes d’entreprise et de développeurs. Des coûts par token plus bas réduisent fortement les frais de déploiement, surtout pour des tâches d’inférence à grand volume.
Impact stratégique et sur le marché
La combinaison de licence ouverte (Apache 2.0), capacité multimodale, préparation agentique et prix bas de Qwen3.5 pourrait remodeler les schémas de déploiement de l’IA à l’échelle mondiale — en particulier pour les développeurs internationaux qui privilégient le coût et la flexibilité.
De plus, cette sortie pourrait accélérer les dynamiques concurrentielles :
- Pression accrue sur les fournisseurs propriétaires pour proposer de meilleurs prix ou des poids ouverts.
- Davantage d’adoption de l’IA dans les systèmes d’entreprise locaux où les contraintes de coûts limitaient historiquement le déploiement.
- Innovation de recherche élargie grâce à un accès ouvert et aux contributions de la communauté sur des plateformes comme Hugging Face et l’écosystème développeurs d’Alibaba.
Conclusion
La sortie de Qwen3.5 la veille du Nouvel An chinois a sans doute fixé un nouveau repère dans le paysage IA de 2026. Tandis que des systèmes propriétaires tels que GPT-5.2, Claude Opus 4.5 et Gemini 3 Pro restent redoutables, Qwen3.5 égale ou dépasse leurs performances sur de nombreuses tâches — et le fait avec des coûts drastiquement plus bas et de larges capacités multimodales.
Dans les évaluations de benchmarks, de nombreuses mesures de référence placent Qwen3.5 au niveau ou au‑dessus du palier de performance des meilleurs modèles propriétaires ; en coût et en efficacité d’inférence, il est nettement supérieur.
Les développeurs peuvent accéder à l’API Qwen 3.5 via CometAPI dès maintenant. Pour commencer, explorez les capacités du modèle dans le Playground et consultez le guide de l’API pour des instructions détaillées. Avant l’accès, veuillez vous assurer que vous vous êtes connecté à CometAPI et avez obtenu la clé API. CometAPI propose un prix bien inférieur au prix officiel pour vous aider à intégrer.
Prêt à démarrer ? → Inscrivez‑vous à Qwen‑3.5 dès aujourd’hui !
Si vous souhaitez découvrir davantage de conseils, guides et actualités sur l’IA, suivez‑nous sur VK, X et Discord !
