Op 16 februari 2026 — afgestemd op het zeer zichtbare moment van de Chinese oudejaarsavond — kondigde Alibaba de lancering aan van Qwen 3.5, de volgende grote iteratie van zijn vlaggenschipfamilie van grote taal- en multimodale modellen.
Qwen-varianten verkleinen de kloof met de beste gesloten modellen, terwijl andere Chinese releases zoals GLM-5 en MiniMax M2.5 de grens verder verleggen. Op pure benchmark-maxima lopen sommige propriëtaire configuraties (gespecialiseerde GPT/Gemini/Claude-varianten) nog voor in smalle niches, maar de combinatie van Qwen-3.5’s open weights, multimodale agentfuncties en veel lagere operationele kosten maakt het de meest ontwrichtende nieuwkomer van begin 2026.
Wat is Qwen3.5 precies?
Qwen3.5 is de nieuwste generatie van Alibaba’s familie van multimodale foundation-modellen met open gewichten (open gewichten voor sommige varianten plus een gesloten/“plus”-laag voor een hoogpresterend aanbod), ontworpen voor zogenaamde “agentische” workflows — d.w.z. modellen die kunnen waarnemen (visie + tekst), over meerdere stappen kunnen redeneren en tools of acties kunnen activeren. Alibaba’s aankondiging positioneert Qwen3.5 als een sprong in prestatie + kosten ten opzichte van Qwen3 en eerdere varianten, met native visie-taal-/agentische capaciteiten en ondersteuning voor grote contextvensters.
Uitgebrachte versies
Alibaba publiceerde ten minste twee varianten:
| Modelversie | Totaal parameters | Actieve parameters | Belangrijkste kenmerken |
|---|---|---|---|
| Qwen3.5-397B-A17B | ~397 miljard | 17 miljard | Vlaggenschip met open gewichten; efficiënte inferentie; multimodaal |
| Qwen3.5-Plus | ~3970 miljard equivalent | ~170 miljard | In de cloud gehoste variant met volledige capaciteit voor API-gebruik |
Wat zijn de belangrijkste kenmerken van Qwen3.5?
Hieronder volgt een gedetailleerd overzicht van de belangrijkste innovaties achter Qwen3.5 en hoe ze zich verhouden tot topmodellen met gesloten bron:
1. Hybride architectuur en inferentie-efficiëntie
Qwen3.5 combineert:
- Sparse MoE-lagen — voor efficiënte opschaling
- Gated Delta Networks met lineaire attention — voor snellere tokenverwerking
- Enorm contextvenster — tot 1M tokens (uitbreidbaar), waardoor uitgebreide taaksequenties zoals lange video’s of codebases mogelijk zijn zonder compromissen met placeholders
| Kenmerk | Qwen3.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| Architectuur | MoE + Gated Delta | Dense transformer | Dense transformer | Dense transformer |
| Contextlengte | Tot 1M tokens | ~100–200K tokens | ~100–200K tokens | ~100–200K tokens |
| Multimodaal (native) | Ja | Ja | Ja | Ja |
| Ondersteunde talen | 201+ | ~100+ | ~100+ | ~100+ |
| Inferentie-efficiëntie | Zeer hoog | Gemiddeld | Gemiddeld | Gemiddeld |
Beoordeling: De hybride architectuur van Qwen3.5 leent zich bijzonder goed voor efficiënte inference met veel tokens, een concurrentievoordeel in reële implementaties waar throughput en kosten ertoe doen.
2. Agentische mogelijkheden
“Agentische AI” verwijst naar modellen die taken autonoom operationaliseren — beslissingen nemen, handelen op GUI-doelen of meerstapslogica uitvoeren zonder menselijke prompts.
Volgens Alibaba’s officiële aankondigingen kan Qwen3.5:
- Autonoom meerstapstaken uitvoeren in mobiele en desktopapplicaties
- Visueel agentwerk ondersteunen, zoals GUI-manipulatie en videobegrip
- Uitgebreid redeneren en taakplanning omvatten
Dit positioneert Qwen3.5 niet alleen als een conversational LLM, maar als een fundament voor autonome AI-workflows — momenteel een opkomende frontier in AI-onderzoek en -implementatie.
3. Multimodaliteit en taalbereik
Een van Qwen3.5’s opvallende kenmerken is de native multimodale capaciteit: het verwerkt naadloos tekst-, beeld- en video-invoer — een kenmerk van AI-systemen van de volgende generatie. Daarnaast is de taalondersteuning aanzienlijk uitgebreid, nu met 201 talen en dialecten (van 119 in Qwen3), wat de wereldwijde toepasbaarheid sterk vergroot.
4. Multimodale intelligentie
In tegenstelling tot de meeste traditionele taalmodellen die vooral in tekst uitblinken, maakt Qwen 3.5’s visie-taalintegratie functies mogelijk zoals:
- Langdurig videobegrip — naar verluidt tot 2 uur aaneengesloten video-invoer.
- Visueel redeneren en interpretatie — bij taken zoals beeldherkenning, ondertiteling en interpretatie van visuele commando’s.
- GUI- en code-synthese — bijvoorbeeld het omzetten van visuele UI-mock-ups naar werkende code.
Deze functies positioneren het niet alleen als een LLM, maar als een multimodaal fundament voor autonome agents.
Hoe presteert Qwen-3.5 op benchmarks

Kernredeneren en kennisevaluaties
De volgende tabel vat gepubliceerde benchmarkcijfers samen waarin Qwen3.5 wordt vergeleken met grote propriëtaire tegenhangers:
| Benchmark | Qwen3.5 | GPT-5.2 | Claude 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMLU-Pro (kennis) | 87,8 | ~85+ | n.v.t. | ~86+ |
| GPQA (redeneren op PhD-niveau) | 88,4 | ~87 | ~87 | ~88 |
| IFBench (instructievolging) | 76,5 | ~74–75 | ~75 | ~74 |
| BFCL-V4 (algemene agent) | >Gemini 3 Pro | Baseline | Onder Qwen3.5 | Zie notities |
- TAU2-Bench (tooluitvoering + redeneren): Qwen3.5 (open 397B-variant) — ~87,1; GPT-5.2-configuraties variëren vaak van hoge 80’s tot 90’s op TAU-suites in leveranciertabellen.
- BFCL-V4 (functie-/tool-calling): Qwen3.5 — ~72,9; top gesloten modellen in leveranciersranglijsten tonen hogere waarden (GPT-5.2-/Claude Opus-varianten rond ~77–78 voor sommige configuraties). BFCL meet accurate functieselectie, argumentassemblage en toolorkestratie.
- VITA-Bench (multimodale agentische interacties): Qwen3.5 — ~49,7; concurrerende gesloten modellen tonen een spreiding: sommige hebben hogere enkelmodale visuele redenering maar Qwen’s geïntegreerde multimodale agentcijfers zijn competitief.
- DeepPlanning (planning op lange termijn): Qwen3.5 — ~34,3; DeepPlanning is een nieuwere, zwaardere test gericht op meerdaagse planning en langetermijnstappen (paper: arXiv). Scores over alle frontiermodellen laten ruimte voor verbetering; Qwen’s waarde is dat het de agentische langetermijncapaciteit verbetert ten opzichte van eerdere Qwen-iteraties.
- MMLU / MMMLU / kennistaken: Qwen3.5 — MMLU/varianten gerapporteerd ~88–89 (leverancierscijfers), waarmee het in de hoogste categorie voor algemene kennis/redeneren staat vergeleken met eerdere Qwen-versies.
Wat deze cijfers impliceren: Qwen3.5 scoort vooral goed op multi-tool en multimodale agentische ranglijsten (BFCL, TAU2-varianten, VITA), wat aansluit bij Alibaba’s geformuleerde productdoelen (agents die in apps handelen). Op standaard redeneren of codering is het model competitief maar niet overal dominant ten opzichte van de sterkste gesloten systemen — het zit in de topklasse en verkleint in veel praktische domeinen de kloof. Qwen3.5 evenaart of overtreft in geselecteerde taken ten minste toonaangevende gesloten modellen — met name kennisredeneren, multimodale begrip en agentworkflows.
Overtreft Qwen3.5 gesloten topmodellen in 2026?
Dit is de centrale vraag — en het antwoord vraagt om zorgvuldige nuance. De meeste neutrale AI-analisten zouden Qwen3.5 karakteriseren als competitief met de hoogste klasse gesloten modellen in 2026, en — in reële kosten-waarde-termen — vaak superieur voor veel praktische use-cases, vooral waar multimodaliteit en contextlengte cruciaal zijn.
Ja — in specifieke benchmarks en kostenmetriek
Efficiëntie en prijsstelling: Op tokenkosten, inferentiesnelheid en implementatiebetaalbaarheid ligt Qwen3.5 aanzienlijk voor.
Benchmarkprestaties: Gerapporteerde resultaten tonen dat Qwen3.5 GPT-5.2 en Gemini 3 Pro evenaart of overtreft in kennisredeneren (MMLU-Pro) en geavanceerde redeneringsbenchmarks. Bij agentische taken claimt het prestaties boven Gemini 3 Pro en GPT-5.2.
Agent-capaciteiten: De architectuur van Qwen3.5 lijkt bijzonder sterk in agentische testreeksen waar multimodaliteit en uitgebreide context er toe doen. Bij agentische taken claimt het prestaties boven Gemini 3 Pro en GPT-5.2.
Scenario’s waarin Qwen-3.5 waarschijnlijk beter presteert
- Grootschalige, latency-gevoelige inferentiestapels waarbij throughputverbeteringen direct leiden tot kostenbesparingen (bijv. high-volume klantchat, bulkcodegeneratie). Qwen-3.5’s throughput-claims maken het aantrekkelijk.
- On-premise, privacy-gevoelige implementaties waar open gewichten en lokale finetuning essentieel zijn (zorg, gereguleerde sectoren). De open licentie vermindert vendor lock-in.
- Agentische multimodale pijplijnen geïntegreerd in propriëtaire apps waarbij de native visie-naar-actiepaden de integratiecomplexiteit verminderen en de end-to-end-slagingspercentages verbeteren.
Prijs en korting: kostenefficiëntie als concurrentievoordeel
Een van de meest opvallende onderscheidende factoren voor Qwen3.5 is de prijsstelling — zowel de absolute kosten als de vergelijking met in de VS gevestigde propriëtaire systemen.
API- en tokenprijzen
| Model | API-prijs per 1M tokens | Relatieve kostenindex* |
|---|---|---|
| Qwen3.5-Plus (Alibaba) | ~0,8 CNY (~$0,11) | 1× |
| Gemini 3 Pro | ~14,4 CNY (~$2,00) | ~18× |
| GPT-5.2 | ~12–20 CNY (~$1,70–$2,80) | ~15–25× |
| Claude Opus 4.5 | ~12–15 CNY (~$1,70–$2,10) | ~15–18× |
*Geconverteerd van gerapporteerde lokale prijzen; benaderende waarden ter vergelijking.
Inzicht: Qwen3.5’s native prijs — met ruwweg 1/18e van sommige propriëtaire modellen — verandert fundamenteel de kosten-prestatieverhouding voor enterprise- en ontwikkelaarsecosystemen. Lagere tokenkosten verlagen de deploy-overhead drastisch, vooral voor inferentie op grote schaal.
Strategische en marktimpact
Qwen3.5’s combinatie van open licentie (Apache 2.0), multimodale capaciteit, agentische gereedheid en lage prijs kan wereldwijde AI-implementatiepatronen hertekenen — vooral voor internationale ontwikkelaars die kosten en flexibiliteit prioriteren.
Daarnaast kan deze release de competitieve dynamiek versnellen:
- Grotere druk op closed-source leveranciers om betere prijzen of open gewichten te bieden.
- Meer adoptie van AI in lokale enterprisesystemen waar kostenbeperkingen historisch de implementatie beperkten.
- Uitgebreide onderzoeksinnovatie dankzij open toegang en communitybijdragen op platforms zoals Hugging Face en Alibaba’s eigen ontwikkelaarekossysteem.
Conclusie
Qwen3.5’s release op Chinese oudejaarsavond heeft mogelijk een nieuwe standaard gezet in het AI-landschap van 2026. Hoewel propriëtaire systemen zoals GPT-5.2, Claude Opus 4.5 en Gemini 3 Pro formidabel blijven, evenaart of overtreft Qwen3.5 hun prestaties op veel taken — en dat met drastisch lagere kosten en brede multimodale capaciteiten.
In benchmarkevaluaties plaatsen veel toonaangevende metingen Qwen3.5 op of boven het prestatieniveau van topmodellen met gesloten bron; qua kosten en inferentie-efficiëntie is het overtuigend superieur.
Ontwikkelaars kunnen nu toegang krijgen tot de Qwen 3.5 API via CometAPI. Om te beginnen, verken de mogelijkheden van het model in de Playground en raadpleeg de API-gids voor gedetailleerde instructies. Zorg er voordat je toegang krijgt voor dat je bent ingelogd bij CometAPI en de API-sleutel hebt verkregen. CometAPI biedt een prijs die veel lager is dan de officiële prijs om je te helpen integreren.
Klaar om te beginnen?→ Meld je vandaag nog aan voor Qwen-3.5!
Wil je meer tips, gidsen en nieuws over AI? Volg ons op VK, X en Discord!
