16 lutego 2026 r. — w czasie zgranym z momentem wysokiej widoczności, jakim jest Wigilia Chińskiego Nowego Roku — Alibaba ogłosiła premierę Qwen 3.5, kolejnej głównej iteracji swojej flagowej rodziny dużych modeli językowych i multimodalnych.
Warianty Qwen zmniejszają dystans do czołowych modeli zamkniętoźródłowych, podczas gdy inne chińskie wydania, takie jak GLM-5 i MiniMax M2.5, również przesuwają granicę możliwości. Jeśli chodzi o czyste sufity benchmarków, niektóre konfiguracje zastrzeżone (wyspecjalizowane warianty GPT/Gemini/Claude) nadal prowadzą w wąskich niszach, ale połączenie Qwen-3.5: otwartych wag, funkcji agenta multimodalnego oraz znacznie niższych kosztów operacyjnych czyni go najbardziej wywrotową premierą początku 2026 r.
Czym dokładnie jest Qwen3.5?
Qwen3.5 to najnowsza generacja rodziny multimodalnych modeli bazowych z otwartymi wagami Alibaby (otwarte wagi dla części wariantów oraz zamknięta/„plus” warstwa dla oferty o wyższej wydajności) zaprojektowanych pod tzw. „agentowe” przepływy pracy — tj. modele, które potrafią postrzegać (obraz + tekst), rozumować wieloetapowo i wyzwalać narzędzia lub akcje. Ogłoszenie Alibaby przedstawia Qwen3.5 jako skok wydajności i kosztów względem Qwen3 i wcześniejszych wariantów, z natywnymi zdolnościami wizja–język / agentowymi oraz wsparciem dla dużych okien kontekstu.
Wydane wersje
| Wersja modelu | Łączna liczba parametrów | Aktywne parametry | Kluczowe cechy |
|---|---|---|---|
| Qwen3.5-397B-A17B | ~397 miliardów | 17 miliardów | Flagowiec z otwartymi wagami; wydajna inferencja; multimodalny |
| Qwen3.5-Plus | ~3970 miliardów eq. | ~170 miliardów | Wariant o pełnej przepustowości hostowany w chmurze do użycia via API |
Jakie są kluczowe cechy Qwen3.5?
Poniżej znajduje się szczegółowy przegląd głównych innowacji stojących za Qwen3.5 oraz ich porównanie z czołowymi modelami zamkniętoźródłowymi:
1. Hybrydowa architektura i wydajność inferencji
Qwen3.5 łączy:
- Rzadkie warstwy MoE — dla efektywnego skalowania
- Gated Delta Networks z liniową atencją — dla szybszego przetwarzania tokenów
- Ogromne okno kontekstu — do 1M tokenów (rozszerzalne), umożliwiające wydłużone sekwencje zadań, takie jak długie nagrania wideo lub bazy kodu, bez kompromisów zastępczych
| Cecha | Qwen3.5 | GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| Architektura | MoE + Gated Delta | Gęsty transformer | Gęsty transformer | Gęsty transformer |
| Długość kontekstu | Do 1M tokenów | ~100–200K tokenów | ~100–200K tokenów | ~100–200K tokenów |
| Multimodalność (natywna) | Tak | Tak | Tak | Tak |
| Obsługiwane języki | 201+ | ~100+ | ~100+ | ~100+ |
| Wydajność inferencji | Bardzo wysoka | Umiarkowana | Umiarkowana | Umiarkowana |
Ocena: Hybrydowa architektura Qwen3.5 jest szczególnie dobrze dopasowana do wydajnej inferencji na dużej liczbie tokenów, co stanowi przewagę konkurencyjną w realnych wdrożeniach, gdzie liczą się przepustowość i koszt.
2. Zdolności agentowe
„Agentowa AI” odnosi się do modeli, które autonomicznie operacjonalizują zadania — podejmując decyzje, działając na elementach GUI lub wykonując wieloetapową logikę bez ludzkich podpowiedzi.
Oficjalne zapowiedzi Alibaby stwierdzają, że Qwen3.5:
- Wykonuje wielokrokowe zadania autonomicznie w aplikacjach mobilnych i desktopowych
- Wspiera pracę wizualnego agenta, taką jak manipulacja GUI i rozumienie wideo
- Zawiera rozszerzone rozumowanie i planowanie zadań
To pozycjonuje Qwen3.5 nie tylko jako konwersacyjny LLM, lecz jako fundament dla autonomicznych przepływów pracy AI — obecnie wschodzącą granicę w badaniach i wdrożeniach AI.
3. Multimodalność i zasięg językowy
Jedną z wyróżniających cech Qwen3.5 jest natywna multimodalność: model obsługuje tekst, obraz i wideo w sposób płynny — znak rozpoznawczy systemów AI następnej generacji. Dodatkowo wsparcie językowe znacząco się rozszerzyło, obejmując teraz 201 języków i dialektów (wzrost ze 119 w Qwen3), co znacząco zwiększa globalną użyteczność.
4. Inteligencja multimodalna
W odróżnieniu od większości tradycyjnych modeli językowych, które świetnie radzą sobie jedynie z tekstem, integracja wizja–język w Qwen 3.5 umożliwia funkcje takie jak:
- Zrozumienie długich wideo — podobno obsługuje do 2 godzin ciągłego wejścia wideo.
- Wizualne rozumowanie i interpretacja — w zadaniach takich jak rozpoznawanie obrazów, opisywanie i interpretacja poleceń wizualnych.
- Synteza GUI i kodu — np. konwersja wizualnych makiet interfejsu w działający kod.
Cechy te czynią go nie tylko LLM, ale multimodalnym fundamentem dla autonomicznych agentów.
Jak Qwen-3.5 wypada w benchmarkach

Kluczowe testy rozumowania i wiedzy
Poniższa tabela podsumowuje opublikowane wyniki benchmarków porównujące Qwen3.5 z głównymi zastrzeżonymi odpowiednikami:
| Benchmark | Qwen3.5 | GPT-5.2 | Claude 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| MMLU-Pro (wiedza) | 87.8 | ~85+ | n/d | ~86+ |
| GPQA (rozumowanie na poziomie PhD) | 88.4 | ~87 | ~87 | ~88 |
| IFBench (podążanie za instrukcjami) | 76.5 | ~74–75 | ~75 | ~74 |
| BFCL-V4 (ogólny agent) | >Gemini 3 Pro | Bazowy | Poniżej Qwen3.5 | Zob. uwagi |
- TAU2-Bench (wykonywanie narzędzi + rozumowanie): Qwen3.5 (otwarty wariant 397B) — ~87.1; konfiguracje GPT-5.2 często osiągają wysokie 80–90 na zestawach TAU w tabelach dostawców.
- BFCL-V4 (wywoływanie funkcji/narzędzi): Qwen3.5 — ~72.9; najlepsze modele zamknięte w rankingach dostawców pokazują wyższe wartości (warianty GPT-5.2 / Claude Opus osiągają ~77–78 w niektórych konfiguracjach). BFCL mierzy trafny wybór funkcji, składanie argumentów i orkiestrację narzędzi.
- VITA-Bench (multimodalne interakcje agentowe): Qwen3.5 — ~49.7; konkurencyjne modele zamknięte wykazują rozrzut: niektóre mają wyższe jednokanałowe rozumowanie wizualne, ale zintegrowane multimodalne wyniki agenta Qwen są konkurencyjne.
- DeepPlanning (planowanie długohoryzontowe): Qwen3.5 — ~34.3; DeepPlanning to nowszy, trudniejszy test skupiony na wielodniowym planowaniu i długim horyzoncie kroków (artykuł: arXiv). Wyniki wśród wszystkich modeli czołowych pokazują przestrzeń do poprawy; wartością Qwen jest poprawa zdolności długohoryzontowych agentów względem poprzednich iteracji Qwen.
- MMLU / MMMLU / zadania wiedzy: Qwen3.5 — MMLU/warianty raportowane ~88–89 (dane producenta), pozycjonujące go w wysokiej klasie dla ogólnej wiedzy/rozumowania względem wcześniejszych wersji Qwen.
Co implikują te liczby: Qwen3.5 wypada szczególnie dobrze na listach wielonarzędziowych i multimodalnych agentów (BFCL, warianty TAU2, VITA), co jest spójne z deklarowanymi celami produktowymi Alibaby (agenci działający w aplikacjach). W standardowym rozumowaniu lub kodowaniu model jest konkurencyjny, ale nie jest bezwzględnym dominatorem we wszystkich przekrojach względem najsilniejszych systemów zamkniętych — raczej plasuje się w najwyższej lidze i domyka luki w wielu praktycznych obszarach. Qwen3.5 przynajmniej dorównuje lub nieznacznie przewyższa wiodące modele zamkniętoźródłowe w wybranych zadaniach — szczególnie w rozumowaniu wiedzy, multimodalnym pojmowaniu i przepływach pracy agentów.
Czy Qwen3.5 przewyższa najlepsze modele zamkniętoźródłowe w 2026 r.?
To kluczowe pytanie — a odpowiedź wymaga ostrożnych niuansów. Większość neutralnych analityków AI scharakteryzowałaby Qwen3.5 jako konkurencyjny względem najwyższej klasy modeli zamkniętoźródłowych w 2026 r., a — w rzeczywistym stosunku koszt–wartość — często lepszy dla wielu praktycznych zastosowań, zwłaszcza tam, gdzie krytyczne są multimodalność i długość kontekstu.
Tak — w określonych benchmarkach i metrykach kosztowych
Wydajność i ceny: Pod względem kosztu tokena, szybkości inferencji i przystępności wdrożeń Qwen3.5 jest znacząco z przodu.
Wyniki benchmarków: Raportowane rezultaty pokazują, że Qwen3.5 dorównuje lub przewyższa GPT-5.2 i Gemini 3 Pro w rozumowaniu wiedzy (MMLU-Pro) i zaawansowanych benchmarkach rozumowania. W zadaniach agentowych deklaruje przewagę nad Gemini 3 Pro i GPT-5.2.
Zdolności agentów: Architektura Qwen3.5 wydaje się szczególnie mocna w zestawach zadań agentowych, gdzie liczy się multimodalność i rozszerzony kontekst. W zadaniach agentowych deklaruje przewagę nad Gemini 3 Pro i GPT-5.2.
Scenariusze, w których Qwen-3.5 prawdopodobnie przewyższa konkurencję
- Wielkoskalowe, wrażliwe na opóźnienia stosy inferencyjne, gdzie poprawa przepustowości bezpośrednio przekłada się na oszczędności (np. wysokowolumenowa obsługa czatu z klientem, hurtowe generowanie kodu). Deklarowana przepustowość Qwen-3.5 czyni go atrakcyjnym.
- Wdrożenia on‑premise, wrażliwe na prywatność, gdzie istotne są otwarte wagi i lokalne dostrajanie (ochrona zdrowia, sektory regulowane). Otwarta licencja zmniejsza uzależnienie od dostawcy.
- Agentowe, multimodalne potoki zintegrowane z własnymi aplikacjami, gdzie natywne ścieżki od wizji do działania zmniejszają złożoność integracji i poprawiają skuteczność end‑to‑end.
Cena i rabat: efektywność kosztowa jako przewaga konkurencyjna
Jednym z najbardziej spektakularnych wyróżników Qwen3.5 jest cena — zarówno w ujęciu bezwzględnym, jak i na tle systemów z USA.
Cennik API i tokenów
| Model | Cena API za 1M tokenów | Względny indeks kosztów* |
|---|---|---|
| Qwen3.5-Plus (Alibaba) | ~0,8 CNY (~$0.11) | 1× |
| Gemini 3 Pro | ~14,4 CNY (~$2.00) | ~18× |
| GPT-5.2 | ~12–20 CNY (~$1.70–$2.80) | ~15–25× |
| Claude Opus 4.5 | ~12–15 CNY (~$1.70–$2.10) | ~15–18× |
*Przeliczone z raportowanych cen lokalnych; wartości przybliżone na potrzeby porównania.
Spostrzeżenie: Rodzima cena Qwen3.5 — na poziomie około 1/18 kosztu niektórych modeli zastrzeżonych — fundamentalnie zmienia stosunek koszt–wydajność dla ekosystemów przedsiębiorstw i deweloperów. Niższe koszty tokenów dramatycznie redukują koszty wdrożeń, szczególnie w zleceniach o dużym wolumenie inferencji.
Wpływ strategiczny i rynkowy
Połączenie otwartego licencjonowania (Apache 2.0), multimodalnych możliwości, gotowości agentowej i niskiej ceny w Qwen3.5 może przekształcić globalne wzorce wdrożeń AI — zwłaszcza dla deweloperów stawiających na koszt i elastyczność.
Dodatkowo to wydanie może przyspieszyć dynamikę konkurencyjną:
- Większa presja na dostawców zamkniętoźródłowych, by zaoferować lepsze ceny lub otwarte wagi.
- Większa adopcja AI w lokalnych systemach przedsiębiorstw, gdzie dotąd ograniczenia kosztowe hamowały wdrożenia.
- Rozszerzona innowacja badawcza dzięki otwartemu dostępowi i wkładom społeczności na platformach takich jak Hugging Face oraz w ekosystemie deweloperskim Alibaby.
Wnioski
Wydanie Qwen3.5 w Wigilię Chińskiego Nowego Roku wyznaczyło prawdopodobnie nowy punkt odniesienia w krajobrazie AI 2026 r. Choć systemy zastrzeżone, takie jak GPT-5.2, Claude Opus 4.5 i Gemini 3 Pro, pozostają potężne, Qwen3.5 dorównuje lub przewyższa ich wydajność w wielu zadaniach — i robi to przy dramatycznie niższych kosztach oraz z szerokimi możliwościami multimodalnymi.
W ocenach benchmarkowych wiele czołowych miar plasuje Qwen3.5 na poziomie lub powyżej klasy wydajności najlepszych modeli zamkniętoźródłowych; pod względem kosztów i efektywności inferencji jest decydująco lepszy.
Deweloperzy mogą uzyskać dostęp do Qwen 3.5 API przez CometAPI już teraz. Aby zacząć, poznaj możliwości modelu w Playground i zapoznaj się z przewodnikiem API po szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby ułatwić integrację.
Gotowi do startu?→ Zarejestruj się w Qwen-3.5 już dziś!
Jeśli chcesz poznać więcej porad, przewodników i wiadomości o AI, śledź nas na VK, X i Discord!
