Home/Models/Aliyun/qwen3.5-397b-a17b
Q

qwen3.5-397b-a17b

Wejście:$0.48/M
Wyjście:$2.88/M
Natywny model wizyjno-językowy 397B-A17B z serii Qwen3.5 został zbudowany na hybrydowej architekturze, która integruje mechanizm liniowej uwagi z rzadką mieszanką ekspertów, osiągając wyższą efektywność wnioskowania.
Nowy
Użycie komercyjne
Playground
Przegląd
Funkcje
Cennik
API

Specyfikacja techniczna Qwen3.5-397B-A17B

ElementQwen3.5-397B-A17B (otwarte wagi po dodatkowym treningu)
Rodzina modeluQwen3.5 (seria Tongyi Qwen, Alibaba)
ArchitekturaHybrydowy Mixture-of-Experts (MoE) + Gated DeltaNet; multimodalne szkolenie z wczesną fuzją
Łączna liczba parametrów~397 miliardów (łącznie)
Aktywne parametry (A17B)~17 miliardów aktywnych na token (rzadkie trasowanie)
Typy wejściaTekst, Obraz, Wideo (multimodalne wczesna fuzja)
Typy wyjściaTekst (chat, kod, wyjścia RAG), image-to-text, odpowiedzi multimodalne
Natywne okno kontekstu262 144 tokenów (native ISL)
Możliwość rozszerzenia kontekstuDo ~1 010 000 tokenów przez skalowanie YaRN/ RoPE (zależne od platformy)
Maksymalna liczba tokenów wyjściowychZależne od frameworka/serwowania (przykłady w przewodnikach pokazują 81 920–131 072)
JęzykiPonad 200 języków i dialektów
Data wydania16 lutego 2026 (wydanie open-weight)
LicencjaApache‑2.0 (otwarte wagi na Hugging Face / ModelScope)

Czym jest Qwen3.5-397B-A17B

Qwen3.5-397B-A17B to pierwsze wydanie z otwartymi wagami w rodzinie Qwen3.5 firmy Alibaba: duży, multimodalny model bazowy typu mixture‑of‑experts trenowany z celami wczesnej fuzji wizja–język i zoptymalizowany pod przepływy agentowe. Model udostępnia pełną pojemność architektury 397B parametrów przy użyciu rzadkiego trasowania (sufiks „A17B”), dzięki czemu aktywnych jest tylko ~17B parametrów na token — zapewniając równowagę między pojemnością wiedzy a efektywnością inferencji.

To wydanie jest przeznaczone dla badaczy i zespołów inżynierskich, które potrzebują otwartego, wdrażalnego i multimodalnego modelu bazowego zdolnego do rozumowania w długim kontekście, rozumienia wizualnego oraz aplikacji wspomaganych wyszukiwaniem/agentowych.


Główne cechy Qwen3.5-397B-A17B

  • Efektywność aktywnych parametrów w rzadkim MoE: Duża globalna pojemność (397B) z aktywnością per token porównywalną z gęstym modelem 17B, zmniejszając FLOPS na token przy zachowaniu różnorodności wiedzy.
  • Natywna multimodalność (wczesna fuzja): Trenowany do obsługi tekstu, obrazów i wideo poprzez ujednoliconą strategię tokenizacji i enkodera dla rozumowania między modalnościami.
  • Bardzo długie konteksty: Natywna długość sekwencji wejściowej 262K tokenów i udokumentowane ścieżki rozszerzenia do ~1M+ tokenów przy użyciu skalowania RoPE/YARN dla RAG i potoków długich dokumentów.
  • Tryb „thinking” i narzędzia agentowe: Obsługa wewnętrznych śladów rozumowania oraz wzorca wykonania agentowego; przykłady obejmują wywołania narzędzi i integrację z interpreterem kodu.
  • Otwarte wagi i szeroka kompatybilność: Wydany na licencji Apache‑2.0 na Hugging Face i ModelScope, z przewodnikami pierwszej strony dla Transformers, vLLM, SGLang oraz społecznościowych frameworków.
  • Pokrycie językowe przyjazne przedsiębiorstwom: Obszerny trening wielojęzyczny (200+ języków), a także instrukcje i receptury wdrożeniowe na skalę.

Qwen3.5-397B-A17B vs wybrane modele

ModelOkno kontekstu (natywne)Mocne stronyTypowe kompromisy
Qwen3.5-397B-A17B262K (natywnie)Multimodalny MoE, otwarte wagi, pojemność 397B z 17B aktywnychDuże artefakty modelu, wymaga hostingu rozproszonego dla pełnej wydajności
GPT-5.2 (reprezentatywny zamknięty)~400K (raportowane dla niektórych wariantów)Wysoka dokładność rozumowania jednego gęstego modeluZamknięte wagi, wyższy koszt inferencji w skali
LLaMA‑style dense 70B~128K (różnie)Prostszystos inferencyjny, niższy VRAM dla gęstych runtime’ówMniejsza pojemność parametrów względem globalnej wiedzy MoE

Znane ograniczenia i kwestie operacyjne

  • Ślad pamięci: Rzadkie MoE nadal wymaga przechowywania dużych plików wag; hosting wymaga znaczącej pamięci masowej i pamięci urządzenia w porównaniu z gęstym odpowiednikiem 17B.
  • Złożoność inżynierska: Optymalna przepustowość wymaga starannego równoleglenia (tensor/pipeline) i frameworków takich jak vLLM lub SGLang; naiwny hosting na pojedynczym GPU jest niepraktyczny.
  • Ekonomia tokenów: Choć obliczenia per token są zredukowane, bardzo długie konteksty nadal zwiększają I/O, rozmiar pamięci podręcznej KV oraz rozliczenia u zarządzanych dostawców.
  • Bezpieczeństwo i mechanizmy ochronne: Otwarte wagi zwiększają elastyczność, ale przenoszą odpowiedzialność za filtrowanie bezpieczeństwa, monitorowanie i guardrails na operatora.

Przykładowe zastosowania

  1. Badania i analiza modelu: Otwarte wagi umożliwiają replikowalne badania i oceny społeczności.
  2. Lokalne usługi multimodalne: Przedsiębiorstwa wymagające rezydencji danych mogą wdrażać i uruchamiać obciążenia wizja+tekst lokalnie.
  3. RAG i potoki długich dokumentów: Natywne wsparcie długiego kontekstu pomaga w jednoprzebiegowym rozumowaniu nad dużymi korpusami.
  4. Inteligencja kodu i narzędzia agentowe: Analiza monorepozytoriów, generowanie poprawek i uruchamianie pętli wywołań narzędzi w kontrolowanych środowiskach.
  5. Aplikacje wielojęzyczne: Szerokie wsparcie językowe dla produktów globalnych.

Jak uzyskać dostęp i zintegrować Qwen3.5-397B-A17B

Krok 1: Zarejestruj się po klucz API

Zaloguj się na cometapi.com. Jeśli nie jesteś naszym użytkownikiem, najpierw się zarejestruj. Zaloguj się do swojego konsoli CometAPI. Uzyskaj klucz dostępu API. Kliknij „Add Token” przy tokenie API w centrum osobistym, pobierz klucz tokena: sk-xxxxx i prześlij.

Krok 2: Wysyłaj żądania do API Qwen3.5-397B-A17B

Wybierz endpoint “Qwen3.5-397B-A17B” do wysłania żądania API i ustaw body żądania. Metoda żądania i body żądania są dostępne w naszej dokumentacji API. Nasza strona zapewnia również test Apifox dla Twojej wygody. Zastąp <YOUR_API_KEY> swoim rzeczywistym kluczem CometAPI z konta. Gdzie wywoływać: format Chat.

Wstaw swoje pytanie lub prośbę do pola content — na to odpowie model. Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź.

Krok 3: Pobierz i zweryfikuj wyniki

Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź. Po przetworzeniu API zwróci status zadania i dane wyjściowe.

Najczęściej zadawane pytania

Is Qwen3.5-397B-A17B available as open weights for local hosting and research?

Yes. The Qwen3.5-397B-A17B weights are released under Apache-2.0 on Hugging Face and ModelScope, and the project provides serving recipes for Transformers, vLLM, and SGLang.

What does the "A17B" suffix mean in Qwen3.5-397B-A17B?

A17B indicates the model's sparse routing design uses roughly 17 billion active parameters per token (active experts), while the global model capacity is ~397 billion parameters.

What is the native context window and can I extend it for very long documents?

The model ships with a native input sequence length of 262,144 tokens and includes documented methods to extend context to ~1,010,000 tokens via YaRN/RoPE scaling, depending on serving framework.

Which input modalities does Qwen3.5-397B-A17B support?

It is a unified vision-language model trained with early-fusion; supported inputs include text, images, and video tokens for multimodal reasoning and generation.

How does inference efficiency compare to a 17B dense model?

Per-token inference compute is similar to 17B dense-class models thanks to sparse MoE routing, but model artifacts and memory requirements are larger because full weights must be stored and distributed across devices.

Funkcje dla qwen3.5-397b-a17b

Poznaj kluczowe funkcje qwen3.5-397b-a17b, zaprojektowane w celu zwiększenia wydajności i użyteczności. Odkryj, jak te możliwości mogą przynieść korzyści Twoim projektom i poprawić doświadczenie użytkownika.

Cennik dla qwen3.5-397b-a17b

Poznaj konkurencyjne ceny dla qwen3.5-397b-a17b, zaprojektowane tak, aby pasowały do różnych budżetów i potrzeb użytkowania. Nasze elastyczne plany zapewniają, że płacisz tylko za to, czego używasz, co ułatwia skalowanie w miarę wzrostu Twoich wymagań. Odkryj, jak qwen3.5-397b-a17b może ulepszyć Twoje projekty przy jednoczesnym utrzymaniu kosztów na rozsądnym poziomie.
Cena Comet (USD / M Tokens)Oficjalna cena (USD / M Tokens)Zniżka
Wejście:$0.48/M
Wyjście:$2.88/M
Wejście:$0.6/M
Wyjście:$3.6/M
-20%

Przykładowy kod i API dla qwen3.5-397b-a17b

Uzyskaj dostęp do kompleksowego przykładowego kodu i zasobów API dla qwen3.5-397b-a17b, aby usprawnić proces integracji. Nasza szczegółowa dokumentacja zapewnia wskazówki krok po kroku, pomagając wykorzystać pełny potencjał qwen3.5-397b-a17b w Twoich projektach.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3.5-397b-a17b",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Więcej modeli