Home/Models/Aliyun/qwen3.5-397b-a17b
Q

qwen3.5-397b-a17b

Masukan:$0.48/M
Keluaran:$2.88/M
Model penglihatan-bahasa asli siri Qwen3.5 397B-A17B dibina berasaskan seni bina hibrid yang mengintegrasikan mekanisme perhatian linear dengan model campuran pakar jarang, sekaligus mencapai kecekapan inferens yang lebih tinggi.
Baru
Penggunaan komersial
Playground
Gambaran Keseluruhan
Ciri-ciri
Harga
API

Spesifikasi teknikal Qwen3.5-397B-A17B

PerkaraQwen3.5-397B-A17B (berat terbuka pasca-latihan)
Keluarga modelQwen3.5 (siri Tongyi Qwen, Alibaba)
Seni binaCampuran Pakar Hibrid (MoE) + Gated DeltaNet; latihan multimodal penggabungan awal
Jumlah parameter~397 bilion (jumlah)
Parameter aktif (A17B)~17 bilion aktif setiap token (perutean jarang)
Jenis inputTeks, Imej, Video (penggabungan awal multimodal)
Jenis outputTeks (sembang, kod, output RAG), imej-ke-teks, respons multimodal
Tetingkap konteks natif262,144 token (ISL natif)
Konteks boleh diperluasSehingga ~1,010,000 token melalui penskalaan YaRN/ RoPE (bergantung pada platform)
Maksimum token outputBergantung pada rangka kerja/perkhidmatan (contoh menunjukkan 81,920–131,072 dalam panduan)
Bahasa200+ bahasa dan dialek
Tarikh keluaran16 Februari 2026 (keluaran berat terbuka)
LesenApache‑2.0 (berat terbuka di Hugging Face / ModelScope)

Apakah Qwen3.5-397B-A17B

Qwen3.5-397B-A17B ialah keluaran berat terbuka pertama dalam keluarga Qwen3.5 milik Alibaba: model asas campuran pakar multimodal berskala besar yang dilatih dengan objektif penglihatan–bahasa penggabungan awal dan dioptimumkan untuk aliran kerja berorientasikan agen. Model ini mendedahkan kapasiti penuh seni bina 397B parameter sambil menggunakan perutean jarang (akhiran “A17B”) supaya hanya ~17B parameter aktif bagi setiap token—memberikan keseimbangan antara kapasiti pengetahuan dan kecekapan inferens.

Keluaran ini ditujukan kepada penyelidik dan pasukan kejuruteraan yang memerlukan model asas multimodal yang terbuka dan boleh ditempatkan, mampu melakukan penaakulan konteks panjang, pemahaman visual, serta aplikasi berpengambilan dipertingkat/berorientasikan agen.


Ciri utama Qwen3.5-397B-A17B

  • MoE jarang dengan kecekapan parameter aktif: Kapasiti global besar (397B) dengan aktiviti setiap token yang setanding dengan model tumpat 17B, mengurangkan FLOPS per token sambil mengekalkan kepelbagaian pengetahuan.
  • Multimodal natif (penggabungan awal): Dilatih untuk mengendalikan teks, imej dan video melalui strategi tokenisasi dan pengekod bersatu bagi penaakulan rentas modal.
  • Sokongan konteks sangat panjang: Panjang urutan input natif sebanyak 262K token dan laluan terdokumen untuk diperluas sehingga ~1M+ token menggunakan penskalaan RoPE/YARN bagi pengambilan semula dan pipeline dokumen panjang.
  • Mod pemikiran & peralatan agen: Menyokong jejak penaakulan dalaman dan corak pelaksanaan beragen; contoh termasuk mengaktifkan panggilan alat dan integrasi penafsir kod.
  • Berat terbuka & keserasian luas: Dikeluarkan di bawah Apache‑2.0 di Hugging Face dan ModelScope, dengan panduan integrasi pihak pertama untuk Transformers, vLLM, SGLang dan rangka kerja komuniti.
  • Liputan bahasa mesra perusahaan: Latihan berbilang bahasa yang meluas (200+ bahasa), serta arahan dan resipi untuk penempatan pada skala.

Qwen3.5-397B-A17B vs Model terpilih

ModelTetingkap konteks (natif)KekuatanKompromi tipikal
Qwen3.5-397B-A17B262K (natif)MoE multimodal, berat terbuka, kapasiti 397B dengan 17B aktifArtifak model besar, memerlukan penempatan teragih untuk prestasi penuh
GPT-5.2 (contoh tertutup)~400K (dilaporkan bagi sesetengah varian)Ketepatan penaakulan tinggi bagi model tumpat tunggalBerat tertutup, kos inferens lebih tinggi pada skala
LLaMA‑style dense 70B~128K (berubah-ubah)Tindanan inferens lebih ringkas, VRAM lebih rendah untuk masa jalan tumpatKapasiti parameter lebih kecil berbanding pengetahuan global MoE

Had yang diketahui & pertimbangan operasi

  • Jejak memori: MoE jarang masih memerlukan penyimpanan fail berat yang besar; penempatan memerlukan storan dan memori peranti yang signifikan berbanding klon tumpat 17B.
  • Kekompleksan kejuruteraan: Throughput optimum memerlukan paralelisme yang teliti (tensor/pipeline) dan rangka kerja seperti vLLM atau SGLang; hos GPU tunggal secara naif adalah tidak praktikal.
  • Ekonomi token: Walaupun komputasi setiap token dikurangkan, konteks yang sangat panjang tetap meningkatkan I/O, saiz cache KV, dan bil untuk penyedia terurus.
  • Keselamatan & penghad: Berat terbuka meningkatkan fleksibiliti tetapi mengalihkan tanggungjawab penapisan keselamatan, pemantauan, dan penghad penempatan kepada operator.

Kes penggunaan representatif

  1. Penyelidikan & analisis model: Berat terbuka membolehkan penyelidikan boleh diulang dan penilaian yang didorong komuniti.
  2. Perkhidmatan multimodal di premis: Perusahaan yang memerlukan kediaman data boleh melaksanakan dan menjalankan beban kerja visi+teks secara setempat.
  3. RAG dan rangkaian dokumen panjang: Sokongan konteks natif panjang membantu penaakulan laluan tunggal ke atas korpus besar.
  4. Kecerdasan kod & peralatan agen: Menganalisis monorepo, menjana tampalan, dan menjalankan gelung panggilan alat beragen dalam persekitaran terkawal.
  5. Aplikasi berbilang bahasa: Sokongan bahasa liputan tinggi untuk produk global.

Cara mengakses dan mengintegrasi Qwen3.5-397B-A17B

Langkah 1: Daftar untuk Kunci API

Log masuk ke cometapi.com. Jika anda belum menjadi pengguna kami, sila daftar terlebih dahulu. Masuk ke konsol CometAPI. Dapatkan kunci API kelayakan akses untuk antara muka. Klik “Add Token” pada token API di pusat peribadi, dapatkan kunci token: sk-xxxxx dan hantar.

Langkah 2: Hantar Permintaan ke API Qwen3.5-397B-A17B

Pilih titik akhir “Qwen3.5-397B-A17B” untuk menghantar permintaan API dan tetapkan badan permintaan. Kaedah permintaan dan badan permintaan diperoleh daripada dokumen API di laman web kami. Laman web kami juga menyediakan ujian Apifox untuk kemudahan anda. Gantikan <YOUR_API_KEY> dengan kunci CometAPI sebenar daripada akaun anda. Tempat untuk memanggilnya: Chat format.

Masukkan soalan atau permintaan anda ke dalam medan kandungan—ini ialah apa yang akan dijawab oleh model. Proses respons API untuk mendapatkan jawapan yang dihasilkan.

Langkah 3: Dapatkan dan Sahkan Keputusan

Proses respons API untuk mendapatkan jawapan yang dihasilkan. Selepas pemprosesan, API akan membalas dengan status tugas dan data output.

Soalan Lazim

Is Qwen3.5-397B-A17B available as open weights for local hosting and research?

Yes. The Qwen3.5-397B-A17B weights are released under Apache-2.0 on Hugging Face and ModelScope, and the project provides serving recipes for Transformers, vLLM, and SGLang.

What does the "A17B" suffix mean in Qwen3.5-397B-A17B?

A17B indicates the model's sparse routing design uses roughly 17 billion active parameters per token (active experts), while the global model capacity is ~397 billion parameters.

What is the native context window and can I extend it for very long documents?

The model ships with a native input sequence length of 262,144 tokens and includes documented methods to extend context to ~1,010,000 tokens via YaRN/RoPE scaling, depending on serving framework.

Which input modalities does Qwen3.5-397B-A17B support?

It is a unified vision-language model trained with early-fusion; supported inputs include text, images, and video tokens for multimodal reasoning and generation.

How does inference efficiency compare to a 17B dense model?

Per-token inference compute is similar to 17B dense-class models thanks to sparse MoE routing, but model artifacts and memory requirements are larger because full weights must be stored and distributed across devices.

Ciri-ciri untuk qwen3.5-397b-a17b

Terokai ciri-ciri utama qwen3.5-397b-a17b, yang direka untuk meningkatkan prestasi dan kebolehgunaan. Temui bagaimana keupayaan ini boleh memberi manfaat kepada projek anda dan meningkatkan pengalaman pengguna.

Harga untuk qwen3.5-397b-a17b

Terokai harga yang kompetitif untuk qwen3.5-397b-a17b, direka bentuk untuk memenuhi pelbagai bajet dan keperluan penggunaan. Pelan fleksibel kami memastikan anda hanya membayar untuk apa yang anda gunakan, menjadikannya mudah untuk meningkatkan skala apabila keperluan anda berkembang. Temui bagaimana qwen3.5-397b-a17b boleh meningkatkan projek anda sambil mengekalkan kos yang terurus.
Harga Comet (USD / M Tokens)Harga Rasmi (USD / M Tokens)Diskaun
Masukan:$0.48/M
Keluaran:$2.88/M
Masukan:$0.6/M
Keluaran:$3.6/M
-20%

Kod contoh dan API untuk qwen3.5-397b-a17b

Akses kod sampel yang komprehensif dan sumber API untuk qwen3.5-397b-a17b bagi memperlancar proses integrasi anda. Dokumentasi terperinci kami menyediakan panduan langkah demi langkah, membantu anda memanfaatkan potensi penuh qwen3.5-397b-a17b dalam projek anda.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3.5-397b-a17b",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Lebih Banyak Model