Bagaimana Qwen3 Berfungsi?

CometAPI
AnnaJun 1, 2025
Bagaimana Qwen3 Berfungsi?

Qwen3 mewakili lonjakan yang ketara dalam model bahasa besar (LLM) sumber terbuka, menggabungkan keupayaan penaakulan yang canggih dengan kecekapan tinggi dan kebolehcapaian yang luas. Dibangunkan oleh pasukan penyelidikan dan pengkomputeran awan Alibaba, Qwen3 diletakkan untuk menyaingi sistem proprietari terkemuka seperti GPT-4x OpenAI dan PaLM Google, sambil kekal terbuka sepenuhnya di bawah lesen Apache 2.0. Artikel ini meneroka secara mendalam cara Qwen3 diilhamkan, mekanisme asasnya, rejimen latihan yang memalsukan keupayaannya, dan cara yang digunakan oleh pembangun di seluruh dunia untuk memanfaatkan kuasanya.


Apakah Qwen3 dan mengapa ia penting?

Model bahasa yang besar telah mengubah pemahaman dan penjanaan bahasa semula jadi, memperkasakan segala-galanya daripada ejen perbualan kepada pembantu kod. Qwen3 adalah yang terbaru dalam keluarga Qwen Alibaba, mengikuti Qwen2.5 dan variannya, dan merangkumi beberapa inovasi unggulan:

  • Penaakulan hibrid: Mengintegrasikan mod "berfikir" dan "tidak berfikir" dengan lancar ke dalam satu seni bina, membenarkan peruntukan dinamik sumber pengiraan berdasarkan kerumitan tugas .
  • Pilihan Campuran Pakar (KPM).: Menawarkan model yang mengaktifkan hanya subset modul pakar khusus bagi setiap pertanyaan, meningkatkan kecekapan tanpa mengorbankan prestasi.
  • Kepelbagaian skala: Berjulat daripada model padat 0.6 bilion parameter ringan kepada varian MoE jarang 235 bilion parameter yang besar, memenuhi senario penggunaan yang pelbagai.
  • Tetingkap konteks lanjutan: Kebanyakan varian yang lebih besar menyokong sehingga 128K konteks token, memudahkan dokumen bentuk panjang, pangkalan kod dan perbualan pelbagai mod .
  • Keluasan berbilang bahasa: Dilatih menggunakan 36 trilion token yang merangkumi 119 bahasa dan dialek, memperkasakan aplikasi yang benar-benar global .

Ciri-ciri ini meletakkan Qwen3 bukan sahaja sebagai prestasi terbaik pada penanda aras dalam penjanaan kod, penaakulan matematik dan tugas ejen tetapi juga sebagai penyelesaian yang fleksibel dan menjimatkan kos untuk penggunaan dunia sebenar.

Seni Bina Apakah Yang Qwen3 Gunakan?

Rangka kerja penaakulan bersatu

Ekosistem LLM tradisional sering mengasingkan model yang dioptimumkan sembang (cth, GPT-4o) dan model penaakulan khusus (cth, QwQ-32B). Qwen3 meruntuhkan bahagian ini dengan membenamkan kedua-dua inferens "tidak berfikir" dipacu konteks pantas dan proses "pemikiran" pelbagai langkah dalam model yang sama. Token mod atau bendera API mencetuskan sama ada lapisan perhatian yang ringan untuk tugasan mudah atau talian paip penaakulan berulang yang lebih mendalam untuk pertanyaan yang kompleks.

Varian Campuran Pakar (KPM).

Sesetengah model Qwen3 mengguna pakai struktur MoE, di mana rangkaian terdiri daripada ratusan submodul pakar, tetapi hanya subset kecil yang berkaitan dengan tugas diaktifkan pada masa jalan. Ini menghasilkan penjimatan pengiraan yang ketara—hanya pakar yang paling penting yang memproses setiap token—sambil mengekalkan ketepatan tercanggih pada penanda aras penaakulan .

Model Padat dan Campuran Pakar

Untuk mengimbangi kecekapan dan kapasiti, keluarga Qwen3 terdiri daripada enam model padat (parameter 0.6B, 1.7B, 4B, 8B, 14B dan 32B) bersama dua varian MoE (30B dengan parameter aktif 3B dan 235B dengan parameter aktif 22B). Model padat menawarkan inferens yang diperkemas untuk persekitaran yang dikekang sumber, manakala seni bina MoE memanfaatkan pengaktifan jarang untuk mengekalkan kapasiti tinggi tanpa peningkatan linear dalam kos pengiraan.

Seni bina Campuran Pakar (MoE) mengurangkan memori dan mengira beban model padat besar dengan mengaktifkan hanya sebahagian kecil daripada parameter rangkaian bagi setiap token. Qwen3 menawarkan dua varian yang jarang:

  • 30B-parameter KPM (3B parameter diaktifkan setiap token)
  • 235B-parameter KPM (22B parameter diaktifkan setiap token)

Keluarga yang jarang ini sepadan atau melebihi prestasi rakan padat yang setanding pada penanda aras sambil mengurangkan kos inferens—terutamanya kritikal untuk aplikasi masa nyata dan penggunaan berskala besar. Ujian dalaman Alibaba menunjukkan varian MoE mencapai masa penaakulan sehingga 60x lebih pantas pada perkakasan khusus seperti enjin skala wafer Cerebras .

Mod Berfikir dan Mod Tidak Berfikir

Inovasi yang menonjol dalam Qwen3 ialah reka bentuk dwi-modnya: mod berfikir untuk tugas penaakulan berbilang langkah yang rumit, dan mod tidak berfikir untuk respons pantas dan didorong konteks. Daripada mengekalkan model khusus yang berasingan, Qwen3 menyepadukan kedua-dua keupayaan di bawah seni bina bersatu. Ini didayakan oleh dinamik mekanisme belanjawan berfikir, yang memperuntukkan sumber pengiraan secara adaptif semasa inferens, membenarkan model secara fleksibel menukar kependaman dan kedalaman penaakulan berdasarkan kerumitan input.


Bagaimana Qwen3 Berfungsi?

Penukaran Mod Dinamik

Setelah menerima gesaan, Qwen3 menilai kerumitan penaakulan yang diperlukan terhadap ambang yang telah ditetapkan. Pertanyaan mudah mencetuskan mod tidak berfikir, menghasilkan respons dalam milisaat, manakala tugas multi-hop yang kompleks—seperti pembuktian matematik atau perancangan strategik—mengaktifkan mod pemikiran, memperuntukkan lapisan pengubah tambahan dan kepala perhatian mengikut keperluan. Pembangun juga boleh menyesuaikan pencetus suis mod melalui templat sembang atau parameter API, menyesuaikan pengalaman pengguna kepada aplikasi tertentu.

  • Mod tidak berfikir: Memperuntukkan lapisan minimum/panggilan pakar, mengoptimumkan kependaman dan daya pemprosesan.
  • Mod berfikir: Memanjangkan graf pengiraan secara dinamik, membolehkan penaakulan berbilang hop dan merantai sub-soalan secara dalaman.
  • Pensuisan penyesuaian: Model boleh beralih secara autonomi antara mod inferens pertengahan jika kerumitan pertanyaan memerlukan langkah penaakulan tambahan.

Kecekapan dan Kependaman Inferens

Dengan kerjasama rakan kongsi perkakasan seperti Cerebras Systems, Qwen3-32B mencapai prestasi penaakulan masa nyata. Penanda aras pada Platform Inferens Cerebras menunjukkan masa tindak balas sub-1.2 saat untuk tugas penaakulan yang kompleks, sehingga 60x lebih pantas daripada model yang setanding seperti DeepSeek R1 dan OpenAI o3-mini. Prestasi kependaman rendah ini membuka kunci ejen gred pengeluaran dan copilot dalam tetapan interaktif, daripada chatbot sokongan pelanggan kepada sistem sokongan keputusan masa nyata.


Penyerahan dan Kebolehcapaian

Keluaran dan Penyepaduan Sumber Terbuka

Pada 28 April 2025, Alibaba secara rasmi mengeluarkan Qwen3 di bawah lesen Apache 2.0, yang membolehkan akses tanpa had kepada pemberat, kod dan dokumentasi pada GitHub dan Hugging Face. Dalam beberapa minggu selepas pelancaran, keluarga Qwen3 boleh digunakan pada platform LLM utama seperti Ollama, LM Studio, SGLang dan vLLM, memperkemas inferens tempatan untuk pembangun dan perusahaan di seluruh dunia.

Format Fleksibel dan Sokongan Kuantiti

Untuk menampung senario penggunaan yang pelbagai—bermula daripada inferens pusat data pemprosesan tinggi kepada peranti kelebihan kuasa rendah—Qwen3 menyokong berbilang format berat, termasuk format bersatu janaan GPT, pengkuantitian sedar pengaktifan dan pengkuantitian pasca latihan am. Kajian awal mendedahkan bahawa pengkuantitian pasca latihan 4- hingga 8-bit mengekalkan prestasi kompetitif, walaupun ketepatan ultra-rendah (1-2 bit) memperkenalkan kemerosotan ketepatan yang ketara, menonjolkan kawasan untuk penyelidikan masa depan dalam pemampatan LLM yang cekap.


Prestasi dan Penandaarasan

Kedudukan Papan Pendahulu

Menurut papan pendahulu LiveBench pada 6 Mei 2025, model utama Qwen3-235B-A22B menduduki tempat sebagai LLM sumber terbuka teratas, memperoleh tempat ke-7 keseluruhan dalam kalangan model terbuka dan tertutup, dan mencapai skor tertinggi dalam tugasan mengikut arahan. Pencapaian ini menggariskan pariti kompetitif Qwen3 dengan rakan proprietari seperti GPT-4 dan DeepSeek R1.

Penilaian Perbandingan

Penilaian bebas oleh TechCrunch dan VentureBeat menyerlahkan prestasi unggul Qwen3 dalam pengekodan dan penanda aras matematik. Jika dibandingkan dengan penyelesaian terkemuka seperti DeepSeek R1, o1 OpenAI dan Gemini 2.5-Pro ​​Google, Qwen3-235B-A22B menunjukkan hasil yang setanding atau dipertingkatkan merentas spektrum tugasan, daripada sintesis algoritma kepada penjanaan bukti rasmi.

qwen3


Varian Khusus: Qwen3-Math dan QwenLong-L1

Qwen3-Math

Qwen3-Math ialah varian khusus yang direka untuk tugasan penaakulan matematik. Ia memberikan sokongan kepada kedua-dua Chain-of-Thought (CoT) dan Tool-Integrated Reasoning (TIR) ​​untuk menyelesaikan masalah matematik dalam bahasa Cina dan Inggeris. TIR meningkatkan keupayaan model untuk melakukan pengiraan yang tepat, manipulasi simbolik dan proses algoritma, menangani cabaran dalam tugas yang memerlukan ketepatan pengiraan yang tinggi .

QwenLong-L1

QwenLong-L1 ialah rangka kerja yang menyesuaikan model penaakulan besar konteks pendek kepada senario konteks panjang melalui penskalaan konteks progresif. Ia menggunakan peringkat penyelarasan pemanasan badan untuk mewujudkan dasar permulaan yang mantap, diikuti dengan teknik pembelajaran tetulang berperingkat berpandukan kurikulum untuk menstabilkan evolusi dasar. Pendekatan ini membolehkan penaakulan yang mantap merentas persekitaran intensif maklumat .

Cabaran dan Hala Tuju Masa Depan

Halusinasi dan Kekukuhan

Walaupun metrik kuantitatif yang kukuh, Qwen3 mempamerkan "halusinasi" sekali-sekala dalam senario fakta atau samar-samar kontekstual. Penyelidikan yang sedang berjalan memfokuskan pada memperhalusi mekanisme penjanaan dan pembumian yang dipertingkatkan untuk meningkatkan ketepatan fakta, kerana analisis awal menunjukkan pengurangan 15–20% dalam kadar halusinasi apabila menyepadukan pangkalan pengetahuan luaran.

Kuantiti dan Penggunaan Tepi

Walaupun pengkuantitian sederhana mengekalkan keupayaan teras Qwen3, pemampatan melampau kekal sebagai cabaran. Kemajuan selanjutnya dalam latihan ketepatan campuran, algoritma pengkuantitian sedar perkakasan, dan seni bina pengubah yang cekap adalah penting untuk mendemokrasikan AI yang canggih pada peranti terhalang seperti telefon pintar, penderia IoT dan sistem terbenam.


Kesimpulan

Pembangunan Qwen3 mencerminkan anjakan paradigma ke arah seni bina LLM yang bersatu dan boleh disesuaikan secara dinamik yang merapatkan kelancaran perbualan dengan penaakulan yang mendalam. Dengan sumber terbuka pemberatnya dan menawarkan pilihan penggunaan serba boleh—daripada inferens awan kepada pecutan pada peranti—pasukan Qwen Alibaba telah mendorong kerjasama global dan inovasi dalam AI. Semasa komuniti penyelidikan menangani cabaran yang tinggal dalam keteguhan model, pengkuantitian dan penyepaduan pelbagai mod, Qwen3 bersedia sebagai platform asas untuk sistem pintar generasi akan datang merentas industri.

Bermula

CometAPI menyediakan antara muka REST bersatu yang mengagregatkan ratusan model AI—termasuk keluarga ChatGPT—di bawah titik akhir yang konsisten, dengan pengurusan kunci API terbina dalam, kuota penggunaan dan papan pemuka pengebilan. Daripada menyulap berbilang URL vendor dan bukti kelayakan.

Pembangun boleh mengakses Qwen 3 API melalui CometAPI.Untuk bermula, terokai keupayaan model di Taman Permainan dan rujuk Panduan API untuk arahan terperinci. Sebelum mengakses, sila pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API.

Baca Lagi

500+ Model dalam Satu API

Sehingga 20% Diskaun