Pada April 2025, Alibaba Cloud melancarkan Qwen3, versi terkini dalam model bahasa besar (LLMs) siri Qwen. Sebagai kemajuan ketara dalam bidang kecerdasan buatan, Qwen3 menunjukkan keupayaan cemerlang dalam pemahaman bahasa, penaakulan, pemprosesan pelbagai mod dan kecekapan pengiraan. Model ini menyokong 119 bahasa, dilatih pada set data sebanyak 36 trilion token, dan menawarkan pelbagai saiz model antara 0.6 bilion hingga 235 bilion parameter. Artikel ini menyediakan penerokaan mendalam tentang definisi, ciri, kaedah penggunaan, pendekatan akses, perbandingan dengan model lain dan potensi impak Qwen3 pada domain AI, bertujuan untuk menjadi rujukan komprehensif untuk pembangun, penyelidik dan perusahaan.
Apakah Qwen3?
Qwen3 ialah satu siri model bahasa besar yang direka untuk memahami dan menjana teks seperti manusia, sesuai untuk pelbagai senario daripada perbualan harian kepada tugas penaakulan yang kompleks. Ia merupakan generasi ketiga dalam siri Qwen yang dibangunkan oleh Alibaba Cloud, berikutan keluaran Qwen pada 2023 dan Qwen2 pada 2024, yang memperkenalkan peningkatan dalam prestasi dan fungsi.
Sejarah Ringkas Siri Qwen
Siri Qwen bermula pada April 2023 dengan keluaran model Qwen, pada mulanya dinamakan “Tongyi Qianwen,” berdasarkan seni bina Llama Meta AI. Selepas menerima kelulusan daripada kerajaan China pada September 2023, Qwen telah dikeluarkan secara rasmi kepada umum. Pada Disember 2023, model Qwen 72B dan 1.8B telah dijadikan sumber terbuka, diikuti dengan pelancaran Qwen2 pada Jun 2024, yang mengguna pakai seni bina Campuran Pakar (MoE). Qwen3, yang diperkenalkan pada April 2025, menggabungkan keupayaan penaakulan hibrid dan fungsi pelbagai mod, menjadikannya versi paling maju dalam siri ini.
Ciri-ciri Qwen3
Qwen3 menawarkan pelbagai ciri inovatif yang membezakannya dalam landskap model AI global:
Sokongan berbilang bahasa
Qwen3 menyokong 119 bahasa, meliputi sistem bahasa global utama. Ini menjadikannya pilihan yang ideal untuk aplikasi silang budaya dan berbilang bahasa, seperti sokongan pelanggan antarabangsa dan penjanaan kandungan berbilang bahasa.
Data Latihan Berskala Besar
Set data latihan Qwen3 terdiri daripada hampir 36 trilion token, bersamaan dengan kira-kira 270 bilion perkataan. Ia termasuk pelbagai kandungan, seperti buku teks, pasangan soal jawab, coretan kod dan kandungan yang dijana AI, terutamanya dalam bahasa Cina dan Inggeris. Skala ini memastikan prestasi cemerlang dalam pemahaman dan penjanaan bahasa.
Pelbagai Saiz Model
Qwen3 menawarkan pelbagai saiz model antara 0.6 bilion hingga 235 bilion parameter:
- Model Kecil (0.6B, 1.7B): Sesuai untuk aplikasi ringan, mampu berjalan pada peranti seperti telefon pintar.
- Model Sederhana (4B, 8B, 14B, 32B): Seimbangkan prestasi dengan keperluan sumber, terpakai kepada kebanyakan senario pembangunan.
- Model Besar (235B): Menyediakan prestasi peringkat atasan untuk tugasan peringkat perusahaan.
| Nama Model | Saiz Parameter | Tetingkap Konteks (token) | Senario Berkenaan |
|---|---|---|---|
| Qwen3-0.6B | 0.6 bilion | 32,768 | Peranti mudah alih, aplikasi ringan |
| Qwen3-1.7B | 1.7 bilion | 32,768 | Sistem terbenam, penaakulan pantas |
| Qwen3-4B | 4 bilion | 131,072 | Projek kecil hingga sederhana, penyelidikan |
| Qwen3-8B | 8 bilion | 131,072 | Aplikasi umum, pembangunan |
| Qwen3-32B | 32 bilion | 131,072 | Tugas berprestasi tinggi, aplikasi perusahaan |
| Qwen3-235B-A22B | 235 bilion | 131,072 | Prestasi peringkat teratas, penaakulan kompleks (tidak tersedia secara umum) |
Keupayaan Penaakulan Hibrid
Qwen3 memperkenalkan ciri "penaakulan hibrid" yang membolehkan model membuat alasan langkah demi langkah sebelum memberikan jawapan kepada soalan yang kompleks. Keupayaan ini amat menonjol dalam penaakulan logik, masalah matematik, dan tugas pengaturcaraan. Pengguna boleh mendayakan atau melumpuhkan mod ini melalui tetapan (cth, enable_thinking=True).
Model Campuran Pakar (KPM).
Qwen3 termasuk model Campuran Pakar, seperti Qwen3-30B-A3B (30 bilion parameter, 3 bilion aktif) dan Qwen3-235B-A22B (235 bilion parameter, 22 bilion aktif). Model ini mempercepatkan inferens dengan mengaktifkan hanya subset parameter sambil mengekalkan prestasi tinggi, menjadikannya sangat sesuai untuk penggunaan berskala besar.
Had Token Dikembangkan
Sesetengah model Qwen3 menyokong tetingkap konteks sehingga 131,072 token (model 4B dan ke atas), peningkatan yang ketara daripada 2 token Qwen32,768. Peningkatan ini membolehkan model mengendalikan dialog yang lebih panjang dan tugas penjanaan teks yang lebih kompleks.

Qwen 3 Penanda Aras
Model ini menunjukkan kecekapan dalam penjanaan kod, penyahpepijatan dan penyelesaian masalah matematik, menjadikannya alat yang berharga untuk pembangunan perisian dan analisis data.

Cara Menggunakan Qwen3
Aplikasi
Kepelbagaian Qwen3 menjadikannya sesuai untuk pelbagai senario:
- Chatbots dan Pembantu Maya: Sediakan respons semula jadi dan sedar konteks untuk sokongan pelanggan dan aplikasi pembantu peribadi.
- Penjanaan Kandungan: Hasilkan artikel, cerita, kod dan kandungan kreatif atau teknikal yang lain.
- Analisis data: Membantu dalam mentafsir dan meringkaskan set data yang besar untuk penyelidikan dan risikan perniagaan.
- Alat Pendidikan: Bantu pelajar dengan kerja rumah, penerangan dan pengalaman pembelajaran yang diperibadikan.
- Kajian saintifik: Sokong kajian literatur, penjanaan hipotesis dan penyelesaian masalah saintifik.
Penyepaduan Projek
Pembangun boleh menyepadukan Qwen3 ke dalam projek mereka menggunakan rangka kerja dan alatan berikut:
- Transformer: Memerlukan
transformers>=4.51.0. Contoh coretan kod:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
outputs = model.generate(**inputs, enable_thinking=True)
print(tokenizer.decode(outputs))
Pengguna boleh mendayakan mod penaakulan dengan enable_thinking=True atau mengawalnya menggunakan /think and /nothink.
- llama.cpp: Memerlukan
llama.cpp>=b5092. Contoh baris arahan:
./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
- Ollama: Memerlukan
Ollama v0.6.6atau lebih tinggi. Jalankan arahan:
ollama run qwen3:8b
Menyokong parameter seperti num_ctx 40960 and num_predict 32768.
- Pilihan Penggunaan:
- SGLang: Memerlukan
sglang>=0.4.6.post1. Perintah pelancaran:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 - vLLM: Memerlukan
vllm>=0.8.5. Perintah berkhidmat:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1 - MindIE: Menyokong Ascend NPU; lawati Pemodel untuk mendapatkan butiran.
Penggunaan Alat
Qwen-Agent menyokong interaksi Qwen3 dengan alat luaran dan API, sesuai untuk tugas yang memerlukan akses data dinamik. Ciri ini turut disokong oleh SGLang, vLLM, Transformers, llama.cpp dan Ollama.
Penalaan halus
Qwen3 boleh diperhalusi menggunakan rangka kerja seperti Axolotl, UnSloth, Swift dan Llama-Factory, teknik sokongan seperti Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) dan Group Robust Preference Optimization (GRPO).
Kesimpulan
Qwen3 mewakili satu kejayaan dalam bidang model bahasa yang besar, menawarkan fungsi yang dipertingkatkan, serba boleh dan kebolehaksesan. Dengan sokongan berbilang bahasa, penaakulan hibrid dan versi khusus untuk tugas penglihatan, matematik dan audio, Qwen3 meletakkan dirinya sebagai pemain utama dalam bidang AI. Prestasi kompetitifnya dalam penanda aras seperti Codeforces, AIME, dan BFCL, bersama-sama dengan ketersediaan sumber terbuka, menjadikannya pilihan yang ideal untuk pembangun, penyelidik dan perusahaan. Seiring kemajuan teknologi AI, Qwen3 menandakan satu langkah penting ke arah mencipta sistem pintar yang mampu memahami, menaakul dan berinteraksi dengan dunia dengan cara yang semakin canggih.
Bermula
Pembangun boleh mengakses Qwen 3 API melalui CometAPI. Untuk bermula, terokai keupayaan model di Taman Permainan dan rujuk Panduan API untuk arahan terperinci. Harap maklum bahawa sesetengah pembangun mungkin perlu mengesahkan organisasi mereka sebelum menggunakan model tersebut.
