Qwen3: Apakah itu & Cara Penggunaan

CometAPI
AnnaApr 29, 2025
Qwen3: Apakah itu & Cara Penggunaan

Pada April 2025, Alibaba Cloud melancarkan Qwen3, versi terkini dalam model bahasa besar (LLMs) siri Qwen. Sebagai kemajuan ketara dalam bidang kecerdasan buatan, Qwen3 menunjukkan keupayaan cemerlang dalam pemahaman bahasa, penaakulan, pemprosesan pelbagai mod dan kecekapan pengiraan. Model ini menyokong 119 bahasa, dilatih pada set data sebanyak 36 trilion token, dan menawarkan pelbagai saiz model antara 0.6 bilion hingga 235 bilion parameter. Artikel ini menyediakan penerokaan mendalam tentang definisi, ciri, kaedah penggunaan, pendekatan akses, perbandingan dengan model lain dan potensi impak Qwen3 pada domain AI, bertujuan untuk menjadi rujukan komprehensif untuk pembangun, penyelidik dan perusahaan.

Apakah Qwen3?

Qwen3 ialah satu siri model bahasa besar yang direka untuk memahami dan menjana teks seperti manusia, sesuai untuk pelbagai senario daripada perbualan harian kepada tugas penaakulan yang kompleks. Ia merupakan generasi ketiga dalam siri Qwen yang dibangunkan oleh Alibaba Cloud, berikutan keluaran Qwen pada 2023 dan Qwen2 pada 2024, yang memperkenalkan peningkatan dalam prestasi dan fungsi.

Sejarah Ringkas Siri Qwen

Siri Qwen bermula pada April 2023 dengan keluaran model Qwen, pada mulanya dinamakan “Tongyi Qianwen,” berdasarkan seni bina Llama Meta AI. Selepas menerima kelulusan daripada kerajaan China pada September 2023, Qwen telah dikeluarkan secara rasmi kepada umum. Pada Disember 2023, model Qwen 72B dan 1.8B telah dijadikan sumber terbuka, diikuti dengan pelancaran Qwen2 pada Jun 2024, yang mengguna pakai seni bina Campuran Pakar (MoE). Qwen3, yang diperkenalkan pada April 2025, menggabungkan keupayaan penaakulan hibrid dan fungsi pelbagai mod, menjadikannya versi paling maju dalam siri ini.

Ciri-ciri Qwen3

Qwen3 menawarkan pelbagai ciri inovatif yang membezakannya dalam landskap model AI global:

Sokongan berbilang bahasa

Qwen3 menyokong 119 bahasa, meliputi sistem bahasa global utama. Ini menjadikannya pilihan yang ideal untuk aplikasi silang budaya dan berbilang bahasa, seperti sokongan pelanggan antarabangsa dan penjanaan kandungan berbilang bahasa.

Data Latihan Berskala Besar

Set data latihan Qwen3 terdiri daripada hampir 36 trilion token, bersamaan dengan kira-kira 270 bilion perkataan. Ia termasuk pelbagai kandungan, seperti buku teks, pasangan soal jawab, coretan kod dan kandungan yang dijana AI, terutamanya dalam bahasa Cina dan Inggeris. Skala ini memastikan prestasi cemerlang dalam pemahaman dan penjanaan bahasa.

Pelbagai Saiz Model

Qwen3 menawarkan pelbagai saiz model antara 0.6 bilion hingga 235 bilion parameter:

  • Model Kecil (0.6B, 1.7B): Sesuai untuk aplikasi ringan, mampu berjalan pada peranti seperti telefon pintar.
  • Model Sederhana (4B, 8B, 14B, 32B): Seimbangkan prestasi dengan keperluan sumber, terpakai kepada kebanyakan senario pembangunan.
  • Model Besar (235B): Menyediakan prestasi peringkat atasan untuk tugasan peringkat perusahaan.
Nama ModelSaiz ParameterTetingkap Konteks (token)Senario Berkenaan
Qwen3-0.6B0.6 bilion32,768Peranti mudah alih, aplikasi ringan
Qwen3-1.7B1.7 bilion32,768Sistem terbenam, penaakulan pantas
Qwen3-4B4 bilion131,072Projek kecil hingga sederhana, penyelidikan
Qwen3-8B8 bilion131,072Aplikasi umum, pembangunan
Qwen3-32B32 bilion131,072Tugas berprestasi tinggi, aplikasi perusahaan
Qwen3-235B-A22B235 bilion131,072Prestasi peringkat teratas, penaakulan kompleks (tidak tersedia secara umum)

Keupayaan Penaakulan Hibrid

Qwen3 memperkenalkan ciri "penaakulan hibrid" yang membolehkan model membuat alasan langkah demi langkah sebelum memberikan jawapan kepada soalan yang kompleks. Keupayaan ini amat menonjol dalam penaakulan logik, masalah matematik, dan tugas pengaturcaraan. Pengguna boleh mendayakan atau melumpuhkan mod ini melalui tetapan (cth, enable_thinking=True).

Model Campuran Pakar (KPM).

Qwen3 termasuk model Campuran Pakar, seperti Qwen3-30B-A3B (30 bilion parameter, 3 bilion aktif) dan Qwen3-235B-A22B (235 bilion parameter, 22 bilion aktif). Model ini mempercepatkan inferens dengan mengaktifkan hanya subset parameter sambil mengekalkan prestasi tinggi, menjadikannya sangat sesuai untuk penggunaan berskala besar.

Had Token Dikembangkan

Sesetengah model Qwen3 menyokong tetingkap konteks sehingga 131,072 token (model 4B dan ke atas), peningkatan yang ketara daripada 2 token Qwen32,768. Peningkatan ini membolehkan model mengendalikan dialog yang lebih panjang dan tugas penjanaan teks yang lebih kompleks.

Qwen3

Qwen 3 Penanda Aras

Model ini menunjukkan kecekapan dalam penjanaan kod, penyahpepijatan dan penyelesaian masalah matematik, menjadikannya alat yang berharga untuk pembangunan perisian dan analisis data.

Qwen3: Apakah itu & Cara Penggunaan

Cara Menggunakan Qwen3

Aplikasi

Kepelbagaian Qwen3 menjadikannya sesuai untuk pelbagai senario:

  • Chatbots dan Pembantu Maya: Sediakan respons semula jadi dan sedar konteks untuk sokongan pelanggan dan aplikasi pembantu peribadi.
  • Penjanaan Kandungan: Hasilkan artikel, cerita, kod dan kandungan kreatif atau teknikal yang lain.
  • Analisis data: Membantu dalam mentafsir dan meringkaskan set data yang besar untuk penyelidikan dan risikan perniagaan.
  • Alat Pendidikan: Bantu pelajar dengan kerja rumah, penerangan dan pengalaman pembelajaran yang diperibadikan.
  • Kajian saintifik: Sokong kajian literatur, penjanaan hipotesis dan penyelesaian masalah saintifik.

Penyepaduan Projek

Pembangun boleh menyepadukan Qwen3 ke dalam projek mereka menggunakan rangka kerja dan alatan berikut:

  • Transformer: Memerlukan transformers>=4.51.0. Contoh coretan kod:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Pengguna boleh mendayakan mod penaakulan dengan enable_thinking=True atau mengawalnya menggunakan /think and /nothink.

  • llama.cpp: Memerlukan llama.cpp>=b5092. Contoh baris arahan:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Ollama: Memerlukan Ollama v0.6.6 atau lebih tinggi. Jalankan arahan:
  ollama run qwen3:8b

Menyokong parameter seperti num_ctx 40960 and num_predict 32768.

  • Pilihan Penggunaan:
  • SGLang: Memerlukan sglang>=0.4.6.post1. Perintah pelancaran: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: Memerlukan vllm>=0.8.5. Perintah berkhidmat: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: Menyokong Ascend NPU; lawati Pemodel untuk mendapatkan butiran.

Penggunaan Alat

Qwen-Agent menyokong interaksi Qwen3 dengan alat luaran dan API, sesuai untuk tugas yang memerlukan akses data dinamik. Ciri ini turut disokong oleh SGLang, vLLM, Transformers, llama.cpp dan Ollama.

Penalaan halus

Qwen3 boleh diperhalusi menggunakan rangka kerja seperti Axolotl, UnSloth, Swift dan Llama-Factory, teknik sokongan seperti Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) dan Group Robust Preference Optimization (GRPO).

Kesimpulan

Qwen3 mewakili satu kejayaan dalam bidang model bahasa yang besar, menawarkan fungsi yang dipertingkatkan, serba boleh dan kebolehaksesan. Dengan sokongan berbilang bahasa, penaakulan hibrid dan versi khusus untuk tugas penglihatan, matematik dan audio, Qwen3 meletakkan dirinya sebagai pemain utama dalam bidang AI. Prestasi kompetitifnya dalam penanda aras seperti Codeforces, AIME, dan BFCL, bersama-sama dengan ketersediaan sumber terbuka, menjadikannya pilihan yang ideal untuk pembangun, penyelidik dan perusahaan. Seiring kemajuan teknologi AI, Qwen3 menandakan satu langkah penting ke arah mencipta sistem pintar yang mampu memahami, menaakul dan berinteraksi dengan dunia dengan cara yang semakin canggih.

Bermula

Pembangun boleh mengakses Qwen 3 API melalui CometAPI. Untuk bermula, terokai keupayaan model di Taman Permainan dan rujuk Panduan API untuk arahan terperinci. Harap maklum bahawa sesetengah pembangun mungkin perlu mengesahkan organisasi mereka sebelum menggunakan model tersebut.

Baca Lagi

500+ Model dalam Satu API

Sehingga 20% Diskaun