Apabila kecerdasan buatan terus berkembang, Qwen 2.5 Alibaba muncul sebagai pesaing yang hebat dalam bidang model bahasa besar (LLM). Dikeluarkan pada awal 2025, Qwen 2.5 menawarkan peningkatan ketara berbanding pendahulunya, menawarkan set ciri yang memenuhi pelbagai aplikasi—daripada pembangunan perisian dan penyelesaian masalah matematik kepada penjanaan kandungan berbilang bahasa dan seterusnya.
Artikel ini menyelidiki selok-belok Qwen 2.5, memberikan gambaran keseluruhan terperinci tentang seni bina, keupayaan dan aplikasi praktikalnya. Sama ada anda seorang pembangun, penyelidik atau profesional perniagaan, memahami cara memanfaatkan Qwen 2.5 boleh membuka kunci kemungkinan baharu dalam kerja anda.
Apakah Qwen 2.5?
Qwen 2.5 ialah keluarga model bahasa besar generasi 2025 Alibaba Cloud yang merangkumi 1.5 B hingga 72 B parameter (dan adik beradik yang dioptimumkan penaakulan 32 B) dan kini menguasai produk komersial, penyelidikan dan pengguna seperti Qwen Chat, DashScope dan gerbang API yang serasi dengan OpenAI. Berbanding dengan Qwen 2, baris 2.5 memperkenalkan (i) teras Campuran Pakar (KPM) untuk kecekapan, (ii) latihan tentang ~20 token T, (iii) mengikut arahan yang lebih kuat, pengekodan dan penaakulan berbilang bahasa, (iv) bahasa penglihatan (VL) dan penggunaan pelbagai mod Alibaba (VL) dan pilihan berbilang mod Alibaba sepenuhnya (Omniv) kepada pengehosan sendiri melalui GitHub, Hugging Face, ModelScope dan Docker/OLLAMA.
Semua saiz berkongsi persamaan resipi pra-latihan tetapi menyimpang dalam mereka arahan-finetune lapisan: Qwen‑Chat (untuk dialog terbuka) dan Qwen‑Base (untuk penalaan halus hiliran). Pusat pemeriksaan yang lebih besar juga termasuk Qwen 2.5‑Maks, edisi Mixture-of-Experts (MoE) yang jarang yang mengaktifkan 2.7 B parameter setiap token untuk kos inferens yang jauh lebih rendah pada GPU.
Sorotan seni bina Qwen 2.5
Peralihan seni bina
Qwen 2.5 mewakili lonjakan ketara dalam pembangunan model AI, terutamanya disebabkan oleh latihan yang meluas dan seni bina yang diperhalusi. Model ini telah dilatih terlebih dahulu pada set data besar yang terdiri daripada 18 trilion token, peningkatan yang ketara daripada 7 trilion token yang digunakan dalam pendahulunya, Qwen 2. Set data latihan yang meluas ini meningkatkan pemahaman model tentang bahasa, penaakulan dan pengetahuan khusus domain.
Qwen 2.5 mengguna pakai tulang belakang Campuran Pakar (KPM) yang jarang: hanya subset pakar kecil yang mengaktifkan setiap token, membolehkan kapasiti berkesan yang lebih tinggi tanpa pertumbuhan kos linear Qwen. Latihan menggunakan ~20 token T dan kurikulum data yang diperhalusi dengan penyeliaan penalaan halus (SFT) serta RLHF. Penanda aras yang diterbitkan oleh pasukan menunjukkan keuntungan besar pada MMLU, matematik GSM8K dan pemahaman merentas bahasa berbilang bahasa berbanding garis dasar Qwen 2 dan peer 7 B/70 B.
Keluarga model Qwen 2.5
| Edisi | Saiz | Modaliti | Ciri tujuan & tajuk |
|---|---|---|---|
| Qwen 2.5‑1.5B‑Arahan | 1.5 B | teks | Peranti tepi / chatbot yang mempunyai kekurangan memori |
| Qwen 2.5‑7B‑Arahan | 7 B | teks | LLM sumber terbuka perdana dengan konteks 32 k, liputan 29 bahasa |
| Qwen 2.5‑Omni‑7B | 7 B | multimodal (teks + imej + audio + video) | Gabungan modaliti hujung-ke-hujung |
| Qwen 2.5‑VL‑3B/7B/72B‑Arahan | 3–72 B | Bahasa penglihatan | Kapsyen padat, dokumen QA, OCR, analisis carta |
| QwQ‑32B | 32 B | Teks (penaakulan) | KPM khusus untuk matematik/pengekodan; pariti dengan DeepSeek R1 671 B pada kos 5%. |
| Qwen 2.5‑Maks | tidak didedahkan (berbilang pakar) | teks | Peneraju penanda aras dalaman, tersedia melalui API dan Qwen Chat |
Keupayaan utama dan penanda aras
Arahan mengikut & jangkauan berbilang bahasa
Kertas dalaman menunjukkan Qwen 2.5‑7B mengatasi Llama‑3 8B pada AlpacaEval (92 lwn 89) dan mencapai 79 % kadar kemenangan berbanding GPT‑3.5‑Turbo pada MT‑Bench Cina. Bahasa yang disokong termasuk Turki, Indonesia, Jerman, Arab dan Swahili. Tetingkap konteks 32 k dengan pengekodan kedudukan tali gelongsor menyediakan rumusan PDF 200 halaman tanpa pemecahan.
Pengekodan dan penaakulan
Skor QwQ‑32B 50.4 % pada GSM8K (5‑shot) dan 74 % pada HumanEval‑Plus, setanding dengan DeepSeek R1 pada satu‑dua puluh kiraan parameter . Ujian komuniti awal menunjukkan model 7 B boleh menyusun dan menyahpepijat coretan C++ menggunakan g++‑13 di dalam kotak pasir Docker dengan halusinasi yang minimum.
Kekuatan multimodal
Qwen 2.5‑VL‑72B mencapai 62.7 % pada MMMU dan 73.4 % pada TextVQA, mengatasi Gemini 1.5‑Pro dalam tugasan OCR jadual (seperti dalam blog Januari Qwen) . Omni‑7B memanjangkan ini kepada transkripsi spektrum audio dan pensampelan bingkai MP4 melalui tokenizer yang dikongsi.
Pelesenan, keselamatan dan tadbir urus
Alibaba mengekalkan kod/lesen Apache 2.0 dengan tambahan “AI Bertanggungjawab Qian‑Wen” penunggang:
- Dilarang: kandungan pengganas, maklumat salah, pengekstrakan data peribadi.
- Ape Diperlukan: pembangun mesti melaksanakan penapis kandungan dan penanda air dalam apl hiliran.
Lesen membenarkan penggunaan komersial tetapi mandat pendedahan kad model jika pemberat diubah suai dan digunakan semula. Di Alibaba Cloud, penyederhanaan dikuatkuasakan di sisi pelayan; pengehos sendiri mesti menyepadukan penapis kecerunan dasar sumber terbuka (dipautkan dalam repo).
Pelan halatuju ke arah Qwen 3
Bloomberg dan PYMNTS melaporkan Alibaba akan diumumkan Qwen 3 “sebaik lewat April 2025,” berkemungkinan melonjak kepada >100 B parameter padat dan kebolehan penggunaan alat asli. Orang dalam mencadangkan gugusan GPU 4×2048 pada Hanguang 800+ ASIC dan kernel v3 Triton‑Flash‑Attention sedang dalam ujian. Qwen 2.5 akan kekal sebagai cawangan sumber terbuka, manakala Qwen 3 mungkin debut di bawah lesen yang lebih ketat serupa dengan Meta's Llama 3‑Commercial.
Petua praktikal untuk pembangun
- Pengiraan token: Qwen menggunakan QwenTokenizer; token khasnya sama
<|im_end|>dalam gesaan gaya OpenAI. - Mesej sistem: Balut dengan
<|im_start|>system … <|im_end|>untuk mengekalkan hierarki dan mengelakkan punca berat delta. - Penalaan halus: Gunakan kedudukan LoRA‑64 pada lapisan 20‑24 sahaja; LoRA lapisan awal menghasilkan keuntungan yang boleh diabaikan disebabkan oleh kekurangan KPM.
- streaming: Dengan DashScope, dayakan
X-DashScope-Stream: true; saiz ketulan ialah 20 token. - Input Qwen‑VL: Kodkan bait imej sebagai base64; melalui
inputs=.
Kesimpulan
Qwen 2.5 mengukuhkan kedudukan Alibaba Cloud dalam perlumbaan LLM sumber terbuka global dengan menggabungkan kecekapan MoE dengan lesen permisif dan bufet laluan akses—daripada satu-klik Sembang Qwen ke Ollama pada titik akhir DashScope komputer riba dan gred perusahaan. Bagi penyelidik, korpus latihan yang telus dan pariti bahasa Cina-Inggeris yang kukuh mengisi jurang yang ditinggalkan oleh siri Llama Meta. Bagi pembina, API yang serasi OpenAI mengurangkan geseran migrasi, manakala cawangan VL/Omni berbilang mod menjangkakan masa terdekat apabila teks, penglihatan, audio dan video bercantum di bawah ruang token bersatu. Memandangkan Qwen 3 muncul pada penghujung bulan ini, Qwen 2.5 berfungsi sebagai tempat pembuktian dan model pengeluaran yang teguh—yang sudah membentuk semula kalkulus kompetitif AI berskala besar pada tahun 2025.
Untuk Pembangun: Akses API
CometAPI menawarkan harga yang jauh lebih rendah daripada harga rasmi untuk membantu anda menyepadukan Qwen API , dan anda akan mendapat $1 dalam akaun anda selepas mendaftar dan log masuk! Selamat datang untuk mendaftar dan mengalami CometAPI.
CometAPI bertindak sebagai hab berpusat untuk API beberapa model AI terkemuka, menghapuskan keperluan untuk terlibat dengan berbilang penyedia API secara berasingan.
Sila rujuk kepada API Maks Qwen 2.5 untuk butiran penyepaduan.CometAPI telah mengemas kini yang terkini API QwQ-32B.Untuk lebih banyak maklumat Model dalam Comet API sila lihat Dokumen API.


