2025年3月,阿里雲推出Qwen3,這是Qwen系列大型語言模型(LLM)的最新版本。作為人工智慧領域的重大進步,Qwen119在語言理解、推理、多模態處理和計算效率方面表現出卓越的能力。該模型支援 36 種語言,在 0.6 兆個標記的資料集上進行訓練,並提供從 235 億到 3 億個參數的各種模型大小。本文對QwenXNUMX的定義、特點、使用方法、訪問途徑、與其他模型的比較以及對AI領域的潛在影響進行了深入探討,旨在為開發者、研究人員和企業提供全面的參考。
Qwen3 是什麼?
Qwen3 是一系列大型語言模型,旨在理解和產生類似人類的文本,適用於從日常對話到複雜推理任務等一系列場景。這是阿里雲繼2023年發布Qwen、2年發布Qwen2024之後,Qwen系列的第三代產品,在性能和功能上都有了提升。
Qwen系列簡史
Qwen 系列始於 2023 年 2023 月,當時發布了基於 Meta AI 的 Llama 架構的 Qwen 模型,最初名為「統一千文」。 2023年72月獲得中國政府批准後,Qwen正式對外發布。 1.8 年 2 月,Qwen 2024B 和 3B 型號開源,隨後於 2025 年 XNUMX 月推出 QwenXNUMX,採用混合專家 (MoE) 架構。 QwenXNUMX 於 XNUMX 年 XNUMX 月推出,融合了混合推理能力和多模式功能,是該系列中最先進的版本。
Qwen3 的特點
Qwen3 提供了一系列創新功能,使其在全球 AI 模型領域中脫穎而出:
支持多種語言
Qwen3支援119種語言,涵蓋全球主要語言體系。這使其成為跨文化和多語言應用的理想選擇,例如國際客戶支援和多語言內容生成。
大規模訓練數據
Qwen3 訓練資料集包含近 36 兆個標記,相當於約 270 億個單字。它涵蓋了廣泛的內容,例如教科書、問答對、程式碼片段和人工智慧生成的內容,主要以中文和英文為主。這個量表保證了它在語言理解和生成方面的優異表現。
多種型號尺寸
Qwen3 提供多種模型大小,範圍從 0.6 億到 235 億個參數:
- 小型模型(0.6億、1.7億): 適用於輕量級應用程序,能夠在智慧型手機等設備上運行。
- 中型型號(4B、8B、14B、32B): 平衡效能與資源需求,適用於大多數開發場景。
- 大型模型(235B): 為企業級任務提供頂級效能。
| 型號名稱 | 參數大小 | 上下文視窗(標記) | 適用場景 |
|---|---|---|---|
| Qwen3-0.6B | 0.6十億 | 32,768 | 行動裝置、輕量級應用程式 |
| Qwen3-1.7B | 1.7十億 | 32,768 | 嵌入式系統,快速推理 |
| Qwen3-4B | 4十億 | 131,072 | 中小型專案、研究 |
| Qwen3-8B | 8十億 | 131,072 | 通用應用程式、開發 |
| Qwen3-32B | 32十億 | 131,072 | 高效能任務、企業應用 |
| Qwen3-235B-A22B | 235十億 | 131,072 | 頂級性能,複雜推理(未公開) |
混合推理能力
Qwen3 引入了「混合推理」功能,允許模型逐步推理,然後提供複雜問題的答案。這種能力在邏輯推理、數學問題和程式設計任務中尤其突出。使用者可以透過設定啟用或停用此模式(例如, enable_thinking=True).
混合式專家 (MoE) 模型
Qwen3 包括混合專家模型,例如 Qwen3-30B-A3B(30 億個參數,3 億個活躍參數)和 Qwen3-235B-A22B(235 億個參數,22 億個活躍參數)。這些模型透過僅激活一部分參數來加速推理,同時保持高效能,使其非常適合大規模部署。
擴大代幣限制
一些 Qwen3 模型支援多達 131,072 個標記的上下文視窗(模型 4B 及以上),比 Qwen2 的 32,768 個標記有顯著增加。這種增強功能使模型能夠處理更長的對話和更複雜的文字生成任務。

Qwen 3 基準測試
該模型展示了程式碼生成、調試和數學問題解決方面的能力,使其成為軟體開發和數據分析的寶貴工具。

如何使用Qwen3
應用
Qwen3 的多功能性使其適用於各種場景:
- 聊天機器人和虛擬助理: 為客戶支援和個人助理應用程式提供自然、情境感知的回應。
- 內容生成: 產生文章、故事、程式碼和其他創意或技術內容。
- 數據分析: 協助解釋和總結用於研究和商業智慧的大型數據集。
- 教育工具: 幫助學生完成家庭作業、解釋和個別化學習體驗。
- 科學研究: 支持文獻綜述、假設生成和科學問題解決。
專案整合
開發人員可以使用以下框架和工具將 Qwen3 整合到他們的專案中:
- 變形金剛: 要求
transformers>=4.51.0。範例程式碼片段:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
outputs = model.generate(**inputs, enable_thinking=True)
print(tokenizer.decode(outputs))
使用者可以使用 enable_thinking=True 或使用以下方式控制 /think /nothink.
- 駱駝.cpp: 要求
llama.cpp>=b5092。命令列範例:
./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
- 奧拉馬: 要求
Ollama v0.6.6或更高。運行命令:
ollama run qwen3:8b
支援以下參數 num_ctx 40960 num_predict 32768.
- 部署選項:
- SGLang: 要求
sglang>=0.4.6.post1。啟動命令:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 - 法學碩士: 要求
vllm>=0.8.5。服務命令:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1 - MindIE: 支援Ascend NPU;請造訪 Modelers 了解詳情。
工具使用
Qwen-Agent支援Qwen3與外部工具和API的交互,適用於需要動態資料存取的任務。 SGLang、vLLM、Transformers、llama.cpp 和 Ollama 也支援此功能。
微調
Qwen3 可以使用 Axolotl、UnSloth、Swift 和 Llama-Factory 等框架進行微調,支援監督微調 (SFT)、直接偏好優化 (DPO) 和群體穩健偏好優化 (GRPO) 等技術。
結論
Qwen3 代表了大型語言模型領域的突破,提供了增強的功能性、多功能性和可訪問性。 Qwen3 憑藉其多語言支援、混合推理以及視覺、數學和音訊任務的專門版本,成為人工智慧領域的關鍵參與者。它在 Codeforces、AIME 和 BFCL 等基準測試中的競爭性能以及其開源可用性使其成為開發人員、研究人員和企業的理想選擇。隨著人工智慧技術的進步,Qwen3 標誌著朝著創建能夠以日益複雜的方式理解、推理和與世界互動的智慧系統邁出了重要一步。
入門
開發人員可以訪問 啟文3 透過 API 彗星API。首先,在 Playground 中探索模型的功能,並查閱 API指南 以獲得詳細說明。請注意,一些開發人員可能需要在使用該模型之前驗證他們的組織。
