Qwen3:它是什麼以及如何使用

CometAPI
AnnaApr 29, 2025
Qwen3:它是什麼以及如何使用

2025年3月,阿里雲推出Qwen3,這是Qwen系列大型語言模型(LLM)的最新版本。作為人工智慧領域的重大進步,Qwen119在語言理解、推理、多模態處理和計算效率方面表現出卓越的能力。該模型支援 36 種語言,在 0.6 兆個標記的資料集上進行訓練,並提供從 235 億到 3 億個參數的各種模型大小。本文對QwenXNUMX的定義、特點、使用方法、訪問途徑、與其他模型的比較以及對AI領域的潛在影響進行了深入探討,旨在為開發者、研究人員和企業提供全面的參考。

Qwen3 是什麼?

Qwen3 是一系列大型語言模型,旨在理解和產生類似人類的文本,適用於從日常對話到複雜推理任務等一系列場景。這是阿里雲繼2023年發布Qwen、2年發布Qwen2024之後,Qwen系列的第三代產品,在性能和功能上都有了提升。

Qwen系列簡史

Qwen 系列始於 2023 年 2023 月,當時發布了基於 Meta AI 的 Llama 架構的 Qwen 模型,最初名為「統一千文」。 2023年72月獲得中國政府批准後,Qwen正式對外發布。 1.8 年 2 月,Qwen 2024B 和 3B 型號開源,隨後於 2025 年 XNUMX 月推出 QwenXNUMX,採用混合專家 (MoE) 架構。 QwenXNUMX 於 XNUMX 年 XNUMX 月推出,融合了混合推理能力和多模式功能,是該系列中最先進的版本。

Qwen3 的特點

Qwen3 提供了一系列創新功能,使其在全球 AI 模型領域中脫穎而出:

支持多種語言

Qwen3支援119種語言,涵蓋全球主要語言體系。這使其成為跨文化和多語言應用的理想選擇,例如國際客戶支援和多語言內容生成。

大規模訓練數據

Qwen3 訓練資料集包含近 36 兆個標記,相當於約 270 億個單字。它涵蓋了廣泛的內容,例如教科書、問答對、程式碼片段和人工智慧生成的內容,主要以中文和英文為主。這個量表保證了它在語言理解和生成方面的優異表現。

多種型號尺寸

Qwen3 提供多種模型大小,範圍從 0.6 億到 235 億個參數:

  • 小型模型(0.6億、1.7億): 適用於輕量級應用程序,能夠在智慧型手機等設備上運行。
  • 中型型號(4B、8B、14B、32B): 平衡效能與資源需求,適用於大多數開發場景。
  • 大型模型(235B): 為企業級任務提供頂級效能。
型號名稱參數大小上下文視窗(標記)適用場景
Qwen3-0.6B0.6十億32,768行動裝置、輕量級應用程式
Qwen3-1.7B1.7十億32,768嵌入式系統,快速推理
Qwen3-4B4十億131,072中小型專案、研究
Qwen3-8B8十億131,072通用應用程式、開發
Qwen3-32B32十億131,072高效能任務、企業應用
Qwen3-235B-A22B235十億131,072頂級性能,複雜推理(未公開)

混合推理能力

Qwen3 引入了「混合推理」功能,允許模型逐步推理,然後提供複雜問題的答案。這種能力在邏輯推理、數學問題和程式設計任務中尤其突出。使用者可以透過設定啟用或停用此模式(例如, enable_thinking=True).

混合式專家 (MoE) 模型

Qwen3 包括混合專家模型,例如 Qwen3-30B-A3B(30 億個參數,3 億個活躍參數)和 Qwen3-235B-A22B(235 億個參數,22 億個活躍參數)。這些模型透過僅激活一部分參數來加速推理,同時保持高效能,使其非常適合大規模部署。

擴大代幣限制

一些 Qwen3 模型支援多達 131,072 個標記的上下文視窗(模型 4B 及以上),比 Qwen2 的 32,768 個標記有顯著增加。這種增強功能使模型能夠處理更長的對話和更複雜的文字生成任務。

Qwen3

Qwen 3 基準測試

該模型展示了程式碼生成、調試和數學問題解決方面的能力,使其成為軟體開發和數據分析的寶貴工具。

Qwen3:它是什麼以及如何使用

如何使用Qwen3

應用

Qwen3 的多功能性使其適用於各種場景:

  • 聊天機器人和虛擬助理: 為客戶支援和個人助理應用程式提供自然、情境感知的回應。
  • 內容生成: 產生文章、故事、程式碼和其他創意或技術內容。
  • 數據分析: 協助解釋和總結用於研究和商業智慧的大型數據集。
  • 教育工具: 幫助學生完成家庭作業、解釋和個別化學習體驗。
  • 科學研究: 支持文獻綜述、假設生成和科學問題解決。

專案整合

開發人員可以使用以下框架和工具將 Qwen3 整合到他們的專案中:

  • 變形金剛: 要求 transformers>=4.51.0。範例程式碼片段:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

使用者可以使用 enable_thinking=True 或使用以下方式控制 /think /nothink.

  • 駱駝.cpp: 要求 llama.cpp>=b5092。命令列範例:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • 奧拉馬: 要求 Ollama v0.6.6 或更高。運行命令:
  ollama run qwen3:8b

支援以下參數 num_ctx 40960 num_predict 32768.

  • 部署選項:
  • SGLang: 要求 sglang>=0.4.6.post1。啟動命令: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • 法學碩士: 要求 vllm>=0.8.5。服務命令: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: 支援Ascend NPU;請造訪 Modelers 了解詳情。

工具使用

Qwen-Agent支援Qwen3與外部工具和API的交互,適用於需要動態資料存取的任務。 SGLang、vLLM、Transformers、llama.cpp 和 Ollama 也支援此功能。

微調

Qwen3 可以使用 Axolotl、UnSloth、Swift 和 Llama-Factory 等框架進行微調,支援監督微調 (SFT)、直接偏好優化 (DPO) 和群體穩健偏好優化 (GRPO) 等技術。

結論

Qwen3 代表了大型語言模型領域的突破,提供了增強的功能性、多功能性和可訪問性。 Qwen3 憑藉其多語言支援、混合推理以及視覺、數學和音訊任務的專門版本,成為人工智慧領域的關鍵參與者。它在 Codeforces、AIME 和 BFCL 等基準測試中的競爭性能以及其開源可用性使其成為開發人員、研究人員和企業的理想選擇。隨著人工智慧技術的進步,Qwen3 標誌著朝著創建能夠以日益複雜的方式理解、推理和與世界互動的智慧系統邁出了重要一步。

入門

開發人員可以訪問 啟文3 透過 API 彗星API。首先,在 Playground 中探索模型的功能,並查閱 API指南 以獲得詳細說明。請注意,一些開發人員可能需要在使用該模型之前驗證他們的組織。

閱讀更多

一個 API 中超過 500 個模型

最高 20% 折扣