Qwen3 hoạt động như thế nào?

CometAPI
AnnaJun 1, 2025
Qwen3 hoạt động như thế nào?

Qwen3 đại diện cho một bước tiến đáng kể trong các mô hình ngôn ngữ lớn (LLM) nguồn mở, kết hợp khả năng suy luận tinh vi với hiệu quả cao và khả năng truy cập rộng rãi. Được phát triển bởi các nhóm nghiên cứu và điện toán đám mây của Alibaba, Qwen3 được định vị để cạnh tranh với các hệ thống độc quyền hàng đầu như GPT-4x của OpenAI và PaLM của Google, trong khi vẫn hoàn toàn mở theo giấy phép Apache 2.0. Bài viết này khám phá sâu về cách Qwen3 được hình thành, các cơ chế cơ bản của nó, chế độ đào tạo đã hình thành nên các khả năng của nó và các con đường mà các nhà phát triển trên toàn thế giới có thể khai thác sức mạnh của nó.


Qwen3 là gì và tại sao nó lại quan trọng?

Các mô hình ngôn ngữ lớn đã chuyển đổi khả năng hiểu và tạo ngôn ngữ tự nhiên, cung cấp năng lượng cho mọi thứ từ các tác nhân đàm thoại đến trợ lý mã. Qwen3 là sản phẩm mới nhất trong gia đình Qwen của Alibaba, sau Qwen2.5 và các biến thể của nó, và bao gồm một số cải tiến hàng đầu:

  • Lý luận lai ghép: Tích hợp liền mạch các chế độ “suy nghĩ” và “không suy nghĩ” vào một kiến ​​trúc duy nhất, cho phép phân bổ động các tài nguyên tính toán dựa trên độ phức tạp của tác vụ.
  • Tùy chọn hỗn hợp chuyên gia (MoE): Cung cấp các mô hình chỉ kích hoạt một tập hợp con các mô-đun chuyên gia chuyên biệt cho mỗi truy vấn, giúp tăng hiệu quả mà không làm giảm hiệu suất.
  • Sự đa dạng về quy mô: Bao gồm các mô hình dày đặc nhẹ với 0.6 tỷ tham số đến các biến thể MoE thưa thớt với 235 tỷ tham số, phục vụ cho nhiều tình huống triển khai khác nhau.
  • Cửa sổ ngữ cảnh mở rộng:Hầu hết các biến thể lớn hơn đều hỗ trợ tới 128K ngữ cảnh mã thông báo, tạo điều kiện thuận lợi cho các tài liệu dài, cơ sở mã và các cuộc hội thoại đa phương thức.
  • Độ rộng đa ngôn ngữ: Được đào tạo trên 36 nghìn tỷ mã thông báo trải dài trên 119 ngôn ngữ và phương ngữ, hỗ trợ các ứng dụng thực sự mang tính toàn cầu.

Những đặc điểm này đưa Qwen3 không chỉ trở thành giải pháp hàng đầu về mặt chuẩn mực trong việc tạo mã, suy luận toán học và tác vụ của tác nhân mà còn là giải pháp linh hoạt, tiết kiệm chi phí cho các triển khai trong thế giới thực.

Qwen3 sử dụng kiến ​​trúc nào?

Khung lý luận thống nhất

Các hệ sinh thái LLM truyền thống thường tách biệt các mô hình được tối ưu hóa cho trò chuyện (ví dụ: GPT-4o) và các mô hình lý luận chuyên biệt (ví dụ: QwQ-32B). Qwen3 phá vỡ sự phân chia này bằng cách nhúng cả suy luận "không suy nghĩ" nhanh theo ngữ cảnh và các quy trình "suy nghĩ" sâu, nhiều bước trong cùng một mô hình. Mã thông báo chế độ hoặc cờ API kích hoạt các lớp chú ý nhẹ cho các tác vụ đơn giản hoặc các đường ống lý luận lặp lại sâu hơn cho các truy vấn phức tạp.

Biến thể hỗn hợp chuyên gia (MoE)

Một số mô hình Qwen3 áp dụng cấu trúc MoE, trong đó mạng lưới bao gồm hàng trăm mô-đun phụ chuyên gia, nhưng chỉ một tập hợp con nhỏ, có liên quan đến nhiệm vụ được kích hoạt khi chạy. Điều này mang lại khả năng tiết kiệm đáng kể về tính toán—chỉ những chuyên gia có liên quan nhất mới xử lý từng mã thông báo—trong khi vẫn duy trì độ chính xác tiên tiến trên các chuẩn mực lý luận.

Mô hình dày đặc và mô hình hỗn hợp chuyên gia

Để cân bằng giữa hiệu quả và năng lực, họ Qwen3 bao gồm sáu mô hình dày đặc (tham số 0.6B, 1.7B, 4B, 8B, 14B và 32B) cùng với hai biến thể MoE (30B với 3 tham số hoạt động và 235B với 22B tham số hoạt động). Các mô hình dày đặc cung cấp suy luận hợp lý cho các môi trường hạn chế về tài nguyên, trong khi các kiến ​​trúc MoE tận dụng kích hoạt thưa thớt để duy trì năng lực cao mà không làm tăng tuyến tính chi phí tính toán.

Kiến trúc hỗn hợp chuyên gia (MoE) làm giảm gánh nặng về bộ nhớ và tính toán của các mô hình dày đặc lớn bằng cách chỉ kích hoạt một phần nhỏ các tham số của mạng trên mỗi mã thông báo. Qwen3 cung cấp hai biến thể thưa thớt:

  • 30B-tham số MoE (3B tham số được kích hoạt cho mỗi mã thông báo)
  • 235B-tham số MoE (22B tham số được kích hoạt cho mỗi mã thông báo)

Các họ thưa thớt này phù hợp hoặc vượt trội hơn hiệu suất của các đối tác dày đặc tương đương trên các điểm chuẩn trong khi giảm chi phí suy luận—đặc biệt quan trọng đối với các ứng dụng thời gian thực và triển khai quy mô lớn. Các thử nghiệm nội bộ của Alibaba cho thấy các biến thể MoE đạt được thời gian suy luận nhanh hơn tới 60 lần trên phần cứng chuyên dụng như các động cơ quy mô wafer của Cerebras.

Chế độ suy nghĩ và chế độ không suy nghĩ

Một cải tiến nổi bật của Qwen3 là thiết kế chế độ kép: chế độ suy nghĩ cho các nhiệm vụ lý luận phức tạp, nhiều bước và chế độ không suy nghĩ để có phản hồi nhanh chóng, theo ngữ cảnh. Thay vì duy trì các mô hình chuyên biệt riêng biệt, Qwen3 tích hợp cả hai khả năng trong một kiến ​​trúc thống nhất. Điều này được kích hoạt bởi một suy nghĩ cơ chế ngân sách, phân bổ tài nguyên tính toán một cách thích ứng trong quá trình suy luận, cho phép mô hình linh hoạt cân bằng độ trễ và độ sâu suy luận dựa trên độ phức tạp của đầu vào.


Qwen3 hoạt động như thế nào?

Chuyển đổi chế độ động

Khi nhận được lời nhắc, Qwen3 sẽ đánh giá độ phức tạp của lý luận cần thiết so với các ngưỡng được xác định trước. Các truy vấn đơn giản kích hoạt chế độ không suy nghĩ, tạo ra phản hồi trong vài mili giây, trong khi các tác vụ đa bước phức tạp—chẳng hạn như chứng minh toán học hoặc lập kế hoạch chiến lược—kích hoạt chế độ suy nghĩ, phân bổ thêm các lớp biến áp và đầu chú ý khi cần. Các nhà phát triển cũng có thể tùy chỉnh các kích hoạt chuyển đổi chế độ thông qua các mẫu trò chuyện hoặc tham số API, điều chỉnh trải nghiệm người dùng cho các ứng dụng cụ thể.

  • Chế độ không suy nghĩ: Phân bổ các lớp tối thiểu/cuộc gọi chuyên gia, tối ưu hóa độ trễ và thông lượng.
  • Chế độ suy nghĩ: Mở rộng biểu đồ tính toán một cách động, cho phép suy luận đa bước và liên kết các câu hỏi phụ bên trong.
  • Chuyển đổi thích ứng:Mô hình có thể tự động chuyển đổi giữa các chế độ trong quá trình suy luận nếu độ phức tạp của truy vấn đảm bảo các bước suy luận bổ sung.

Hiệu quả suy luận và độ trễ

Với sự hợp tác của các đối tác phần cứng như Cerebras Systems, Qwen3-32B đạt được hiệu suất suy luận theo thời gian thực. Các điểm chuẩn trên Cerebras Inference Platform chứng minh thời gian phản hồi dưới 1.2 giây cho các tác vụ suy luận phức tạp, nhanh hơn tới 60 lần so với các mô hình tương đương như DeepSeek R1 và OpenAI o3-mini. Hiệu suất độ trễ thấp này mở khóa các tác nhân và phi công phụ cấp sản xuất trong các cài đặt tương tác, từ chatbot hỗ trợ khách hàng đến các hệ thống hỗ trợ quyết định theo thời gian thực.


Triển khai và khả năng tiếp cận

Phát hành và tích hợp nguồn mở

Vào ngày 28 tháng 2025 năm 3, Alibaba chính thức phát hành Qwen2.0 theo giấy phép Apache 3, cho phép truy cập không giới hạn vào trọng số, mã và tài liệu trên GitHub và Hugging Face. Trong những tuần sau khi ra mắt, họ QwenXNUMX đã có thể triển khai trên các nền tảng LLM chính như Ollama, LM Studio, SGLang và vLLM, hợp lý hóa suy luận cục bộ cho các nhà phát triển và doanh nghiệp trên toàn thế giới.

Định dạng linh hoạt và hỗ trợ lượng tử hóa

Để đáp ứng các kịch bản triển khai đa dạng—từ suy luận trung tâm dữ liệu thông lượng cao đến các thiết bị biên công suất thấp—Qwen3 hỗ trợ nhiều định dạng trọng số, bao gồm định dạng thống nhất do GPT tạo ra, lượng tử hóa nhận biết kích hoạt và lượng tử hóa sau đào tạo chung. Các nghiên cứu ban đầu cho thấy lượng tử hóa sau đào tạo 4 đến 8 bit duy trì hiệu suất cạnh tranh, mặc dù độ chính xác cực thấp (1–2 bit) gây ra sự suy giảm độ chính xác đáng kể, làm nổi bật các lĩnh vực nghiên cứu trong tương lai về nén LLM hiệu quả.


Hiệu suất và chuẩn mực

Xếp hạng bảng xếp hạng

Theo bảng xếp hạng LiveBench tính đến ngày 6 tháng 2025 năm 3, mẫu Qwen235-22B-A7B hàng đầu được xếp hạng là LLM nguồn mở hàng đầu, giành vị trí thứ 3 chung cuộc trong số cả mẫu mở và mẫu đóng, và đạt điểm cao nhất trong các tác vụ theo hướng dẫn. Cột mốc này nhấn mạnh sự ngang bằng về khả năng cạnh tranh của Qwen4 với các đối tác độc quyền như GPT-1 và DeepSeek RXNUMX.

Đánh giá so sánh

Đánh giá độc lập của TechCrunch và VentureBeat nhấn mạnh hiệu suất vượt trội của Qwen3 trong mã hóa và chuẩn toán học. Khi so sánh với các giải pháp hàng đầu như DeepSeek R1, o1 của OpenAI và Gemini 2.5-Pro ​​của Google, Qwen3-235B-A22B cho thấy kết quả tương đương hoặc được cải thiện trên nhiều tác vụ, từ tổng hợp thuật toán đến tạo bằng chứng chính thức.

qwen3


Các biến thể chuyên biệt: Qwen3-Math và QwenLong-L1

Qwen3-Toán học

Qwen3-Math là một biến thể chuyên biệt được thiết kế cho các nhiệm vụ suy luận toán học. Nó mở rộng hỗ trợ cho cả Chain-of-Thought (CoT) và Tool-Integrated Reasoning (TIR) ​​để giải các bài toán bằng cả tiếng Trung và tiếng Anh. TIR tăng cường khả năng của mô hình trong việc thực hiện các phép tính chính xác, thao tác ký hiệu và các quy trình thuật toán, giải quyết các thách thức trong các nhiệm vụ đòi hỏi độ chính xác tính toán cao.

QwenLong-L1

QwenLong-L1 là một khuôn khổ điều chỉnh các mô hình lý luận lớn ngữ cảnh ngắn thành các kịch bản ngữ cảnh dài thông qua việc mở rộng ngữ cảnh tiến bộ. Nó sử dụng giai đoạn tinh chỉnh có giám sát khởi động để thiết lập chính sách ban đầu mạnh mẽ, tiếp theo là kỹ thuật học tăng cường theo giai đoạn được hướng dẫn bởi chương trình giảng dạy để ổn định quá trình phát triển chính sách. Phương pháp này cho phép lý luận mạnh mẽ trong các môi trường chuyên sâu về thông tin.

Thách thức và xu hướng tương lai

Ảo giác và sự mạnh mẽ

Mặc dù có số liệu định lượng mạnh, Qwen3 thỉnh thoảng vẫn thể hiện "ảo giác" trong các tình huống thực tế hoặc mơ hồ về mặt ngữ cảnh. Nghiên cứu đang được tiến hành tập trung vào việc tinh chỉnh các cơ chế tạo và cơ sở được tăng cường truy xuất để tăng cường độ chính xác thực tế, vì các phân tích sơ bộ chỉ ra tỷ lệ ảo giác giảm 15–20% khi tích hợp các cơ sở kiến ​​thức bên ngoài.

Lượng tử hóa và triển khai Edge

Trong khi lượng tử hóa vừa phải bảo toàn các khả năng cốt lõi của Qwen3, thì nén cực độ vẫn là một thách thức. Những tiến bộ hơn nữa trong đào tạo độ chính xác hỗn hợp, thuật toán lượng tử hóa nhận biết phần cứng và kiến ​​trúc máy biến áp hiệu quả là điều cần thiết để dân chủ hóa AI tinh vi trên các thiết bị hạn chế như điện thoại thông minh, cảm biến IoT và hệ thống nhúng.


Kết luận

Sự phát triển của Qwen3 phản ánh sự thay đổi mô hình hướng tới các kiến ​​trúc LLM thống nhất, có khả năng thích ứng động, kết nối sự trôi chảy trong giao tiếp với lý luận sâu sắc. Bằng cách cung cấp nguồn mở các trọng số của mình và cung cấp các tùy chọn triển khai đa dạng—từ suy luận đám mây đến tăng tốc trên thiết bị—nhóm Qwen của Alibaba đã thúc đẩy sự hợp tác và đổi mới toàn cầu trong AI. Khi cộng đồng nghiên cứu giải quyết các thách thức còn lại về tính mạnh mẽ của mô hình, lượng tử hóa và tích hợp đa phương thức, Qwen3 đã sẵn sàng trở thành nền tảng cơ bản cho các hệ thống thông minh thế hệ tiếp theo trên khắp các ngành.

Bắt đầu

CometAPI cung cấp giao diện REST thống nhất tổng hợp hàng trăm mô hình AI—bao gồm cả họ ChatGPT—dưới một điểm cuối nhất quán, với quản lý khóa API tích hợp, hạn ngạch sử dụng và bảng điều khiển thanh toán. Thay vì phải xử lý nhiều URL và thông tin xác thực của nhà cung cấp.

Các nhà phát triển có thể truy cập Qwen 3 API thông qua Sao chổiAPI.Để bắt đầu, hãy khám phá các khả năng của mô hình trong Sân chơi và tham khảo Hướng dẫn API để biết hướng dẫn chi tiết. Trước khi truy cập, vui lòng đảm bảo bạn đã đăng nhập vào CometAPI và lấy được khóa API.

Đọc thêm

500+ Mô hình trong Một API

Giảm giá lên đến 20%