Qwen3: Co to jest i jak go używać

CometAPI
AnnaApr 29, 2025
Qwen3: Co to jest i jak go używać

W kwietniu 2025 r. Alibaba Cloud uruchomiła Qwen3, najnowszą wersję serii Qwen dużych modeli językowych (LLM). Jako znaczący postęp w dziedzinie sztucznej inteligencji, Qwen3 wykazuje wyjątkowe możliwości w zakresie rozumienia języka, rozumowania, przetwarzania multimodalnego i wydajności obliczeniowej. Model obsługuje 119 języków, jest trenowany na zestawie danych 36 bilionów tokenów i oferuje różne rozmiary modelu od 0.6 miliarda do 235 miliardów parametrów. Niniejszy artykuł zawiera dogłębną analizę definicji Qwen3, funkcji, metod użytkowania, podejść dostępu, porównań z innymi modelami i jego potencjalnego wpływu na domenę AI, mając na celu służyć jako kompleksowe odniesienie dla programistów, badaczy i przedsiębiorstw.

Czym jest Qwen3?

Qwen3 to seria dużych modeli językowych zaprojektowanych do rozumienia i generowania tekstu podobnego do ludzkiego, odpowiednich do różnych scenariuszy, od codziennych konwersacji po złożone zadania rozumowania. Jest to trzecia generacja serii Qwen opracowanej przez Alibaba Cloud, po wydaniu Qwen w 2023 r. i Qwen2 w 2024 r., które wprowadziły ulepszenia w zakresie wydajności i funkcjonalności.

Krótka historia serii Qwen

Seria Qwen rozpoczęła się w kwietniu 2023 r. od wydania modelu Qwen, początkowo nazwanego „Tongyi Qianwen”, opartego na architekturze Llama firmy Meta AI. Po otrzymaniu zgody od chińskiego rządu we wrześniu 2023 r. Qwen został oficjalnie udostępniony publicznie. W grudniu 2023 r. modele Qwen 72B i 1.8B zostały udostępnione jako oprogramowanie typu open source, a następnie w czerwcu 2 r. wprowadzono na rynek Qwen2024, który przyjął architekturę Mixture of Experts (MoE). Qwen3, wprowadzony w kwietniu 2025 r., zawiera hybrydowe możliwości rozumowania i funkcjonalności multimodalne, co czyni go najbardziej zaawansowaną wersją w serii.

Cechy Qwen3

Qwen3 oferuje szereg innowacyjnych funkcji, które wyróżniają go na globalnym rynku modeli sztucznej inteligencji:

Obsługa wielu języków

Qwen3 obsługuje 119 języków, obejmując główne globalne systemy językowe. Dzięki temu jest idealnym wyborem do zastosowań międzykulturowych i wielojęzycznych, takich jak międzynarodowa obsługa klienta i generowanie treści wielojęzycznych.

Dane szkoleniowe na dużą skalę

Zestaw danych szkoleniowych Qwen3 składa się z prawie 36 bilionów tokenów, co odpowiada około 270 miliardom słów. Obejmuje szeroki zakres treści, takich jak podręczniki, pary pytań i odpowiedzi, fragmenty kodu i treści generowane przez AI, głównie w języku chińskim i angielskim. Ta skala zapewnia doskonałą wydajność w zakresie rozumienia i generowania języka.

Różne rozmiary modeli

Qwen3 oferuje różnorodne rozmiary modeli od 0.6 miliarda do 235 miliardów parametrów:

  • Małe modele (0.6B, 1.7B): Nadaje się do lekkich zastosowań, które można uruchamiać na urządzeniach takich jak smartfony.
  • Modele średnie (4B, 8B, 14B, 32B): Zrównoważenie wydajności z zapotrzebowaniem na zasoby, możliwe do zastosowania w większości scenariuszy rozwoju.
  • Duże modele (235B): Zapewnij najwyższą wydajność dla zadań na poziomie korporacyjnym.
Nazwa modeluRozmiar parametruOkno kontekstowe (tokeny)Obowiązujące scenariusze
Qwen3-0.6B0.6 mld32,768Urządzenia mobilne, lekkie aplikacje
Qwen3-1.7B1.7 mld32,768Systemy wbudowane, szybkie rozumowanie
Qwen3-4B4 mld131,072Projekty małej i średniej wielkości, badania
Qwen3-8B8 mld131,072Zastosowania ogólne, rozwój
Qwen3-32B32 mld131,072Zadania o wysokiej wydajności, aplikacje korporacyjne
Qwen3-235B-A22B235 mld131,072Najwyższa wydajność, złożone rozumowanie (niedostępne publicznie)

Możliwości hybrydowego rozumowania

Qwen3 wprowadza funkcję „hybrydowego rozumowania”, która pozwala modelowi rozumować krok po kroku przed udzieleniem odpowiedzi na złożone pytania. Ta możliwość jest szczególnie widoczna w rozumowaniu logicznym, problemach matematycznych i zadaniach programistycznych. Użytkownicy mogą włączać lub wyłączać ten tryb za pomocą ustawień (np. enable_thinking=True).

Modele Mieszanki Ekspertów (MoE)

Qwen3 obejmuje modele Mixture of Experts, takie jak Qwen3-30B-A3B (30 miliardów parametrów, 3 miliardy aktywnych) i Qwen3-235B-A22B (235 miliardów parametrów, 22 miliardy aktywnych). Modele te przyspieszają wnioskowanie, aktywując tylko podzbiór parametrów, jednocześnie utrzymując wysoką wydajność, co czyni je dobrze przystosowanymi do wdrażania na dużą skalę.

Rozszerzone limity tokenów

Niektóre modele Qwen3 obsługują okna kontekstowe do 131,072 4 tokenów (modele 2B i wyższe), co stanowi znaczny wzrost w porównaniu z 32,768 XNUMX tokenami QwenXNUMX. To ulepszenie pozwala modelowi obsługiwać dłuższe dialogi i bardziej złożone zadania generowania tekstu.

Qwen3

Testy Qwen 3

Model ten demonstruje biegłość w generowaniu kodu, debugowaniu i rozwiązywaniu problemów matematycznych, co czyni go cennym narzędziem przy tworzeniu oprogramowania i analizie danych.

Qwen3: Co to jest i jak go używać

Jak używać Qwen3

Zastosowania

Wszechstronność Qwen3 sprawia, że ​​sprawdza się w różnych scenariuszach:

  • Chatboty i wirtualni asystenci: Udzielaj naturalnych, kontekstowych odpowiedzi w aplikacjach obsługi klienta i asystentów osobistych.
  • Generowanie treści: Generuj artykuły, historie, kod i inne kreatywne lub techniczne treści.
  • Analiza danych: Pomoc w interpretacji i podsumowywaniu dużych zbiorów danych na potrzeby badań naukowych i wywiadu biznesowego.
  • Narzędzia edukacyjne: Pomóż uczniom w odrabianiu prac domowych, udziel wyjaśnień i zapewnij im spersonalizowane doświadczenia edukacyjne.
  • Badania naukowe: Wspieranie przeglądu literatury, generowania hipotez i rozwiązywania problemów naukowych.

Integracja projektu

Programiści mogą zintegrować Qwen3 ze swoimi projektami, korzystając z następujących struktur i narzędzi:

  • Transformatory: Wymaga transformers>=4.51.0Przykładowy fragment kodu:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

Użytkownicy mogą włączyć tryb rozumowania za pomocą enable_thinking=True lub steruj nim za pomocą /think oraz /nothink.

  • lama.cpp: Wymaga llama.cpp>=b5092Przykład wiersza poleceń:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • Ollama: Wymaga Ollama v0.6.6 lub wyższe. Uruchom polecenie:
  ollama run qwen3:8b

Obsługuje parametry takie jak num_ctx 40960 oraz num_predict 32768.

  • Opcje wdrożenia:
  • SGLang: Wymaga sglang>=0.4.6.post1. Polecenie uruchomienia: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: Wymaga vllm>=0.8.5. Polecenie serwowania: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • MindIE: Obsługuje Ascend NPU; więcej szczegółów na stronie Modelers.

Użycie narzędzia

Qwen-Agent obsługuje interakcję Qwen3 z zewnętrznymi narzędziami i API, co jest odpowiednie dla zadań wymagających dynamicznego dostępu do danych. Ta funkcja jest również obsługiwana przez SGLang, vLLM, Transformers, llama.cpp i Ollama.

Strojenie

Qwen3 można dostroić za pomocą takich frameworków jak Axolotl, UnSloth, Swift i Llama-Factory, które obsługują techniki takie jak Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) i Group Robust Preference Optimization (GRPO).

Podsumowanie

Qwen3 stanowi przełom w dziedzinie dużych modeli językowych, oferując rozszerzoną funkcjonalność, wszechstronność i dostępność. Dzięki obsłudze wielu języków, hybrydowemu rozumowaniu i specjalistycznym wersjom do zadań wizualnych, matematycznych i audio Qwen3 pozycjonuje się jako kluczowy gracz w dziedzinie AI. Jego konkurencyjna wydajność w testach porównawczych, takich jak Codeforces, AIME i BFCL, wraz z dostępnością open source, czyni go idealnym wyborem dla programistów, badaczy i przedsiębiorstw. W miarę postępu technologii AI, Qwen3 oznacza ważny krok w kierunku tworzenia inteligentnych systemów zdolnych do rozumienia, rozumowania i interakcji ze światem w coraz bardziej wyrafinowany sposób.

Jak zacząć

Deweloperzy mogą uzyskać dostęp Qwen3 API poprzez Interfejs API CometNa początek zapoznaj się z możliwościami modelu w Playground i skonsultuj się z Przewodnik po API aby uzyskać szczegółowe instrukcje. Należy pamiętać, że niektórzy deweloperzy mogą potrzebować zweryfikować swoją organizację przed użyciem modelu.

Czytaj więcej

500+ modeli w jednym API

Do 20% zniżki