API Qwen 3 to zgodny ze standardem OpenAI interfejs opracowany przez Alibaba Cloud, który umożliwia programistom integrację zaawansowanych dużych modeli językowych Qwen 3 — dostępnych zarówno w architekturze gęstej, jak i mieszanej (MoE) — z ich aplikacjami do zadań takich jak generowanie tekstu, wnioskowanie i obsługa wielu języków.
Qwen 3 Przegląd
Kluczowe funkcje
- Możliwości hybrydowego rozumowania:Qwen 3 integruje zarówno konwencjonalne funkcje sztucznej inteligencji, jak i zaawansowane dynamiczne wnioskowanie, zwiększając adaptowalność i wydajność dla programistów.
- Skalowalność:Rodzina modeli obejmuje zarówno modele gęste (od 0.6 B do 32 B parametrów), jak i rzadkie (30 B z 3 B aktywnych parametrów, 235 B z 22 B aktywnych parametrów), dostosowane do szerokiego zakresu zastosowań.
- Rozszerzone okno kontekstowe:Większość modeli Qwen 3 obsługuje okno kontekstowe tokena 128K, co ułatwia przetwarzanie długich dokumentów i złożonych zadań.
- Wsparcie multimodalne:Modele Qwen 3 potrafią przetwarzać tekst, obrazy, dźwięk i wideo, dzięki czemu nadają się do różnych zastosowań, w tym interakcji głosowych w czasie rzeczywistym i analizy danych wizualnych.
- Dostępność Open Source:Wszystkie modele Qwen 3 są objęte licencją Apache 2.0 i są dostępne za pośrednictwem platform takich jak Hugging Face i ModelScope.
Architektura techniczna
Warianty modelu
Qwen 3 obejmuje szereg modeli odpowiadających różnym potrzebom obliczeniowym:
- Gęste modeleDostępne w rozmiarach o parametrach 0.6B, 1.7B, 4B, 8B, 14B i 32B.
- Rzadkie modele:Dołącz model 30B z 3B aktywowanymi parametrami i model 235B z 22B aktywowanymi parametrami.
Architektura ta umożliwia efektywne wdrażanie w różnych konfiguracjach sprzętowych, od urządzeń mobilnych po serwery o wysokiej wydajności.
Zrozumienie kontekstowe
Dzięki oknu kontekstowemu tokena o rozmiarze 128 tys. modeli Qwen 3 mogą zachować spójność podczas dłuższych interakcji, co sprawia, że są one doskonałe do zadań wymagających głębokiego zrozumienia kontekstu, takich jak generowanie długich treści i rozwiązywanie złożonych problemów.
Ewolucja serii Qwen
Od Qwen do Qwen 3
Seria Qwen przeszła znaczącą ewolucję:
- Qwen:Wprowadzono jako bazę wstępnie wyszkolonych modeli językowych, wykazujących wyższą wydajność w przypadku różnych zadań.
- Czat Qwen:Modele czatów udoskonalone przy użyciu technik dopasowania ludzkiego, prezentujące zaawansowane możliwości wykorzystania narzędzi i planowania.
- Qwen2: Rozszerzono zestaw modeli o modele języka dostrojonego do instrukcji, zawierające zakresy parametrów od 0.5 do 72 miliardów. Flagowy model, Qwen2-72B, wykazał niezwykłą wydajność w różnych testach porównawczych.
- Qwen2.5:Wprowadzono modele takie jak Qwen2.5-Omni, które potrafią przetwarzać tekst, obrazy, filmy i dźwięk oraz generować zarówno tekst, jak i dźwięk.
- Qwen3:Najnowsza wersja, zawierająca hybrydowe możliwości rozumowania i zwiększoną wydajność, oznacza znaczący postęp w serii.
Wydajność wzorcowa
Znacznie przewyższając poprzednie modele, takie jak QwQ i Qwen2.5, Qwen3 oferuje lepszą matematykę, kodowanie, rozumowanie zdroworozsądkowe, kreatywne pisanie i interaktywne możliwości dialogowe. Wariant Qwen3-30B-A3B obejmuje 30.5 miliarda parametrów (3.3 miliarda aktywowanych), 48 warstw, 128 ekspertów (8 aktywowanych na zadanie) i obsługuje do 131 tys. kontekstów tokenów z YaRN, ustanawiając nowy standard wśród modeli open source.
- AIME25:Qwen3 zdobył 81.5 punktów, ustanawiając nowy rekord open source.
- LiveCodeBench: Qwen3 zdobył ponad 70 punktów, lepiej nawet niż Grok3.
- ArenaHard: Qwen3 prześcignął OpenAl-o1 i DeepSeek-FR1, zdobywając 95.6 punktów.
Przykład kodu
Programiści mogą wchodzić w interakcję z modelami Qwen 3, korzystając z następującego fragmentu kodu Python:
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")
# Encode input prompt
input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response
output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)
print(response)
W tym przykładzie pokazano, jak załadować model Qwen 3 i wygenerować odpowiedź na zadane pytanie, korzystając z biblioteki Hugging Face Transformers.
Podsumowanie
Qwen 3 stanowi znaczący kamień milowy w rozwoju AI Alibaby, oferując ulepszone możliwości rozumowania, skalowalność i obsługę multimodalną. Jego dostępność typu open source na licencji Apache 2.0 zachęca do powszechnego przyjęcia i dalszych innowacji w społeczności AI. W miarę jak krajobraz AI nadal ewoluuje, Qwen 3 pozycjonuje Alibabę jako potężnego gracza zarówno na arenie krajowej, jak i globalnej.
Jak zadzwonić Qwen 3 API z CometAPI
Qwen 3 Cennik API w CometAPI:
| Wersja modelu | Qwen3 235B A22B | Qwen3 30B A3B | Qwen3 8B |
| Cena w CometAPI | Żetony wejściowe: 1.6 USD / mln żetonów | Żetony wejściowe: 0.4$/M żetonów | Żetony wejściowe: 0.32 USD / mln żetonów |
| Tokeny wyjściowe: 4.8 USD / mln tokenów | Tokeny wyjściowe: 1.2 USD / mln tokenów | Tokeny wyjściowe: 0.96 USD / mln tokenów | |
| Nazwa modelu | qwen3-235b-a22b | qwen3-30b-a3b | qwen3-8b |
| zilustrować | To flagowy model serii Qwen3 z 235 miliardami parametrów i architekturą Mixture of Experts (MoE). | qwen3-30b-a3b: Dzięki 30 miliardom parametrów równoważy wymagania dotyczące wydajności i zasobów, co jest przydatne w przypadku aplikacji klasy korporacyjnej. | Lekki model z 800 milionami parametrów, zaprojektowany specjalnie dla środowisk o ograniczonych zasobach (takich jak urządzenia mobilne lub serwery o niskich wymaganiach konfiguracyjnych). |
Wymagane kroki
- Zaloguj się do pl.com. Jeśli jeszcze nie jesteś naszym użytkownikiem, zarejestruj się najpierw
- Pobierz klucz API uwierzytelniania dostępu do interfejsu. Kliknij „Dodaj token” przy tokenie API w centrum osobistym, pobierz klucz tokena: sk-xxxxx i prześlij.
- Uzyskaj adres URL tej witryny: https://api.cometapi.com/
Metody użytkowania
- Wybierz "
qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b” punkt końcowy do wysłania żądania API i ustawienia treści żądania. Metoda żądania i treść żądania są pobierane z naszej witryny internetowej API doc. Nasza witryna internetowa udostępnia również test Apifox dla Twojej wygody. - Zastępować za pomocą aktualnego klucza CometAPI ze swojego konta.
- Wpisz swoje pytanie lub prośbę w polu treści — model odpowie właśnie na tę wiadomość.
- . Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź.
Aby uzyskać informacje o modelu uruchomionym w interfejsie API Comet, zobacz https://api.cometapi.com/new-model.
Informacje o cenie modelu w interfejsie API Comet można znaleźć tutaj https://api.cometapi.com/pricing.
Zobacz także Qwen 2.5 Max API



