Interfejs API Qwen 3

CometAPI
AnnaApr 29, 2025
Interfejs API Qwen 3

API Qwen 3 to zgodny ze standardem OpenAI interfejs opracowany przez Alibaba Cloud, który umożliwia programistom integrację zaawansowanych dużych modeli językowych Qwen 3 — dostępnych zarówno w architekturze gęstej, jak i mieszanej (MoE) — z ich aplikacjami do zadań takich jak generowanie tekstu, wnioskowanie i obsługa wielu języków.


Qwen 3 Przegląd

Kluczowe funkcje

  • Możliwości hybrydowego rozumowania:Qwen 3 integruje zarówno konwencjonalne funkcje sztucznej inteligencji, jak i zaawansowane dynamiczne wnioskowanie, zwiększając adaptowalność i wydajność dla programistów.
  • Skalowalność:Rodzina modeli obejmuje zarówno modele gęste (od 0.6 B do 32 B parametrów), jak i rzadkie (30 B z 3 B aktywnych parametrów, 235 B z 22 B aktywnych parametrów), dostosowane do szerokiego zakresu zastosowań.
  • Rozszerzone okno kontekstowe:Większość modeli Qwen 3 obsługuje okno kontekstowe tokena 128K, co ułatwia przetwarzanie długich dokumentów i złożonych zadań.
  • Wsparcie multimodalne:Modele Qwen 3 potrafią przetwarzać tekst, obrazy, dźwięk i wideo, dzięki czemu nadają się do różnych zastosowań, w tym interakcji głosowych w czasie rzeczywistym i analizy danych wizualnych.
  • Dostępność Open Source:Wszystkie modele Qwen 3 są objęte licencją Apache 2.0 i są dostępne za pośrednictwem platform takich jak Hugging Face i ModelScope.

Architektura techniczna

Warianty modelu

Qwen 3 obejmuje szereg modeli odpowiadających różnym potrzebom obliczeniowym:

  • Gęste modeleDostępne w rozmiarach o parametrach 0.6B, 1.7B, 4B, 8B, 14B i 32B.
  • Rzadkie modele:Dołącz model 30B z 3B aktywowanymi parametrami i model 235B z 22B aktywowanymi parametrami.

Architektura ta umożliwia efektywne wdrażanie w różnych konfiguracjach sprzętowych, od urządzeń mobilnych po serwery o wysokiej wydajności.

Zrozumienie kontekstowe

Dzięki oknu kontekstowemu tokena o rozmiarze 128 tys. modeli Qwen 3 mogą zachować spójność podczas dłuższych interakcji, co sprawia, że ​​są one doskonałe do zadań wymagających głębokiego zrozumienia kontekstu, takich jak generowanie długich treści i rozwiązywanie złożonych problemów.

Ewolucja serii Qwen

Od Qwen do Qwen 3

Seria Qwen przeszła znaczącą ewolucję:​

  • Qwen:Wprowadzono jako bazę wstępnie wyszkolonych modeli językowych, wykazujących wyższą wydajność w przypadku różnych zadań.​
  • Czat Qwen:Modele czatów udoskonalone przy użyciu technik dopasowania ludzkiego, prezentujące zaawansowane możliwości wykorzystania narzędzi i planowania.​
  • Qwen2: Rozszerzono zestaw modeli o modele języka dostrojonego do instrukcji, zawierające zakresy parametrów od 0.5 do 72 miliardów. Flagowy model, Qwen2-72B, wykazał niezwykłą wydajność w różnych testach porównawczych.
  • Qwen2.5:Wprowadzono modele takie jak Qwen2.5-Omni, które potrafią przetwarzać tekst, obrazy, filmy i dźwięk oraz generować zarówno tekst, jak i dźwięk.
  • Qwen3:Najnowsza wersja, zawierająca hybrydowe możliwości rozumowania i zwiększoną wydajność, oznacza znaczący postęp w serii.

Wydajność wzorcowa

Znacznie przewyższając poprzednie modele, takie jak QwQ i Qwen2.5, Qwen3 oferuje lepszą matematykę, kodowanie, rozumowanie zdroworozsądkowe, kreatywne pisanie i interaktywne możliwości dialogowe. Wariant Qwen3-30B-A3B obejmuje 30.5 miliarda parametrów (3.3 miliarda aktywowanych), 48 warstw, 128 ekspertów (8 aktywowanych na zadanie) i obsługuje do 131 tys. kontekstów tokenów z YaRN, ustanawiając nowy standard wśród modeli open source.

  • AIME25:Qwen3 zdobył 81.5 punktów, ustanawiając nowy rekord open source.
  • LiveCodeBench: Qwen3 zdobył ponad 70 punktów, lepiej nawet niż Grok3.
  • ArenaHard: Qwen3 prześcignął OpenAl-o1 i DeepSeek-FR1, zdobywając 95.6 punktów.

Przykład kodu

Programiści mogą wchodzić w interakcję z modelami Qwen 3, korzystając z następującego fragmentu kodu Python:

from transformers import AutoTokenizer, AutoModelForCausalLM

# Load tokenizer and model

tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")

# Encode input prompt

input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")

# Generate response

output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)

print(response)

W tym przykładzie pokazano, jak załadować model Qwen 3 i wygenerować odpowiedź na zadane pytanie, korzystając z biblioteki Hugging Face Transformers.

Podsumowanie

Qwen 3 stanowi znaczący kamień milowy w rozwoju AI Alibaby, oferując ulepszone możliwości rozumowania, skalowalność i obsługę multimodalną. Jego dostępność typu open source na licencji Apache 2.0 zachęca do powszechnego przyjęcia i dalszych innowacji w społeczności AI. W miarę jak krajobraz AI nadal ewoluuje, Qwen 3 pozycjonuje Alibabę jako potężnego gracza zarówno na arenie krajowej, jak i globalnej.


Jak zadzwonić Qwen 3 API z CometAPI

Qwen 3 Cennik API w CometAPI:

Wersja modeluQwen3 235B A22BQwen3 30B A3BQwen3 8B
Cena w CometAPIŻetony wejściowe: 1.6 USD / mln żetonówŻetony wejściowe: 0.4$/M żetonówŻetony wejściowe: 0.32 USD / mln żetonów
Tokeny wyjściowe: 4.8 USD / mln tokenówTokeny wyjściowe: 1.2 USD / mln tokenówTokeny wyjściowe: 0.96 USD / mln tokenów
Nazwa modeluqwen3-235b-a22bqwen3-30b-a3bqwen3-8b
zilustrowaćTo flagowy model serii Qwen3 z 235 miliardami parametrów i architekturą Mixture of Experts (MoE).qwen3-30b-a3b: Dzięki 30 miliardom parametrów równoważy wymagania dotyczące wydajności i zasobów, co jest przydatne w przypadku aplikacji klasy korporacyjnej.Lekki model z 800 milionami parametrów, zaprojektowany specjalnie dla środowisk o ograniczonych zasobach (takich jak urządzenia mobilne lub serwery o niskich wymaganiach konfiguracyjnych).

Wymagane kroki

  • Zaloguj się do pl.com. Jeśli jeszcze nie jesteś naszym użytkownikiem, zarejestruj się najpierw
  • Pobierz klucz API uwierzytelniania dostępu do interfejsu. Kliknij „Dodaj token” przy tokenie API w centrum osobistym, pobierz klucz tokena: sk-xxxxx i prześlij.
  • Uzyskaj adres URL tej witryny: https://api.cometapi.com/

Metody użytkowania

  1. Wybierz "qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b” punkt końcowy do wysłania żądania API i ustawienia treści żądania. Metoda żądania i treść żądania są pobierane z naszej witryny internetowej API doc. Nasza witryna internetowa udostępnia również test Apifox dla Twojej wygody.
  2. Zastępować za pomocą aktualnego klucza CometAPI ze swojego konta.
  3. Wpisz swoje pytanie lub prośbę w polu treści — model odpowie właśnie na tę wiadomość.
  4. . Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź.

Aby uzyskać informacje o modelu uruchomionym w interfejsie API Comet, zobacz https://api.cometapi.com/new-model.

Informacje o cenie modelu w interfejsie API Comet można znaleźć tutaj https://api.cometapi.com/pricing.

Zobacz także Qwen 2.5 Max API

SHARE THIS BLOG

500+ modeli w jednym API

Do 20% zniżki