23 lipca 2025 roku Alibaba Group oficjalnie wprowadziła na rynek Qwen3‑Coder, model sztucznej inteligencji typu open source, dostosowany do tworzenia oprogramowania i zadań autonomicznego kodowania. Ogłoszenie to plasuje Qwen3‑Coder jako najbardziej zaawansowany model kodowania firmy, oferujący niespotykane dotąd możliwości skalowania i wydajności, zaprojektowane z myślą o złożonych potrzebach współczesnych zespołów inżynierów oprogramowania.
Wersja flagowa, Qwen3‑Coder‑480B‑A35B‑Instruct, składa się z modelu MoE o 480 miliardach parametrów i 35 miliardach aktywnych parametrów, natywnie obsługującego okna kontekstowe do 256 tysięcy tokenów i rozszerzalnego do miliona tokenów za pomocą technik ekstrapolacji. Ta rozbudowana długość kontekstu pozwala modelowi zachować spójność w dużych bazach kodu, dokumentacji i projektach wieloplikowych bez utraty kontroli nad zależnościami.
Specyfikacje modelu i możliwości Qwen3‑Coder
Do najważniejszych cech technicznych należą:
Obszerne testy porównawczeWedług Alibaby, Qwen3‑Coder przewyższa wszystkie istniejące modele kodowania open-source w testach porównawczych, takich jak SWE‑Bench‑Verified, oraz ocenach kodowania agentowego, wykazując się wyższą dokładnością, wydajnością i jakością kodu.
Framework kodowania agentowego: Wykorzystując długoterminowe uczenie się przez wzmacnianie (Agent RL), Qwen3‑Coder może autonomicznie planować zadania kodowania, wywoływać zewnętrzne narzędzia programistyczne i samoczynnie korygować na podstawie pętli sprzężenia zwrotnego, odzwierciedlając rzeczywiste procesy inżynierii oprogramowania.
Podwójne tryby myślenia:Ujednolicony tryb myślenia i niemyślenia pozwala modelowi na dynamiczne dostosowywanie budżetów obliczeniowych, przełączając się między szybką reakcją w przypadku prostych skryptów a głębszym rozumowaniem w przypadku złożonych wyzwań algorytmicznych.
Benchmarki wydajności
W wewnętrznych testach porównawczych Qwen3‑Coder przewyższył czołowych krajowych konkurentów, w tym DeepSeek i K2 firmy Moonshot AI, pod względem kluczowych parametrów kodowania, takich jak dokładność generowania kodu i debugowanie wieloplikowe. Co więcej, Alibaba twierdzi, że dorównuje czołowym amerykańskim modelom – a mianowicie GPT‑4 firmy OpenAI i Claude firmy Anthropic – w zakresie standardowych wyzwań związanych z kodowaniem, co podkreśla jego globalną konkurencyjność.
| Model | Błędy w czasie wykonywania (%) | Błędy gramatyczne (%) | Współczynnik zerowego wyniku (%) | Całkowita liczba awarii (%) | max-line | Mediana wyniku | Mediana różnicy (%) |
|---|---|---|---|---|---|---|---|
| OpenAI o4 mini (wysoki) | 1.11 | 3.33 | 6.67 | 11.11 | 77.75 | 66.75 | 14.16 |
| Sonet Claude'a 4 (Myśl) | 1.11 | 5.56 | 3.33 | 10.00 | 75.67 | 66.98 | 11.49 |
| Qwen3-Coder-480B-A35B | 5.56 | 4.44 | 10.00 | 20.00 | 72.85 | 52.04 | 28.57 |
| Bliźnięta 2.5 Pro | 2.22 | 7.78 | 8.89 | 18.89 | 72.24 | 58.05 | 19.65 |
| Głębokie wyszukiwanie R1 0528 | 3.33 | 5.56 | 13.33 | 22.22 | 69.36 | 49.25 | 29.00 |
| Sonet Claude'a 4 | 3.33 | 4.44 | 7.78 | 15.55 | 68.26 | 61.02 | 10.60 |
| GPT-4.1 mini | 2.22 | 7.78 | 3.33 | 13.33 | 64.39 | 50.87 | 20.99 |
| Qwen3-235B-A22B-Instruct-2507 | 4.44 | 16.67 | 13.33 | 34.44 | 63.24 | 42.44 | 32.89 |
Wyszkolony na masową skalę 7.5 biliona danych o tokenach, z ponad 70% Spośród danych pochodzących z wysokiej jakości repozytoriów kodu, Qwen3-Coder został dodatkowo udoskonalony za pomocą uczenia wzmacniającego opartego na rzeczywistych scenariuszach programistycznych. To dostrajanie po treningu znacząco poprawiło wskaźnik powodzenia wykonania modelu oraz jego niezawodność w generowaniu poprawnego i wydajnego kodu.
Qwen3-Coder jest już dostępny na Przytulanie Twarzy oraz GitHub, a deweloperzy mogą uzyskać do niego dostęp za pośrednictwem Alibaba Cloud Model Studio API. Zostało również zintegrowane z **Tongyi Lingma (kod Qwen)**Asystent kodowania AI firmy Alibaba, zapewniający bezproblemową implementację zarówno dla przedsiębiorstw, jak i indywidualnych programistów.
Kod Qwen
Aby ułatwić szerokie przyjęcie, Alibaba jednocześnie udostępnia Kod Qwen, interfejs wiersza poleceń oparty na Gemini Cli, który płynnie łączy Qwen3‑Coder z popularnymi środowiskami programistycznymi, systemami kontroli wersji i procesami CI/CD. To narzędzie oferuje:
- Niestandardowe monity i wywoływanie funkcji:Wstępnie skonfigurowane wzorce interakcji, które prowadzą programistów przez generowanie testów, przegląd kodu i zadania wdrażania.
- Architektura wtyczek:Rozszerzalne moduły umożliwiające integrację debugerów, linterów i profilowników wydajności innych firm.
- Dostęp do Alibaba Cloud Model Studio: Udostępnianie interfejsu API za pomocą jednego kliknięcia, monitorowanie pulpitów nawigacyjnych i opcje dostrajania w ekosystemie Alibaba Cloud.
Programiści mogą zainstalować Qwen Code za pomocą menedżera npm lub skorzystać z kodu źródłowego z serwisu GitHub. Qwen Code obsługuje pakiet OpenAI SDK wywołujący LLM.
Jak zacząć
CometAPI to ujednolicona platforma API, która agreguje ponad 500 modeli AI od wiodących dostawców — takich jak seria GPT firmy OpenAI, Gemini firmy Google, Claude firmy Anthropic, Midjourney, Suno i innych — w jednym, przyjaznym dla programistów interfejsie. Oferując spójne uwierzytelnianie, formatowanie żądań i obsługę odpowiedzi, CometAPI radykalnie upraszcza integrację możliwości AI z aplikacjami. Niezależnie od tego, czy tworzysz chatboty, generatory obrazów, kompozytorów muzycznych czy oparte na danych potoki analityczne, CometAPI pozwala Ci szybciej iterować, kontrolować koszty i pozostać niezależnym od dostawcy — wszystko to przy jednoczesnym korzystaniu z najnowszych przełomów w ekosystemie AI.
Programiści mogą wchodzić w interakcje z Koder Qwen3 poprzez zgodny interfejs API w stylu OpenAI, dostępny za pośrednictwem CometAPI. Interfejs API Comet, które oferują oprogramowanie Open Source(qwen3-coder-480b-a35b-instruct) i wersje komercyjne(qwen3-coder-plus; qwen3-coder-plus-2025-07-22)w tej samej cenie. Wersja komercyjna ma długość 1 MB. Przykładowy kod dla Pythona (z wykorzystaniem klienta zgodnego z OpenAI) z najlepszymi praktykami zalecającymi ustawienia próbkowania: temperatura = 0.7, top_p = 0.8, top_k = 20 i kara za powtórzenie = 1.05. Długość danych wyjściowych może sięgać 65,536 XNUMX tokenów, co czyni ją odpowiednią do zadań generowania dużego kodu.
Na początek zapoznaj się z możliwościami modeli w Plac zabaw i zapoznaj się z Przewodnik po API aby uzyskać szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API.


