- juli 2025 lanserte Alibaba Group offisielt Qwen3‑Coder, en åpen kildekode-modell for kunstig intelligens skreddersydd for programvareutvikling og autonome kodeoppgaver. Kunngjøringen posisjonerer Qwen3‑Coder som selskapets mest avanserte kodemodell hittil, med enestående skala og ytelsesegenskaper designet for å møte de komplekse behovene til moderne programvareutviklingsteam.
Flaggskipvarianten, Qwen3-koder-480B-A35B-instruksjon, består av en MoE-modell med 480 milliarder parametere og 35 milliarder aktive parametere, som støtter kontekstvinduer på opptil 256 1 tokener og kan utvides til XNUMX million tokener via ekstrapoleringsteknikker. Denne ekspansive kontekstlengden lar modellen opprettholde sammenheng over store kodebaser, dokumentasjon og flerfilsprosjekter uten å miste oversikten over avhengigheter.
Modellspesifikasjoner og funksjoner for Qwen3‑Coder
Viktige tekniske høydepunkter inkluderer:
Omfattende referansepunkterIfølge Alibaba overgår Qwen3-Coder alle eksisterende modeller for åpen kildekode-koding på benchmarks som SWE-Bench-Verified og agentic-kodingsevalueringer, og demonstrerer overlegen nøyaktighet, effektivitet og kodekvalitet.
Agentisk kodingsrammeverkVed å utnytte langsiktig forsterkninglæring (Agent RL), kan Qwen3-Coder autonomt planlegge kodeoppgaver, aktivere eksterne utviklerverktøy og selvkorrigere basert på tilbakemeldingsløkker, som speiler virkelige programvareutviklingsprosesser.
Dobbelte tenkemåterEn enhetlig tenke- og ikke-tenkemodus gjør det mulig for modellen å tilpasse beregningsbudsjetter dynamisk, og veksle mellom rask respons for enkle skript og dypere resonnement for intrikate algoritmiske utfordringer.
Performance Benchmarks
I interne målestokker overgikk Qwen3-Coder ledende innenlandske konkurrenter, inkludert DeepSeek og Moonshot AIs K2, på viktige kodemålinger, som nøyaktighet i kodegenerering og feilsøking av flere filer. Dessuten hevder Alibaba å være på nivå med amerikanske toppmodeller – nemlig OpenAIs GPT-4 og Anthropics Claude – på standard kodeutfordringer, noe som understreker deres konkurranseevne på global skala.
| Modell | Kjøretidsfeil (%) | Grammatikkfeil (%) | Nullpoengsum (%) | Totalt antall feil (%) | Max Resultat | Median poengsum | Median gap (%) |
|---|---|---|---|---|---|---|---|
| OpenAI o4 mini (høy) | 1.11 | 3.33 | 6.67 | 11.11 | 77.75 | 66.75 | 14.16 |
| Claude Sonnet 4 (Tenk) | 1.11 | 5.56 | 3.33 | 10.00 | 75.67 | 66.98 | 11.49 |
| Qwen3-koder-480B-A35B | 5.56 | 4.44 | 10.00 | 20.00 | 72.85 | 52.04 | 28.57 |
| Gemini 2.5 Pro | 2.22 | 7.78 | 8.89 | 18.89 | 72.24 | 58.05 | 19.65 |
| DeepSeek R1 0528 | 3.33 | 5.56 | 13.33 | 22.22 | 69.36 | 49.25 | 29.00 |
| Claude Sonnet 4 | 3.33 | 4.44 | 7.78 | 15.55 | 68.26 | 61.02 | 10.60 |
| GPT-4.1 mini | 2.22 | 7.78 | 3.33 | 13.33 | 64.39 | 50.87 | 20.99 |
| Qwen3-235B-A22B-Instruksjon-2507 | 4.44 | 16.67 | 13.33 | 34.44 | 63.24 | 42.44 | 32.89 |
Trent på en massiv 7.5 billioner token-datasett, med over 70% Av dataene hentet fra kodelagre av høy kvalitet, ble Qwen3-Coder ytterligere forbedret ved hjelp av forsterkningslæring basert på virkelige utviklingsscenarier. Denne finjusteringen etter trening forbedret modellens suksessrate for utførelse og robusthet i å generere korrekt og effektiv kode betydelig.
Qwen3-Coder er nå tilgjengelig på Klemme ansiktet og GitHub, og utviklere kan få tilgang til den via Alibaba Cloud Model Studio API. Det har også blitt integrert i Tongyi Lingma (Qwen-kode), Alibabas AI-kodingsassistent, som gir sømløs utrulling for både bedrifts- og individuelle utviklere.
Qwen-koden
For å legge til rette for bred adopsjon lanserer Alibaba samtidig Qwen-koden, et kommandolinjegrensesnitt bygget oppå Gemini Cli som sømløst kobler Qwen3-Coder til populære utviklingsmiljøer, versjonskontrollsystemer og CI/CD-pipelines. Dette verktøyet har:
- Tilpassede ledetekster og funksjonskallForhåndskonfigurerte interaksjonsmønstre som veileder utviklere gjennom testgenerering, kodegjennomgang og distribusjonsoppgaver.
- Plugin ArchitectureUtvidbare moduler for integrering av tredjeparts feilsøkingsprogrammer, linters og ytelsesprofiler.
- Tilgang til Alibaba Cloud Model StudioAPI-klargjøring med ett klikk, overvåkingsdashbord og finjusteringsalternativer i Alibaba Cloud-økosystemet.
Utviklere kan installere Qwen Code gjennom npm-manageren eller bruke kildekoden fra GitHub. Qwen Code støtter OpenAI SDK som kaller LLM.
Komme i gang
CometAPI er en enhetlig API-plattform som samler over 500 AI-modeller fra ledende leverandører – som OpenAIs GPT-serie, Googles Gemini, Anthropics Claude, Midjourney, Suno og flere – i ett enkelt, utviklervennlig grensesnitt. Ved å tilby konsistent autentisering, forespørselsformatering og svarhåndtering, forenkler CometAPI dramatisk integreringen av AI-funksjoner i applikasjonene dine. Enten du bygger chatboter, bildegeneratorer, musikkomponister eller datadrevne analysepipeliner, lar CometAPI deg iterere raskere, kontrollere kostnader og forbli leverandøruavhengig – alt samtidig som du utnytter de nyeste gjennombruddene på tvers av AI-økosystemet.
Utviklere kan samhandle med Qwen3-koder gjennom et kompatibelt OpenAI-lignende API, tilgjengelig via CometAPI. CometAPI, som tilbyr åpen kildekode (qwen3-coder-480b-a35b-instruct) og kommersielle versjoner (qwen3-coder-plus; qwen3-coder-plus-2025-07-22)til samme pris. Den kommersielle versjonen er 1 MB lang. Eksempelkode for Python (ved bruk av den OpenAI-kompatible klienten) med beste praksis som anbefaler samplingsinnstillinger på temperatur = 0.7, top_p = 0.8, top_k = 20 og repetition_penalty = 1.05. Utdatalengder kan strekke seg opptil 65,536 XNUMX tokens, noe som gjør den egnet for store kodegenereringsoppgaver.
For å begynne, utforsk modellenes muligheter i lekeplass og konsulter API-veiledning for detaljerte instruksjoner. Før du får tilgang, må du sørge for at du har logget inn på CometAPI og fått API-nøkkelen.


