Avkoding av Qwen3s trening: Et dypdykk

CometAPI
AnnaMay 28, 2025
Avkoding av Qwen3s trening: Et dypdykk

Lanseringen av Qwen3, Alibabas nyeste hybride resonneringsmodell for store språk (LLM), har nok en gang omformet konturene av AI-forskning og -applikasjon. Bak de bemerkelsesverdige egenskapene ligger en omhyggelig konstruert opplæringsprosess som spenner over massiv foropplæring på ulike data, arkitektoniske innovasjoner og en flertrinns etteropplæringsprosess. Denne artikkelen pakker ut hvordan Qwen3 trener, og utforsker hver fase fra inntak av rådata til finjustering for resonnement og distribusjon, og besvarer de viktigste spørsmålene som driver design og ytelse.

Hvilke data ligger til grunn for Qwen3s forberedende trening?

Utvidelse av antall tokener: fra billioner til titalls billioner

Qwen3s fundament er bygget på et enestående korpus—over 36 billioner tokens som spenner over mer enn 119 språk og dialekter. Dette representerer nesten dobbelt så mye tokenvolum som ble brukt i forgjengeren, Qwen2.5, som trente på 18 billioner tokener. Ved å skalere datamengden inntar Qwen3 et rikere utvalg av språklige mønstre, verdenskunnskap og domenespesifikt innhold.

Utnyttelse av ulike datakilder: nett, PDF-er og syntetisk innhold

For å sette sammen dette kolossale datasettet kombinerte Alibaba nettcrawlere med PDF-lignende dokumenter behandlet via Qwen2.5-VL, noe som sikrer utvinning av tekniske tekster og akademisk materiale av høy kvalitet. I tillegg utvidet målrettet syntetisk datagenerering – ved hjelp av Qwen2.5-Math og Qwen2.5-Coder – korpuset med millioner av matematiske problemløsninger og kodebiter, noe som styrket STEM- og programmeringsferdigheter.

Hvordan er Qwen3s forberedende treningsprosess strukturert?

Fase 1: Bygge grunnleggende kunnskap

In Fase 1 (S1), Qwen3 er trent på over 30 billioner tokens ved hjelp av en standard 4K-kontekst Transformer-ryggrad. Denne fasen innprenter grunnleggende språkforståelse og generell kunnskap, analogt med å «lære alfabetet» for menneskelig leseferdighet.

Fase 2: Berikelse av kunnskapsintensive evner

Flytter inn Fase 2 (S2), datasettet er balansert på nytt for å understreke kunnskapsintensivt innhold—STEM-tekster, kodeutfordringer og resonneringsoppgaver. En ekstra 5 billioner tokens inntas, noe som skjerper modellens evne til å takle komplekse akademiske og tekniske problemer.

Fase 3: Utvidelse av kontekstlengde

Endelig a langkontekst før-treningsfase utnytter dokumenter av høy kvalitet for å utvide Qwen3s innebygde kontekstvindu til 32 XNUMX tokens, noe som gir den mulighet til å bearbeide og resonnere over lange innspill som forskningsartikler eller instruksjoner i flere trinn.

Hvilke arkitektoniske innovasjoner muliggjør Qwen3s ytelse?

Tette vs. blanding av eksperter (MoE) modeller

Qwen3 tilbyr begge deler tett og Blanding av eksperter (MoE) varianter. Tette modeller varierer fra 0.6B til 32B parametere, mens MoE-versjoner bare aktiverer en liten brøkdel av ekspertene (f.eks. 8 av 128) per token, noe som reduserer aktiv beregning med opptil 90 % uten at det går på bekostning av ytelsen.

Forbedringer av oppmerksomhet og normalisering

Innovasjoner som f.eks normalisering av QK per hode og redesignede oppmerksomhetsskjevheter øker stabiliteten i stor skala. Disse forbedringene gjør det mulig for dypere modeller (opptil 94 lag i Qwen3-235B-A22B) å konvergere effektivt, noe som sikrer konsistente gevinster med økt kapasitet.

Hvordan implementerer Qwen3 hybrid resonnering?

Tenkemodus kontra ikke-tenkemodus

Et kjennetegn ved Qwen3 er dens hybrid resonnement:

  • Tenkemodus: Engasjerer seg i tankekjederesonnement (CoT), og deler opp problemer i mellomtrinn før det produseres et endelig svar.
  • Ikke-tenkende modusGir raske svar uten eksplisitt mellomliggende resonnement.
    Brukere kan veksle moduser via enable_thinking flagg eller innebygde tagger (/think, /no_think), og skreddersy slutningen til oppgavens kompleksitet.

Kontroll av resonnementbudsjetter

Ved å fordele «beregningsbudsjetter» til resonneringstrinn, sikrer Qwen3 balanse mellom kostnad og kvalitet. Vanskeligere oppgaver kan utløse dypere resonnering (mer beregning), mens enklere spørringer forblir raske, noe som gir finkornet kontroll over avveininger mellom slutninger .

Hva innebærer Qwen3s ettertreningsprosjekt?

Finjustering med tankekjedebasert kaldstart

Ocuco første trinn etter trening finjusterer Qwen3 på mangfoldige lange CoT-data, som spenner over matematikk, logiske gåter og kodeproblemer. Denne «kaldstart»-fasen gir en kickstart til modellens eksplisitte resonneringsevner før forsterkningslæring.

Forsterkende læring for resonnement

Trinn 2 skalerer opp databehandling for regelbasert forsterkningslæring (RL), ved hjelp av håndlagde belønningsfunksjoner for å veilede utforskningen av resonneringsbaner. Dette finsliper modellens evne til å generere sammenhengende mellomtrinn uten å avvike fra oppgaven.

Tenkemodusfusjon og generell RL

I trinn 3 slås resonnements- og instruksjonstilpassede data sammen –fusjon av tenkemodus– å blande dyp resonnering med generell instruksjonsfølging. Til slutt anvender trinn 4 språklig styring på tvers av 20+ oppgaver innen det generelle domenet (f.eks. formatetterlevelse, agentfunksjoner), korriger uønsket atferd og finpusse flyt.

Hvordan er Qwen3 forskjellig fra Qwen2.5?

Mens Qwen2.5 etablerte Alibabas lederskap innen åpne LLM-er, bringer Qwen3 flere sentrale forbedringer:

TrekkQwen2.5Qwen3
ParameterskalaerOpptil 72B (tett)Opptil 235B (MoE) + tette alternativer
Kontekstvindu16 XNUMX tokens128 XNUMX tokens (de fleste varianter)
Språkdekning29 språk119 språk og dialekter
Integrering av resonnementSeparat resonneringsmodellEnhetlige tenke-/ikke-tenkende moduser
Tilgjengelighet i åpen vektJa (Apache 2.0)Ja (Apache 2.0)

Disse oppgraderingene fører til mer allsidige, nøyaktige og globalt tilgjengelige modeller.

Hvordan er Qwen3 optimalisert for distribusjon i sanntid?

Utover opplæring legger Qwen3s ingeniørarbeid vekt på lav latens-inferens og skalerbar distribusjon for å støtte agenter og medpiloter i produksjonsklasse.

Maskinvareakselerasjon på Cerebras

Cerebras har demonstrert sanntidsresonnement med Qwen3-32B, og leverer svar innen 1.2 sekunder – opptil 60 ganger raskere enn sammenlignbare resonnementsmodeller – ved å utnytte sin wafer-skala-motor og spesialiserte inferenskjerner optimalisert for Qwen3s arkitektur.

Skydistribusjon og API-klargjøring

Alibaba Cloud tilbyr Qwen3 gjennom sin API-pakke, med automatisk skalerende GPU-klynger og inferensoptimaliserte CPU-noder. Utviklere kan finjustere og distribuere Qwen3-varianter ved hjelp av innebygd LoRA-støtte for å redusere ressursforbruket, noe som gjør storskala AI-tjenester kostnadseffektive og tilgjengelige.

Hvordan kan utviklere utnytte Qwen3?

Alibaba har lansert Qwen3 under Apache 2.0 lisens, som inviterer det globale forskningsmiljøet og bedriftsutviklere til å ta i bruk, tilpasse og utvide modellfamilien for spesialiserte applikasjoner.

Hvilke varianter er tilgjengelige?

  • Tette modeller (0.6B, 3B, 22B, 32B)
    Disse variantene er ideelle for lokale distribusjoner og kantscenarioer, og leverer robuste funksjoner med enkel integrering.
  • MoE-modeller (235B totale parametere; 22B aktive)
    Disse større konfigurasjonene er utviklet for skytjenester med høy gjennomstrømning, og tilbyr maksimal resonneringsdybde og flerspråklig flyt med optimalisert ressursutnyttelse.

Hvordan er API- og lokale alternativer forskjellige?

Utviklere kan velge mellom:

  • Alibaba Cloud APIEt administrert endepunkt med autoskalering, som muliggjør rask prototyping og global distribusjon.
  • Selvhostet distribusjonDocker-containere og Kubernetes-manifester leveres, noe som forenkler samsvarstunge scenarier der datalagring og sikkerhet er avgjørende.
  • CometAPIUtviklere har tilgang Qwen 3 API gjennom CometAPICometAPI tilbyr et enhetlig REST-grensesnitt som samler hundrevis av AI-modeller.

Hvilken støtte fra lokalsamfunn og økosystemer finnes?

  • Åpen kildekode-arkivQwen GitHub inneholder modellvekter, treningsskript og finjusteringsverktøysett, som oppmuntrer til fellesskapsdrevet innovasjon.
  • Forhåndsbygde integrasjonerProgramtillegg for populære ML-rammeverk (TensorFlow, PyTorch) og tredjepartsplattformer (LangChain, Hugging Face) akselererer tiden til verdiskaping.
  • ForskningssamarbeidAlibaba har publisert hele den tekniske rapporten for Qwen3 på arXiv, som gir åpenhet om arkitekturbeslutninger og opplæringsmetoder.

Gjennom massiv, flertrinns foropplæring, arkitektoniske gjennombrudd og en sofistikert etteropplæringsprosess, oppnår Qwen3 en ny standard innen hybrid resonnering. De fleksible tenkemåtene, effektive MoE-variantene og det rike distribusjonsøkosystemet plasserer det i forkant av åpen kildekode-AI, og gir forskere og utviklere muligheten til å bygge neste generasjon intelligente agenter.

Komme i gang

CometAPI tilbyr et enhetlig REST-grensesnitt som samler hundrevis av AI-modeller – under et konsistent endepunkt, med innebygd API-nøkkeladministrasjon, brukskvoter og faktureringsdashboards. I stedet for å sjonglere flere leverandør-URL-er og legitimasjonsinformasjon.

Utviklere har tilgang Qwen 3 API gjennom CometAPIFor å begynne, utforsk modellens muligheter på lekeplassen og se på API-veiledning for detaljerte instruksjoner. Før du får tilgang, må du sørge for at du har logget inn på CometAPI og fått API-nøkkelen.

Les mer

500+ modeller i ett API

Opptil 20 % rabatt