Qwen 2.5: Hva det er, arkitektur og referansepunkter

CometAPI
AnnaDec 4, 2025
Qwen 2.5: Hva det er, arkitektur og referansepunkter

Etter hvert som kunstig intelligens fortsetter å utvikle seg, fremstår Alibabas Qwen 2.5 som en formidabel konkurrent innen store språkmodeller (LLM-er). Qwen 2025 ble utgitt tidlig i 2.5 og kan skryte av betydelige forbedringer i forhold til forgjengerne, og tilbyr en rekke funksjoner som dekker et bredt spekter av applikasjoner – fra programvareutvikling og matematisk problemløsning til generering av flerspråklig innhold og mer.

Denne artikkelen dykker ned i detaljene i Qwen 2.5, og gir en detaljert oversikt over arkitekturen, funksjonene og de praktiske bruksområdene. Enten du er en utvikler, forsker eller forretningsprofesjonell, kan det å forstå hvordan du kan utnytte Qwen 2.5 åpne opp for nye muligheter i arbeidet ditt.

Hva er Qwen 2.5?

Qwen 2.5 er Alibaba Clouds 2025-generasjons modellfamilie med store språk som spenner over 1.5 B til 72 B parametere (og en 32 B resonneringsoptimalisert søsken) og driver nå kommersielle, forsknings- og forbrukerprodukter som Qwen Chat, DashScope og en OpenAI-kompatibel API-gateway. Sammenlignet med Qwen 2 introduserer 2.5-linjen (i) en Mixture-of-Experts (MoE)-kjerne for effektivitet, (ii) opplæring på ~20 B tokens, (iii) sterkere instruksjonsfølgelse, koding og flerspråklig resonnering, (iv) visjonsspråk (VL) og fullt multimodale "Omni"-varianter, og (v) distribusjonsalternativer som spenner fra Alibaba Cloud til selvhosting via GitHub, Hugging Face, ModelScope og Docker/OLLAMA.

Alle størrelser har en fellesnevner oppskrift før trening men avviker i sine finjustering av instruksjoner lag: Qwen-Chat (for åpen dialog) og Qwen-Base (for finjustering nedstrøms). De større kontrollpunktene inkluderer i tillegg Qwen 2.5-Max, en sparsom Mixture-of-Experts (MoE)-utgave som aktiverer 2.7 B-parametere per token for mye lavere slutningskostnader på GPU-er.

Arkitektoniske høydepunkter på Qwen 2.5

Arkitektonisk skifte

Qwen 2.5 representerer et betydelig sprang innen utvikling av AI-modeller, hovedsakelig på grunn av den omfattende opplæringen og den raffinerte arkitekturen. Modellen ble forhåndstrent på et kolossalt datasett som besto av 18 billioner tokens, en betydelig økning fra de 7 billionene tokens som ble brukt i forgjengeren, Qwen 2. Dette omfattende opplæringsdatasettet forbedrer modellens forståelse av språk, resonnement og domenespesifikk kunnskap.

Qwen 2.5 bruker en sparsom Mixture-of-Experts (MoE)-ryggrad: bare et lite ekspertundersett aktiveres per token, noe som muliggjør høyere effektiv kapasitet uten lineær kostnadsvekst i Qwen. Opplæringen brukte ~20 T tokener og en raffinert datapensum med overvåket finjustering (SFT) pluss RLHF. Referanseindekser publisert av teamet viser store gevinster på MMLU, GSM8K-matematikk og flerspråklig tverrspråklig forståelse i forhold til Qwen 2 og peer 7 B/70 B-grunnlinjene.

Qwen 2.5-modellfamilien

EditionStørrelseModalitetFormål og overskrift
Qwen 2.5‑1.5B‑Instruksjon1.5 BtekstKantenheter / chatboter der minnet er begrenset
Qwen 2.5‑7B‑Instruksjon7 BtekstFlaggskip LLM med åpen kildekode, 32 29 kontekst og dekning på XNUMX språk
Qwen 2.5‑Omni‑7B7 Bmultimodal (tekst + bilde + lyd + video)Ende-til-ende modalitetsfusjon
Qwen 2.5‑VL‑3B/7B/72B‑Instruct3–72 BVisjonsspråkTett teksting, dokumentkvalitetssjekk, OCR, diagramanalyse
QwQ‑32B32 BTekst (resonnement)MoE spesialisert for matematikk/koding; paritet med DeepSeek R1 671 B til 5 % kostnad
Qwen 2.5-Maxikke oppgitt (multikspert)tekstIntern referanseleder, tilgjengelig via API og Qwen Chat

Viktige funksjoner og referansepunkter

Instruksjonsoppfølging og flerspråklig rekkevidde

Interne dokumenter viser at Qwen 2.5‑7B overgår Llama‑3 8B på AlpacaEval (92 vs 89) og når en seiersrate på 79 % mot GPT‑3.5‑Turbo på kinesisk MT‑Bench. Støttede språk inkluderer tyrkisk, indonesisk, tysk, arabisk og swahili. Et kontekstvindu på 32 kB med glidende posisjonskodinger gir 200-siders PDF-sammendrag uten fragmentering.

Koding og resonnering

QwQ-32B scorer 50.4 % på GSM8K (5-shot) og 74 % på HumanEval-Plus, på nivå med DeepSeek R1 med en tjuendedel av parameterantallet. Tidlige tester i fellesskapet viser at 7B-modellen kan kompilere og feilsøke C++-snupper ved hjelp av g++-13 i en Docker-sandkasse med minimale hallusinasjoner.

Multimodale styrker

Qwen 2.5-VL-72B oppnår 62.7 % på MMMU og 73.4 % på TextVQA, og slår dermed Gemini 1.5-Pro ​​i tabell-OCR-oppgaver (ifølge Qwens januarblogg). Omni-7B utvider dette til lydspektral transkripsjon og MP4-rammesampling via en delt tokeniser.


Lisensiering, sikkerhet og styring

Alibaba beholder Apache 2.0-kode/lisens med en ekstra «Qian-Wen ansvarlig kunstig intelligens» rytter:

  • Forbudt: terrorinnhold, desinformasjon og utvinning av personopplysninger.
  • Nødvendig: utviklere må implementere innholdsfiltre og vannmerking i nedstrømsapper.

Lisensen tillater kommersiell bruk, men krever modellkortopplysninger hvis vekter endres og distribueres på nytt. På Alibaba Cloud håndheves moderering på serversiden; selvhostende operatører må integrere det åpne kildekode-policygradientfilteret (lenket i repositoriet).


Veikart mot Qwen 3

Bloomberg og PYMNTS rapporterer at Alibaba vil avduke Qwen 3 «så snart som sent i april 2025», sannsynligvis med et hopp til >100 B tette parametere og innebygde verktøybruksmuligheter. Kilder antyder at 4×2048 GPU-klynger på Hanguang 800+ ASIC-er og en Triton-Flash-Attention v3-kjerne er under testing. Qwen 2.5 vil forbli åpen kildekode-grenen, mens Qwen 3 kan debutere under en mer restriktiv lisens som ligner på Metas Llama 3-Commercial.


Praktiske tips for utviklere

  1. Tokentelling: Qwen bruker QwenTokenizer; dens spesielle token er lik <|im_end|> i OpenAI-stil-ledetekster.
  2. Systemmeldinger: Pakk med <|im_start|>system … <|im_end|> for å bevare hierarkiet og unngå synderne på deltavekten.
  3. Finjustering: Bruk LoRA rang-64 kun på lag 20-24; LoRA på tidlig lag gir ubetydelige gevinster på grunn av MoE-sparsitet.
  4. Streaming: Med DashScope, aktiver X-DashScope-Stream: true; chunkstørrelsen er 20 tokens.
  5. Qwen-VL-inngang: Kod bildebyte som base64; send via inputs=.

Konklusjon

Qwen 2.5 befester Alibaba Clouds posisjon i det globale kappløpet om åpen kildekode-LLM ved å kombinere effektivitet innen MoE med en permissiv lisens og en rekke tilgangsruter – fra Qwen Chat med ett klikk til Ollama på en bærbar PC og DashScope-endepunkter i bedriftsklassen. For forskere fyller det transparente opplæringskorpuset og den sterke kinesisk-engelske pariteten et gap etter Metas Llama-serie. For utviklere reduserer det OpenAI-kompatible API-et migreringsfriksjonen, mens de multimodale VL/Omni-grenene forventer en nær fremtid der tekst, bilde, lyd og video konvergerer under et enhetlig token-rom. Når Qwen 3 kommer senere denne måneden, fungerer Qwen 2.5 både som en prøvearena og en robust produksjonsmodell – en som allerede omformer konkurransekalkulusen for storskala AI i 2025.

For utviklere: API-tilgang

CometAPI tilbyr en pris som er langt lavere enn den offisielle prisen for å hjelpe deg med å integrere Qwen API, og du får $1 på kontoen din etter registrering og innlogging! Velkommen til å registrere deg og oppleve CometAPI.

CometAPI fungerer som et sentralisert knutepunkt for APIer av flere ledende AI-modeller, og eliminerer behovet for å engasjere seg med flere API-leverandører separat.

Vennligst se Qwen 2.5 Max API for integreringsdetaljer. CometAPI har oppdatert det siste QwQ-32B API.For mer modellinformasjon i Comet API, se API-dok.

SHARE THIS BLOG

500+ modeller i ett API

Opptil 20 % rabatt