Etter hvert som kunstig intelligens fortsetter å utvikle seg, fremstår Alibabas Qwen 2.5 som en formidabel konkurrent innen store språkmodeller (LLM-er). Qwen 2025 ble utgitt tidlig i 2.5 og kan skryte av betydelige forbedringer i forhold til forgjengerne, og tilbyr en rekke funksjoner som dekker et bredt spekter av applikasjoner – fra programvareutvikling og matematisk problemløsning til generering av flerspråklig innhold og mer.
Denne artikkelen dykker ned i detaljene i Qwen 2.5, og gir en detaljert oversikt over arkitekturen, funksjonene og de praktiske bruksområdene. Enten du er en utvikler, forsker eller forretningsprofesjonell, kan det å forstå hvordan du kan utnytte Qwen 2.5 åpne opp for nye muligheter i arbeidet ditt.
Hva er Qwen 2.5?
Qwen 2.5 er Alibaba Clouds 2025-generasjons modellfamilie med store språk som spenner over 1.5 B til 72 B parametere (og en 32 B resonneringsoptimalisert søsken) og driver nå kommersielle, forsknings- og forbrukerprodukter som Qwen Chat, DashScope og en OpenAI-kompatibel API-gateway. Sammenlignet med Qwen 2 introduserer 2.5-linjen (i) en Mixture-of-Experts (MoE)-kjerne for effektivitet, (ii) opplæring på ~20 B tokens, (iii) sterkere instruksjonsfølgelse, koding og flerspråklig resonnering, (iv) visjonsspråk (VL) og fullt multimodale "Omni"-varianter, og (v) distribusjonsalternativer som spenner fra Alibaba Cloud til selvhosting via GitHub, Hugging Face, ModelScope og Docker/OLLAMA.
Alle størrelser har en fellesnevner oppskrift før trening men avviker i sine finjustering av instruksjoner lag: Qwen-Chat (for åpen dialog) og Qwen-Base (for finjustering nedstrøms). De større kontrollpunktene inkluderer i tillegg Qwen 2.5-Max, en sparsom Mixture-of-Experts (MoE)-utgave som aktiverer 2.7 B-parametere per token for mye lavere slutningskostnader på GPU-er.
Arkitektoniske høydepunkter på Qwen 2.5
Arkitektonisk skifte
Qwen 2.5 representerer et betydelig sprang innen utvikling av AI-modeller, hovedsakelig på grunn av den omfattende opplæringen og den raffinerte arkitekturen. Modellen ble forhåndstrent på et kolossalt datasett som besto av 18 billioner tokens, en betydelig økning fra de 7 billionene tokens som ble brukt i forgjengeren, Qwen 2. Dette omfattende opplæringsdatasettet forbedrer modellens forståelse av språk, resonnement og domenespesifikk kunnskap.
Qwen 2.5 bruker en sparsom Mixture-of-Experts (MoE)-ryggrad: bare et lite ekspertundersett aktiveres per token, noe som muliggjør høyere effektiv kapasitet uten lineær kostnadsvekst i Qwen. Opplæringen brukte ~20 T tokener og en raffinert datapensum med overvåket finjustering (SFT) pluss RLHF. Referanseindekser publisert av teamet viser store gevinster på MMLU, GSM8K-matematikk og flerspråklig tverrspråklig forståelse i forhold til Qwen 2 og peer 7 B/70 B-grunnlinjene.
Qwen 2.5-modellfamilien
| Edition | Størrelse | Modalitet | Formål og overskrift |
|---|---|---|---|
| Qwen 2.5‑1.5B‑Instruksjon | 1.5 B | tekst | Kantenheter / chatboter der minnet er begrenset |
| Qwen 2.5‑7B‑Instruksjon | 7 B | tekst | Flaggskip LLM med åpen kildekode, 32 29 kontekst og dekning på XNUMX språk |
| Qwen 2.5‑Omni‑7B | 7 B | multimodal (tekst + bilde + lyd + video) | Ende-til-ende modalitetsfusjon |
| Qwen 2.5‑VL‑3B/7B/72B‑Instruct | 3–72 B | Visjonsspråk | Tett teksting, dokumentkvalitetssjekk, OCR, diagramanalyse |
| QwQ‑32B | 32 B | Tekst (resonnement) | MoE spesialisert for matematikk/koding; paritet med DeepSeek R1 671 B til 5 % kostnad |
| Qwen 2.5-Max | ikke oppgitt (multikspert) | tekst | Intern referanseleder, tilgjengelig via API og Qwen Chat |
Viktige funksjoner og referansepunkter
Instruksjonsoppfølging og flerspråklig rekkevidde
Interne dokumenter viser at Qwen 2.5‑7B overgår Llama‑3 8B på AlpacaEval (92 vs 89) og når en seiersrate på 79 % mot GPT‑3.5‑Turbo på kinesisk MT‑Bench. Støttede språk inkluderer tyrkisk, indonesisk, tysk, arabisk og swahili. Et kontekstvindu på 32 kB med glidende posisjonskodinger gir 200-siders PDF-sammendrag uten fragmentering.
Koding og resonnering
QwQ-32B scorer 50.4 % på GSM8K (5-shot) og 74 % på HumanEval-Plus, på nivå med DeepSeek R1 med en tjuendedel av parameterantallet. Tidlige tester i fellesskapet viser at 7B-modellen kan kompilere og feilsøke C++-snupper ved hjelp av g++-13 i en Docker-sandkasse med minimale hallusinasjoner.
Multimodale styrker
Qwen 2.5-VL-72B oppnår 62.7 % på MMMU og 73.4 % på TextVQA, og slår dermed Gemini 1.5-Pro i tabell-OCR-oppgaver (ifølge Qwens januarblogg). Omni-7B utvider dette til lydspektral transkripsjon og MP4-rammesampling via en delt tokeniser.
Lisensiering, sikkerhet og styring
Alibaba beholder Apache 2.0-kode/lisens med en ekstra «Qian-Wen ansvarlig kunstig intelligens» rytter:
- Forbudt: terrorinnhold, desinformasjon og utvinning av personopplysninger.
- Nødvendig: utviklere må implementere innholdsfiltre og vannmerking i nedstrømsapper.
Lisensen tillater kommersiell bruk, men krever modellkortopplysninger hvis vekter endres og distribueres på nytt. På Alibaba Cloud håndheves moderering på serversiden; selvhostende operatører må integrere det åpne kildekode-policygradientfilteret (lenket i repositoriet).
Veikart mot Qwen 3
Bloomberg og PYMNTS rapporterer at Alibaba vil avduke Qwen 3 «så snart som sent i april 2025», sannsynligvis med et hopp til >100 B tette parametere og innebygde verktøybruksmuligheter. Kilder antyder at 4×2048 GPU-klynger på Hanguang 800+ ASIC-er og en Triton-Flash-Attention v3-kjerne er under testing. Qwen 2.5 vil forbli åpen kildekode-grenen, mens Qwen 3 kan debutere under en mer restriktiv lisens som ligner på Metas Llama 3-Commercial.
Praktiske tips for utviklere
- Tokentelling: Qwen bruker QwenTokenizer; dens spesielle token er lik
<|im_end|>i OpenAI-stil-ledetekster. - Systemmeldinger: Pakk med
<|im_start|>system … <|im_end|>for å bevare hierarkiet og unngå synderne på deltavekten. - Finjustering: Bruk LoRA rang-64 kun på lag 20-24; LoRA på tidlig lag gir ubetydelige gevinster på grunn av MoE-sparsitet.
- Streaming: Med DashScope, aktiver
X-DashScope-Stream: true; chunkstørrelsen er 20 tokens. - Qwen-VL-inngang: Kod bildebyte som base64; send via
inputs=.
Konklusjon
Qwen 2.5 befester Alibaba Clouds posisjon i det globale kappløpet om åpen kildekode-LLM ved å kombinere effektivitet innen MoE med en permissiv lisens og en rekke tilgangsruter – fra Qwen Chat med ett klikk til Ollama på en bærbar PC og DashScope-endepunkter i bedriftsklassen. For forskere fyller det transparente opplæringskorpuset og den sterke kinesisk-engelske pariteten et gap etter Metas Llama-serie. For utviklere reduserer det OpenAI-kompatible API-et migreringsfriksjonen, mens de multimodale VL/Omni-grenene forventer en nær fremtid der tekst, bilde, lyd og video konvergerer under et enhetlig token-rom. Når Qwen 3 kommer senere denne måneden, fungerer Qwen 2.5 både som en prøvearena og en robust produksjonsmodell – en som allerede omformer konkurransekalkulusen for storskala AI i 2025.
For utviklere: API-tilgang
CometAPI tilbyr en pris som er langt lavere enn den offisielle prisen for å hjelpe deg med å integrere Qwen API, og du får $1 på kontoen din etter registrering og innlogging! Velkommen til å registrere deg og oppleve CometAPI.
CometAPI fungerer som et sentralisert knutepunkt for APIer av flere ledende AI-modeller, og eliminerer behovet for å engasjere seg med flere API-leverandører separat.
Vennligst se Qwen 2.5 Max API for integreringsdetaljer. CometAPI har oppdatert det siste QwQ-32B API.For mer modellinformasjon i Comet API, se API-dok.


