I takt med at kunstig intelligens fortsætter med at udvikle sig, fremstår Alibabas Qwen 2.5 som en formidabel konkurrent inden for store sprogmodeller (LLM'er). Qwen 2025, der blev udgivet i begyndelsen af 2.5, kan prale af betydelige forbedringer i forhold til sine forgængere og tilbyder en række funktioner, der henvender sig til en bred vifte af applikationer - fra softwareudvikling og matematisk problemløsning til generering af flersproget indhold og mere til.
Denne artikel dykker ned i detaljerne i Qwen 2.5 og giver et detaljeret overblik over dens arkitektur, funktioner og praktiske anvendelser. Uanset om du er udvikler, forsker eller forretningsprofessionel, kan forståelsen af, hvordan du udnytter Qwen 2.5, åbne op for nye muligheder i dit arbejde.
Hvad er Qwen 2.5?
Qwen 2.5 er Alibaba Clouds 2025-generations store sprogmodelfamilie, der spænder over 1.5 B til 72 B parametre (og en 32 B ræsonnementsoptimeret søster) og nu driver kommercielle, forsknings- og forbrugerprodukter såsom Qwen Chat, DashScope og en OpenAI-kompatibel API-gateway. Sammenlignet med Qwen 2 introducerer 2.5-linjen (i) en Mixture-of-Experts (MoE) kerne for effektivitet, (ii) træning på ~20 T tokens, (iii) stærkere instruktionsfølgende, kodnings- og flersproget ræsonnement, (iv) vision-language (VL) og fuldt multimodale "Omni"-varianter, og (v) implementeringsmuligheder lige fra Alibaba Cloud til selvhosting via GitHub, Hugging Face, ModelScope og Docker/OLLAMA.
Alle størrelser deler en fællesnævner opskrift før træning men afviger i deres finjustering af instruktion lag: Qwen-Chat (til åben dialog) og Qwen-Base (til finjustering downstream). De større kontrolpunkter inkluderer desuden Qwen 2.5-Max, en sparsom Mixture-of-Experts (MoE)-udgave, der aktiverer 2.7 B-parametre pr. token for at opnå meget lavere inferensomkostninger på GPU'er.
Arkitektoniske højdepunkter i Qwen 2.5
Arkitektonisk skift
Qwen 2.5 repræsenterer et betydeligt spring inden for udvikling af AI-modeller, primært på grund af dens omfattende træning og raffinerede arkitektur. Modellen blev præ-trænet på et kolossalt datasæt bestående af 18 billioner tokens, en betydelig stigning fra de 7 billioner tokens, der blev brugt i dens forgænger, Qwen 2. Dette omfattende træningsdatasæt forbedrer modellens forståelse af sprog, ræsonnement og domænespecifik viden.
Qwen 2.5 anvender en sparsom Mixture-of-Experts (MoE) rygrad: kun en lille ekspertdelmængde aktiveres pr. token, hvilket muliggør højere effektiv kapacitet uden lineær omkostningsvækst i Qwen. Træningen brugte ~20 T tokens og et raffineret datapensum med overvåget finetuning (SFT) plus RLHF. Benchmarks offentliggjort af teamet viser store gevinster på MMLU, GSM8K-matematik og flersproget tværsproget forståelse i forhold til Qwen 2 og peer 7 B/70 B-basislinjerne.
Qwen 2.5-modelfamilien
| Edition | Størrelse | Modalitet | Formål og overskrift |
|---|---|---|---|
| Qwen 2.5‑1.5B‑Instruktion | 1.5 B | tekst | Edge-enheder / chatbots hvor hukommelsen er begrænset |
| Qwen 2.5‑7B‑Instruktion | 7 B | tekst | Flagskibsuddannelse inden for open source-juridisk undervisning med 32 kontekst og dækning af 29 sprog |
| Qwen 2.5‑Omni‑7B | 7 B | multimodal (tekst + billede + lyd + video) | End-to-end modalitetsfusion |
| Qwen 2.5‑VL‑3B/7B/72B‑Instruct | 3–72 B | Visionssprog | Tæt tekstning, dokumentkvalitetskontrol, OCR, diagramanalyse |
| QwQ‑32B | 32 B | Tekst (argumentation) | MoE specialiseret i matematik/kodning; paritet med DeepSeek R1 671 B til 5 % pris |
| Qwen 2.5-Max | ikke oplyst (multiekspert) | tekst | Intern benchmark-leder, tilgængelig via API og Qwen Chat |
Nøglefunktioner og benchmarks
Instruktionsfølgende og flersproget rækkevidde
Interne dokumenter viser, at Qwen 2.5‑7B overgår Llama‑3 8B på AlpacaEval (92 vs 89) og når en sejrsrate på 79 % mod GPT‑3.5‑Turbo på kinesisk MT‑Bench. Understøttede sprog inkluderer tyrkisk, indonesisk, tysk, arabisk og swahili. Et 32k kontekstvindue med positionskoder med glidende reb giver 200 siders PDF-opsummering uden fragmentering.
Kodning og ræsonnement
QwQ-32B scorer 50.4 % på GSM8K (5-skud) og 74 % på HumanEval-Plus, på niveau med DeepSeek R1 med en tyvendedel af parameterantallet. Tidlige community-tests viser, at 7B-modellen kan kompilere og debugge C++-snippets ved hjælp af g++-13 i en Docker-sandkasse med minimale hallucinationer.
Multimodale styrker
Qwen 2.5-VL-72B opnår 62.7 % på MMMU og 73.4 % på TextVQA, hvilket overgår Gemini 1.5-Pro i tabel-OCR-opgaver (ifølge Qwens januar-blog). Omni-7B udvider dette til lydspektral transkription og MP4-frame sampling via en delt tokeniser.
Licensering, sikkerhed og styring
Alibaba beholder Apache 2.0-kode/licens med en ekstra "Qian-Wen Ansvarlig AI" rytter:
- Forbudt: terrorindhold, desinformation og udtræk af personoplysninger.
- Påkrævet: Udviklere skal implementere indholdsfiltre og vandmærkning i downstream-apps.
Licensen tillader kommerciel brug, men kræver modelkortoplysninger hvis vægte ændres og omimplementeres. På Alibaba Cloud håndhæves moderering på serversiden; selvhostende udbydere skal integrere det åbne policygradientfilter (linket i repoet).
Køreplan mod Qwen 3
Bloomberg og PYMNTS rapporterer, at Alibaba vil afsløre Qwen 3 "så snart som slutningen af april 2025", sandsynligvis med et spring til >100 B tætte parametre og native værktøjsbrugsmuligheder. Insidere antyder, at 4×2048 GPU-klynger på Hanguang 800+ ASIC'er og en Triton-Flash-Attention v3-kerne er under test. Qwen 2.5 vil forblive open source-grenen, mens Qwen 3 muligvis debuterer under en mere restriktiv licens svarende til Metas Llama 3-Commercial.
Praktiske tips til udviklere
- Optælling af tokens: Qwen bruger QwenTokenizer; dens særlige token er lig med
<|im_end|>i OpenAI-lignende prompts. - Systemmeddelelser: Pak ind med
<|im_start|>system … <|im_end|>for at bevare hierarkiet og undgå deltavægtssyndere. - Finjustering: Anvend kun LoRA rang-64 på lag 20-24; LoRA i tidlige lag giver ubetydelige gevinster på grund af MoE-sparsitet.
- streaming: Med DashScope, aktiver
X-DashScope-Stream: true; chunkstørrelsen er 20 tokens. - Qwen-VL-indgang: Kod billedbytes som base64; send via
inputs=.
Konklusion
Qwen 2.5 styrker Alibaba Clouds position i det globale open source LLM-kapløb ved at kombinere MoE-effektivitet med en permissiv licens og et udvalg af adgangsveje - fra Qwen Chat med et enkelt klik til Ollama på en bærbar computer og DashScope-slutpunkter i virksomhedsklassen. For forskere udfylder det transparente træningskorpus og den stærke kinesisk-engelsk-paritet et hul, der er efterladt af Metas Llama-serie. For bygherrer reducerer den OpenAI-kompatible API migrationsfriktionen, mens de multimodale VL/Omni-grene forudser en nær fremtid, hvor tekst, billede, lyd og video konvergerer under et samlet token-rum. Når Qwen 3 truer senere på måneden, fungerer Qwen 2.5 både som en prøveplads og en robust produktionsmodel - en model, der allerede omformer den konkurrencemæssige kalkulus for storskala AI i 2025.
For udviklere: API-adgang
CometAPI tilbyder en pris, der er langt lavere end den officielle pris, for at hjælpe dig med at integrere Qwen API, og du får $1 på din konto efter registrering og login! Velkommen til at registrere dig og opleve CometAPI.
CometAPI fungerer som et centraliseret knudepunkt for API'er af flere førende AI-modeller, hvilket eliminerer behovet for at engagere sig med flere API-udbydere separat.
Vær sød at henvise til Qwen 2.5 Max API for integrationsdetaljer.CometAPI har opdateret det seneste QwQ-32B API.For mere modeloplysninger i Comet API, se venligst API-dok.


