Жасанды интеллект дамуын жалғастыра отырып, Alibaba компаниясының Qwen 2.5 үлкен тілдік модельдер (LLM) саласында күшті бәсекелес ретінде пайда болады. 2025 жылдың басында шығарылған Qwen 2.5 бағдарламалық жасақтаманы әзірлеу мен математикалық есептерді шешуден бастап көптілді мазмұнды құруға дейін және одан тыс көптеген қолданбаларға жауап беретін мүмкіндіктер жиынтығын ұсына отырып, оның алдындағыларға қарағанда айтарлықтай жақсартуларға ие.
Бұл мақала Qwen 2.5 жүйесінің қыр-сырын зерттеп, оның архитектурасына, мүмкіндіктеріне және практикалық қолданбаларына толық шолу жасайды. Әзірлеуші, зерттеуші немесе кәсіпқой болсаңыз да, Qwen 2.5-ті қалай пайдалану керектігін түсіну жұмысыңызда жаңа мүмкіндіктерді аша алады.
Qwen 2.5 дегеніміз не?
Qwen 2.5 — Alibaba Cloud компаниясының 2025 жылғы үлкен тілді модельдер тобы, ол 1.5 В-тан 72 В параметріне дейін (және 32 В логикалық оңтайландырылған бауырлас) қамтылады және қазір Qwen Chat, OpenAI‑patigaway және DashScope an.pati сияқты тұтынушылық, зерттеу және тұтыну өнімдерін қуаттайды. Qwen 2 нұсқасымен салыстырғанда, 2.5 желісі (i) тиімділік үшін сарапшылар қоспасын (МЭ) өзегін, (ii) ~20 T таңбалауыштарын оқытуды, (iii) күштірек нұсқауды, кодтауды және көптілді ой қорытуды, (iv) көру-тілдерін (VL) және толық нұсқаларды (VL) және nim нұсқаларын ұсынады. Alibaba Cloud-тан GitHub, Hugging Face, ModelScope және Docker/OLLAMA арқылы өзіндік хостингке дейінгі орналастыру опциялары.
Барлық өлшемдер ортақ жаттығу алдындағы рецепт бірақ оларда әртүрлі нұсқау – дәлдік қабаттар: Qwen‑Chat (ашық диалог үшін) және Qwen‑Base (төменгі ағынды дәл реттеу үшін). Үлкен бақылау пункттері қосымша қамтиды Qwen 2.5‑Макс, GPU құрылғыларында әлдеқайда төмен қорытынды құны үшін таңбалауыш үшін 2.7 B параметрді белсендіретін сарапшылар қоспасы (ММ) сирек шығарылымы.
Qwen 2.5 сәулетінің маңызды сәттері
Архитектуралық ауысым
Qwen 2.5 AI моделін әзірлеуде айтарлықтай секіріс болып табылады, бұл ең алдымен оның кең дайындығы мен тазартылған архитектурасына байланысты. Модель 18 триллион таңбалауыштан тұратын орасан зор деректер жинағында алдын ала оқытылды, бұл оның алдындағы Qwen 7-де қолданылған 2 триллион токеннен айтарлықтай өсті. Бұл кеңейтілген оқу деректер жинағы модельдің тілді, пайымдауды және доменге тән білімді түсінуін жақсартады.
Qwen 2.5 сирек сарапшылар қоспасын (ММ) қолданады: тек шағын сарапшы жиыны әр токенге қосылады, бұл Qwen сызықтық шығындарынсыз жоғары тиімді сыйымдылыққа мүмкіндік береді. Тренингте ~20 T таңбалауышы және бақыланатын нақты баптауы (SFT) плюс RLHF бар нақтыланған деректер оқу жоспары қолданылды. Топ жариялаған эталондар Qwen 8 және peer 2 B/7 B базалық көрсеткіштеріне қатысты MMLU, GSM70K математикасы және көптілді кросс-тілді түсіну бойынша үлкен жетістіктерді көрсетеді.
Qwen 2.5 үлгілі отбасы
| Edition | Өлшем | Модельдік | Мақсат және тақырып мүмкіндігі |
|---|---|---|---|
| Qwen 2.5‑1.5B‑нұсқау | 1.5 B | мәтін | Жад аз болатын шеткі құрылғылар / чат-боттар |
| Qwen 2.5‑7B‑нұсқау | 7 B | мәтін | 32 к контекст, 29 тілді қамтуы бар флагмандық ашық бастапқы LLM |
| Qwen 2.5‑Omni‑7B | 7 B | Мультимодальды (мәтін + сурет + аудио + бейне) | Модальды біріктіру |
| Qwen 2.5‑VL‑3B/7B/72B‑нұсқау | 3–72 Б | Көру тілі | Тығыз субтитр, құжат QA, OCR, диаграмманы талдау |
| QwQ‑32B | 32 B | Мәтін (дәлелдеу) | Математика/кодтау бойынша мамандандырылған БМ; 1% құны бойынша DeepSeek R671 5 B паритеті |
| Qwen 2.5‑Макс | ашылмаған (көп сарапшы) | мәтін | API және Qwen Chat арқылы қол жетімді ішкі эталондық көшбасшы |
Негізгі мүмкіндіктер мен эталондар
Нұсқауларды орындау және көп тілді қолдану
Ішкі құжаттарда Qwen 2.5‑7B AlpacaEval жүйесіндегі Llama‑3 8B (92-ге қарсы 89) асып түсетіні және қытайлық MT‑Bench-тегі GPT‑79‑Turbo-ға қарсы 3.5% жеңіске жеткені көрсетілген. Қолдау көрсетілетін тілдерге түрік, индонезиялық, неміс, араб және суахили кіреді. Жылжымалы арқан позициялық кодтаулары бар 32 к контекстік терезе фрагментациясыз 200 беттік PDF қорытындылауын қамтамасыз етеді.
Кодтау және дәлелдеу
QwQ‑32B GSM50.4K (8 реттік) бойынша 5% және HumanEval‑Plus жүйесінде 74%, DeepSeek R1 параметрінің жиырмадан бірінде тең. Алғашқы қауымдастықтың сынақтары 7 B моделінің ең аз галлюцинациялары бар Docker құм жәшігіндегі g++‑13 көмегімен C++ үзінділерін құрастыра және жөндеуге болатынын көрсетеді.
Мультимодальдық күштер
Qwen 2.5‑VL‑72B MMMU бойынша 62.7% және TextVQA бойынша 73.4% жетеді, бұл кестенің OCR тапсырмаларында Gemini 1.5‑Pro-дан асып түседі (Qwen қаңтардағы блогына сәйкес). Omni‑7B мұны ортақ токенизатор арқылы дыбыстық спектрлік транскрипцияға және MP4 кадр үлгісіне кеңейтеді.
Лицензиялау, қауіпсіздік және басқару
Alibaba қосымшасымен Apache 2.0 кодын/лицензиясын сақтайды «Цянь-Вэнь жауапты AI» шабандоз:
- Тыйым салынған: террористік мазмұн, жалған ақпарат, жеке деректерді алу.
- Қажетті: әзірлеушілер төменгі ағындық қолданбаларда мазмұн сүзгілері мен су таңбаларын енгізуі керек.
Лицензия коммерциялық пайдалануға рұқсат береді, бірақ мандат береді үлгі картасын ашу салмақтар өзгертілсе және қайта орналастырылса. Alibaba Cloud жүйесінде модерация сервер жағында орындалады; өзін-өзі хостерлер ашық бастапқы саясат градиент сүзгісін (репода байланыстырылған) біріктіруі керек.
Qwen 3 жол картасы
Bloomberg және PYMNTS Alibaba есептерін ашады Qwen 3 «2025 жылдың сәуір айының аяғында» >100 B тығыз параметрлері мен құралды пайдалану мүмкіндіктеріне дейін көтерілуі мүмкін. Инсайдерлер Hanguang 4+ ASIC құрылғыларындағы 2048×800 GPU кластерлерін және Triton-Flash-Attention v3 ядросын сынақтан өткізуді ұсынады. Qwen 2.5 ашық бастапқы бөлім болып қалады, ал Qwen 3 Meta's Llama 3‑Commercial сияқты шектеулі лицензия бойынша дебют жасай алады.
Әзірлеушілерге арналған практикалық кеңестер
- Токенді санау: Qwen пайдаланады QwenTokenizer; оның арнайы белгісі тең
<|im_end|>OpenAI стиліндегі шақыруларда. - Жүйелік хабарламалар: -мен ораңыз
<|im_start|>system … <|im_end|>иерархияны сақтау және дельта салмағының кінәлілерін болдырмау. - Дәл күйге келтіру: LoRA rank‑64 дәрежесін тек 20‑24 қабаттарда қолданыңыз; Ерте қабаттағы LoRA ТМ сирек болуына байланысты болмашы табыстар береді.
- Тасқынды: DashScope көмегімен қосыңыз
X-DashScope-Stream: true; кесек мөлшері 20 белгі. - Qwen‑VL кірісі: Бейне байттарын base64 ретінде кодтау; арқылы өту
inputs=.
қорытынды
Qwen 2.5 Министрліктің тиімділігін рұқсат беретін лицензиямен және бір рет басу арқылы Qwen Chat-тан Ollama-ға ноутбукта және кәсіпорын деңгейіндегі DashScope соңғы нүктелері арқылы кіру жолдарының буфеті арқылы Alibaba Cloud-тың әлемдік ашық бастапқы LLM жарысындағы орнын бекітеді. Зерттеушілер үшін оның мөлдір оқу корпусы және күшті қытай-ағылшын паритеті Meta's Llama сериясы қалдырған олқылықты толтырады. Құрылысшылар үшін OpenAI-үйлесімді API миграциялық үйкелісті азайтады, ал мультимодальды VL/Omni филиалдары мәтін, көру, аудио және бейне біртұтас таңбалауыш кеңістігінде біріктірілетін жақын болашақты болжайды. Qwen 3 осы айдың соңында шығарылатындықтан, Qwen 2.5 сынақ алаңы ретінде де, 2025 жылы ауқымды AI бәсекеге қабілетті есебін қайта қалыптастыратын сенімді өндіріс үлгісі ретінде де қызмет етеді.
Әзірлеушілер үшін: API Access
CometAPI Qwen API біріктіруге көмектесу үшін ресми бағадан әлдеқайда төмен бағаны ұсынады және тіркеліп, жүйеге кіргеннен кейін есептік жазбаңызға $1 аласыз! Тіркелуге және CometAPI тәжірибесіне қош келдіңіз.
CometAPI бірнеше жетекші AI үлгілерінің API интерфейстері үшін орталықтандырылған хаб ретінде әрекет етеді, бұл бірнеше API провайдерлерімен бөлек байланысу қажеттілігін болдырмайды.
Қараңыз Qwen 2.5 Max API интеграция мәліметтері үшін. CometAPI соңғы нұсқасын жаңартты QwQ-32B API.Comet API ішіндегі үлгі туралы қосымша ақпаратты қараңыз API құжаты.


