Yapay zeka gelişmeye devam ederken, Alibaba'nın Qwen 2.5'i büyük dil modelleri (LLM'ler) alanında zorlu bir rakip olarak ortaya çıkıyor. 2025'in başlarında piyasaya sürülen Qwen 2.5, yazılım geliştirmeden matematiksel problem çözmeye, çok dilli içerik üretimine ve ötesine kadar çeşitli uygulamalara hitap eden bir dizi özellik sunarak seleflerine göre önemli geliştirmeler sunuyor.
Bu makale Qwen 2.5'in karmaşıklıklarını ele alarak mimarisi, yetenekleri ve pratik uygulamaları hakkında ayrıntılı bir genel bakış sunuyor. İster geliştirici, ister araştırmacı veya iş profesyoneli olun, Qwen 2.5'i nasıl kullanacağınızı anlamak işinizde yeni olasılıkların kilidini açabilir.
Qwen 2.5 Nedir?
Qwen 2.5, Alibaba Cloud'un 2025 milyardan 1.5 milyara kadar parametreyi (ve 72 milyarlık muhakeme açısından optimize edilmiş bir kardeşi) kapsayan 32 nesli büyük dil modeli ailesidir ve artık Qwen Chat, DashScope ve OpenAI uyumlu bir API ağ geçidi gibi ticari, araştırma ve tüketici ürünlerine güç vermektedir. Qwen 2 ile karşılaştırıldığında, 2.5 serisi (i) verimlilik için bir Uzmanlar Karışımı (MoE) çekirdeği, (ii) ~20 T jeton üzerinde eğitim, (iii) daha güçlü talimat izleme, kodlama ve çok dilli muhakeme, (iv) görme dili (VL) ve tamamen çok modlu "Omni" varyantları ve (v) Alibaba Cloud'dan GitHub, Hugging Face, ModelScope ve Docker/OLLAMA aracılığıyla kendi kendine barındırmaya kadar uzanan dağıtım seçenekleri sunar.
Tüm boyutlar ortak bir özelliğe sahiptir antrenman öncesi tarifi ama kendi aralarında farklılık gösteriyorlar talimat-ince ayar katmanlar: Qwen‑Chat (açık uçlu diyalog için) ve Qwen‑Base (aşağı akış ince ayarı için). Daha büyük kontrol noktaları ayrıca şunları içerir Qwen 2.5‑MaksimumGPU'larda çok daha düşük çıkarım maliyeti için belirteç başına 2.7 milyar parametreyi etkinleştiren seyrek bir Uzman Karışımı (MoE) sürümü.
Qwen 2.5'in mimari özellikleri
Mimari değişim
Qwen 2.5, öncelikle kapsamlı eğitimi ve rafine mimarisi nedeniyle AI modeli geliştirmede önemli bir sıçramayı temsil ediyor. Model, selefi Qwen 18'de kullanılan 7 trilyon jetona göre önemli bir artış olan 2 trilyon jetondan oluşan devasa bir veri kümesi üzerinde önceden eğitildi. Bu kapsamlı eğitim veri kümesi, modelin dil, muhakeme ve alan-özel bilgi anlayışını geliştirir.
Qwen 2.5 seyrek bir Uzman Karışımı (MoE) omurgası benimser: jeton başına yalnızca küçük bir uzman alt kümesi etkinleştirilir ve bu da doğrusal maliyet artışı olmadan daha yüksek etkili kapasiteye olanak tanır Qwen. Eğitim ~20 T jeton ve denetlenen ince ayar (SFT) artı RLHF ile rafine edilmiş bir veri müfredatı kullandı. Ekip tarafından yayınlanan kıyaslamalar, Qwen 8 ve akran 2 B/7 B temel çizgilerine göre MMLU, GSM70K matematiği ve çok dilli çapraz dil anlayışında büyük kazanımlar olduğunu göstermektedir.
Qwen 2.5 model ailesi
| baskı | Boyutlar | Yöntem | Amaç ve başlık özelliği |
|---|---|---|---|
| Qwen 2.5‑1.5B‑Talimat | 1.5 milyar | Metin | Belleğin kısıtlı olduğu uç cihazlar/sohbet robotları |
| Qwen 2.5‑7B‑Talimat | 7 milyar | Metin | 32 bin bağlam ve 29 dil kapsamına sahip amiral gemisi açık kaynaklı LLM |
| Qwen 2.5‑Omni‑7B | 7 milyar | multimodal (metin + resim + ses + video) | Uçtan uca modalite füzyonu |
| Qwen 2.5‑VL‑3B/7B/72B‑Talimat | 3–72 B | Vizyon dili | Yoğun altyazı, belge QA, OCR, grafik analizi |
| QwQ‑32B | 32 milyar | Metin (akıl yürütme) | Matematik/kodlama konusunda uzmanlaşmış MoE; %1 maliyetle DeepSeek R671 5 B ile eşitlik |
| Qwen 2.5‑Maksimum | açıklanmamış (çok uzmanlı) | Metin | API ve Qwen Chat aracılığıyla kullanılabilen dahili kıyaslama lideri |
Temel yetenekler ve ölçütler
Talimat takibi ve çok dilli erişim
Dahili belgeler Qwen 2.5‑7B'nin AlpacaEval'de Llama‑3 8B'yi geçtiğini (92'ye karşı 89) ve Çin MT‑Bench'te GPT‑79‑Turbo'ya karşı %3.5'luk bir galibiyet oranına ulaştığını gösteriyor. Desteklenen diller arasında Türkçe, Endonezyaca, Almanca, Arapça ve Svahili yer alıyor. Kayan ip konumsal kodlamalara sahip 32 k bağlam penceresi, parçalanma olmadan 200 sayfalık PDF özetlemesi sağlıyor.
Kodlama ve muhakeme
QwQ‑32B, GSM50.4K'da (8 atış) %5 ve HumanEval‑Plus'ta %74 puan alarak, parametre sayısının yirmide birinde DeepSeek R1 ile aynı seviyededir. İlk topluluk testleri, 7 B modelinin, minimum halüsinasyonlarla bir Docker sanal alanı içinde g++‑13 kullanarak C++ kod parçacıklarını derleyebileceğini ve hata ayıklayabileceğini göstermektedir.
Çok modlu güçler
Qwen 2.5‑VL‑72B, MMMU'da %62.7 ve TextVQA'da %73.4'e ulaşarak tablo OCR görevlerinde Gemini 1.5‑Pro'yu geride bırakıyor (Qwen'in Ocak bloguna göre). Omni‑7B bunu, paylaşımlı bir belirteçleyici aracılığıyla ses spektral transkripsiyonuna ve MP4 kare örneklemesine kadar genişletiyor.
Lisanslama, güvenlik ve yönetişim
Alibaba, Apache 2.0 kodunu/lisansını ek bir lisansla koruyor “Qian-Wen Sorumlu Yapay Zeka” binici:
- Yasak: terörist içerik, dezenformasyon, kişisel veri çıkarımı.
- gerekli: Geliştiriciler, alt akış uygulamalarında içerik filtreleri ve filigran uygulaması uygulamalıdır.
Lisans ticari kullanıma izin veriyor ancak şunları zorunlu kılıyor: model kartı açıklaması ağırlıklar değiştirilir ve yeniden dağıtılırsa. Alibaba Cloud'da, moderasyon sunucu tarafında uygulanır; kendi kendine barındıranlar açık kaynaklı politika eğim filtresini entegre etmelidir (depoda bağlantılıdır).
Qwen 3'e doğru yol haritası
Bloomberg ve PYMNTS, Alibaba'nın açıklayacağını bildirdi Qwen 3 "Nisan 2025'in sonları gibi" muhtemelen >100 B yoğun parametrelere ve yerel araç kullanım yeteneklerine sıçrayarak. İçeriden kişiler Hanguang 4+ ASIC'lerde 2048×800 GPU kümesinin ve bir Triton‑Flash‑Attention v3 çekirdeğinin test aşamasında olduğunu öne sürüyor. Qwen 2.5 açık kaynak dalı olarak kalacakken, Qwen 3 Meta'nın Llama 3‑Commercial'ına benzer şekilde daha kısıtlayıcı bir lisans altında çıkış yapabilir.
Geliştiriciler için pratik ipuçları
- Jeton sayımı: Qwen kullanır QwenTokenleştirici; özel simgesi eşittir
<|im_end|>OpenAI tarzı istemlerde. - Sistem mesajları: İle sarın
<|im_start|>system … <|im_end|>hiyerarşiyi korumak ve delta ağırlığı suçlularından kaçınmak için. - İnce ayar: LoRA rütbe-64'ü yalnızca 20-24 katmanlarına uygulayın; erken katman LoRA'sı, MoE seyrekliği nedeniyle ihmal edilebilir kazanımlar sağlar.
- Akış: DashScope ile etkinleştirin
X-DashScope-Stream: true; parça boyutu 20 token'dır. - Qwen‑VL girişi: Resim baytlarını base64 olarak kodla; geçir
inputs=.
Sonuç
Qwen 2.5, MoE verimliliğini izin verici bir lisans ve bir dizi erişim yolu ile birleştirerek Alibaba Cloud'un küresel açık kaynaklı LLM yarışındaki konumunu sağlamlaştırıyor: tek tıklamalı Qwen Chat'ten dizüstü bilgisayarda Ollama'ya ve kurumsal düzeyde DashScope uç noktalarına. Araştırmacılar için şeffaf eğitim gövdesi ve güçlü Çince-İngilizce eşitliği, Meta'nın Llama serisinin bıraktığı boşluğu dolduruyor. Oluşturucular için OpenAI uyumlu API, geçiş sürtünmesini azaltırken, çok modlu VL/Omni dalları, metin, görüntü, ses ve videonun birleşik bir belirteç alanı altında birleştiği yakın bir geleceği öngörüyor. Qwen 3 bu ayın sonlarında belirirken, Qwen 2.5 hem bir deneme alanı hem de sağlam bir üretim modeli olarak hizmet ediyor; bu model, 2025'te büyük ölçekli yapay zekanın rekabetçi hesaplamalarını şimdiden yeniden şekillendiriyor.
Geliştiriciler İçin: API Erişimi
Kuyrukluyıldız API'si Qwen API'yi entegre etmenize yardımcı olmak için resmi fiyattan çok daha düşük bir fiyat sunuyor ve kaydolup giriş yaptıktan sonra hesabınıza 1$ eklenecek! Kayıt olmaya ve CometAPI'yi deneyimlemeye hoş geldiniz.
CometAPI, birden fazla önde gelen yapay zeka modelinin API'leri için merkezi bir merkez görevi görerek, birden fazla API sağlayıcısıyla ayrı ayrı etkileşim kurma ihtiyacını ortadan kaldırır.
Bakın Qwen 2.5 Maksimum API Entegrasyon ayrıntıları için CometAPI en son sürümü güncelledi QwQ-32B APIComet API'deki Model hakkında daha fazla bilgi için lütfen şuraya bakın: API belgesi.


