جیسے جیسے مصنوعی ذہانت کا ارتقاء جاری ہے، علی بابا کا Qwen 2.5 بڑے لینگویج ماڈلز (LLMs) کے میدان میں ایک مضبوط دعویدار کے طور پر ابھرتا ہے۔ 2025 کے اوائل میں جاری کیا گیا، Qwen 2.5 اپنے پیشرووں کے مقابلے میں نمایاں اضافہ کا حامل ہے، جو کہ مختلف قسم کی ایپلی کیشنز کو پورا کرنے کے لیے خصوصیات کا ایک مجموعہ پیش کرتا ہے — سافٹ ویئر ڈویلپمنٹ اور ریاضی کے مسائل حل کرنے سے لے کر کثیر لسانی مواد کی تخلیق اور اس سے آگے۔
یہ مضمون Qwen 2.5 کی پیچیدگیوں کو بیان کرتا ہے، جو اس کے فن تعمیر، صلاحیتوں اور عملی استعمال کا تفصیلی جائزہ فراہم کرتا ہے۔ چاہے آپ ایک ڈویلپر، محقق، یا کاروباری پیشہ ور ہوں، یہ سمجھنا کہ Qwen 2.5 کا فائدہ اٹھانا آپ کے کام میں نئے امکانات کو کھول سکتا ہے۔
Qwen 2.5 کیا ہے؟
Qwen 2.5 علی بابا کلاؤڈ کا 2025-جنریشن بڑی زبان کا ماڈل فیملی ہے جو 1.5 B سے 72 B پیرامیٹرز (اور 32 B استدلال سے بہتر بہن بھائی) پر محیط ہے اور اب تجارتی، تحقیقی اور صارفین کی مصنوعات جیسے Qwen‑AI Chat, OpenS API Chat, OpenS Qwen 2 کے مقابلے میں، 2.5 لائن متعارف کراتی ہے (i) کارکردگی کے لیے ماہرین کا مرکب (MoE) کور، (ii) ~ 20 T ٹوکنز پر تربیت، (iii) مضبوط ہدایات، پیروی، کوڈنگ اور کثیر لسانی استدلال، (iv) وژن (Vision) اور کثیر الثانی")۔ اور (v) تعیناتی کے اختیارات علی بابا کلاؤڈ سے لے کر GitHub، Hugging Face، ModelScope اور Docker/OLLAMA کے ذریعے سیلف ہوسٹنگ تک۔
تمام سائز ایک مشترک ہیں۔ پری تربیتی نسخہ لیکن ان میں اختلاف انسٹرکشن فائنیٹون پرتیں: Qwen-Chat (اوپن-اینڈ ڈائیلاگ کے لیے) اور Qwen-Base (ڈاؤن اسٹریم فائن ٹیوننگ کے لیے)۔ بڑی چوکیوں میں اضافی طور پر شامل ہیں۔ Qwen 2.5‑Max، ایک ویرل مکسچر آف ایکسپرٹس (MoE) ایڈیشن جو GPUs پر بہت کم تخمینہ لاگت کے لیے فی ٹوکن 2.7 B پیرامیٹرز کو چالو کرتا ہے۔
Qwen 2.5 کی تعمیراتی جھلکیاں
آرکیٹیکچرل شفٹ
Qwen 2.5 AI ماڈل کی ترقی میں ایک اہم چھلانگ کی نمائندگی کرتا ہے، بنیادی طور پر اس کی وسیع تربیت اور بہتر فن تعمیر کی وجہ سے۔ ماڈل کو 18 ٹریلین ٹوکنز پر مشتمل ایک زبردست ڈیٹاسیٹ پر پہلے سے تربیت دی گئی تھی، جو کہ اس کے پیشرو، Qwen 7 میں استعمال ہونے والے 2 ٹریلین ٹوکنز سے کافی اضافہ ہے۔ یہ وسیع تربیتی ڈیٹاسیٹ ماڈل کی زبان، استدلال، اور ڈومین سے متعلق مخصوص علم کی سمجھ کو بڑھاتا ہے۔
Qwen 2.5 ماہرین کا ایک ویرل مرکب (MoE) ریڑھ کی ہڈی کو اپناتا ہے: صرف ایک چھوٹا ماہر سبسیٹ فی ٹوکن کو چالو کرتا ہے، جس سے قیمت میں اضافے کے بغیر اعلیٰ موثر صلاحیت کو فعال کیا جاتا ہے۔ تربیت میں ~20 T ٹوکنز اور نگرانی شدہ فائن ٹیوننگ (SFT) کے علاوہ RLHF کے ساتھ ایک بہتر ڈیٹا نصاب کا استعمال کیا گیا۔ ٹیم کے ذریعہ شائع کردہ بینچ مارکس MMLU، GSM8K ریاضی، اور Qwen 2 اور peer 7 B/70 B بیس لائنز کے نسبت کثیر لسانی بین لسانی تفہیم پر بڑے فوائد کو ظاہر کرتے ہیں۔
کیوین 2.5 ماڈل فیملی
| ایڈیشن | سائز | Modality | مقصد اور سرخی کی خصوصیت |
|---|---|---|---|
| Qwen 2.5‑1.5B‑ہدایت | 1.5 بی | متن | ایج ڈیوائسز / چیٹ بوٹس جہاں میموری کی کمی ہے۔ |
| Qwen 2.5‑7B‑ہدایت | 7 بی | متن | فلیگ شپ اوپن سورس LLM 32 k سیاق و سباق کے ساتھ، 29 زبان کی کوریج |
| Qwen 2.5‑Omni‑7B | 7 بی | ملمودال (متن + تصویر + آڈیو + ویڈیو) | اینڈ ٹو اینڈ موڈیلیٹی فیوژن |
| Qwen 2.5‑VL‑3B/7B/72B‑ہدایت | 3-72 بی | وژن کی زبان | گھنے کیپشننگ، دستاویز QA، OCR، چارٹ کا تجزیہ |
| QwQ‑32B | 32 بی | متن (استدلال) | MoE ریاضی/کوڈنگ کے لیے خصوصی؛ ڈیپ سیک R1 671 B کے ساتھ برابری 5% لاگت پر |
| Qwen 2.5‑Max | غیر ظاہر (کثیر ماہر) | متن | انٹرنل بنچ مارک لیڈر، API اور Qwen Chat کے ذریعے دستیاب ہے۔ |
کلیدی صلاحیتیں اور معیارات
ہدایات کی پیروی اور کثیر لسانی رسائی
اندرونی کاغذات میں Qwen 2.5‑7B کو AlpacaEval (3 بمقابلہ 8) پر Llama‑92 89B کو پیچھے چھوڑتے ہوئے اور چینی MT‑Bench پر GPT‑79‑Turbo کے مقابلے میں %3.5 جیتنے کی شرح تک پہنچتا ہے۔ تعاون یافتہ زبانوں میں ترکی، انڈونیشیائی، جرمن، عربی اور سواحلی شامل ہیں۔ سلائیڈنگ-رسی پوزیشنل انکوڈنگز کے ساتھ ایک 32 k سیاق و سباق والی ونڈو 200-صفحات کا PDF خلاصہ بغیر کسی ٹکڑے کے فراہم کرتی ہے۔
کوڈنگ اور استدلال
QwQ‑32B نے GSM50.4K (8‑shot) پر %5 اور HumanEval‑Plus پر %74، ڈیپ سیک R1 کے برابر پیرامیٹر کی تعداد کے بیسویں حصے پر اسکور کیا۔ ابتدائی کمیونٹی ٹیسٹ سے پتہ چلتا ہے کہ 7 B ماڈل کم سے کم فریب کے ساتھ ڈوکر سینڈ باکس کے اندر g++‑13 کا استعمال کرتے ہوئے C++ کے ٹکڑوں کو مرتب اور ڈیبگ کر سکتا ہے۔
ملٹی موڈل طاقتیں۔
Qwen 2.5‑VL‑72B نے MMMU پر %62.7 اور TextVQA پر %73.4 حاصل کیا، ٹیبل OCR کاموں میں Gemini 1.5‑Pro کو آگے بڑھایا (کیوین کے جنوری کے بلاگ کے مطابق)۔ Omni‑7B اسے ایک مشترکہ ٹوکنائزر کے ذریعے آڈیو سپیکٹرل ٹرانسکرپشن اور MP4 فریم سیمپلنگ تک بڑھاتا ہے۔
لائسنسنگ، حفاظت اور گورننس
علی بابا ایک اضافی کے ساتھ اپاچی 2.0 کوڈ/لائسنس برقرار رکھتا ہے۔ "کیان-وین ذمہ دار AI" سوار:
- ممنوع: دہشت گردی کا مواد، غلط معلومات، ذاتی ڈیٹا نکالنا۔
- کی ضرورت ہے: ڈویلپرز کو ڈاؤن اسٹریم ایپس میں مواد کے فلٹرز اور واٹر مارکنگ کو لاگو کرنا چاہیے۔
لائسنس تجارتی استعمال کی اجازت دیتا ہے لیکن مینڈیٹ ماڈل کارڈ کا انکشاف اگر وزن میں ترمیم اور دوبارہ تعیناتی کی جاتی ہے۔ علی بابا کلاؤڈ پر، اعتدال کو سرور کی طرف نافذ کیا جاتا ہے۔ سیلف ہوسٹرز کو اوپن سورس پالیسی گریڈینٹ فلٹر (ریپو میں منسلک) کو مربوط کرنا چاہیے۔
Qwen 3 کی طرف روڈ میپ
بلومبرگ اور PYMNTS کی رپورٹ علی بابا کی نقاب کشائی کرے گی۔ Qwen 3 "اپریل 2025 کے آخر میں،" ممکنہ طور پر >100 B گھنے پیرامیٹرز اور مقامی ٹول کے استعمال کی صلاحیتوں پر چھلانگ لگانا۔ اندرونی ذرائع تجویز کرتے ہیں کہ ہنگوانگ 4+ ASICs پر 2048×800 GPU کلسٹرز اور ایک Triton-Flash-Attention v3 کرنل ٹیسٹنگ میں ہیں۔ Qwen 2.5 اوپن سورس برانچ رہے گا، جبکہ Qwen 3 میٹا کے Llama 3-کمرشل کی طرح ایک زیادہ پابندی والے لائسنس کے تحت ڈیبیو کر سکتا ہے۔
ڈویلپرز کے لیے عملی تجاویز
- ٹوکن گنتی: Qwen استعمال کرتا ہے کیوین ٹوکنائزر; اس کا خصوصی ٹوکن برابر ہے۔
<|im_end|>OpenAI طرز کے اشارے میں۔ - سسٹم پیغامات: کے ساتھ لپیٹیں۔
<|im_start|>system … <|im_end|>درجہ بندی کو محفوظ رکھنے اور ڈیلٹا وزن کے مجرموں سے بچنے کے لیے۔ - فائن ٹیوننگ: صرف 64-20 پرتوں پر LoRA رینک‑24 کا اطلاق کریں؛ ابتدائی پرت LoRA سے MoE sparsity کی وجہ سے نہ ہونے کے برابر فوائد حاصل ہوتے ہیں۔
- سٹریمنگ: DashScope کے ساتھ، فعال کریں۔
X-DashScope-Stream: true; حصہ کا سائز 20 ٹوکن ہے۔ - Qwen-VL ان پٹ: بیس 64 کے طور پر تصویر بائٹس کو انکوڈ کریں؛ کے ذریعے گزرنا
inputs=.
نتیجہ
Qwen 2.5 نے اجازت دینے والے لائسنس کے ساتھ MoE کی کارکردگی اور ایک لیپ ٹاپ اور انٹرپرائز-گریڈ DashScope کے اختتامی پوائنٹس پر Qwen Chat سے Ollama تک رسائی کے روٹس کے ساتھ شادی کرکے عالمی اوپن سورس LLM ریس میں علی بابا کلاؤڈ کی پوزیشن کو مستحکم کیا۔ محققین کے لیے، اس کا شفاف تربیتی کارپس اور مضبوط چینی-انگریزی برابری میٹا کی لاما سیریز کے چھوڑے ہوئے خلا کو پر کرتی ہے۔ معماروں کے لیے، OpenAI-مطابقت پذیر API مائیگریشن رگڑ کو کم کرتا ہے، جب کہ ملٹی موڈل VL/Omni برانچز مستقبل قریب کی توقع کرتی ہیں جہاں متن، وژن، آڈیو اور ویڈیو ایک متحد ٹوکن اسپیس کے تحت اکٹھے ہوتے ہیں۔ جیسا کہ Qwen 3 اس مہینے کے آخر میں شروع ہو رہا ہے، Qwen 2.5 ایک ثابت قدم اور ایک مضبوط پروڈکشن ماڈل کے طور پر کام کرتا ہے — جو کہ پہلے ہی 2025 میں بڑے پیمانے پر AI کے مسابقتی کیلکولس کو نئی شکل دے رہا ہے۔
ڈویلپرز کے لیے: API رسائی
CometAPI Qwen API کو مربوط کرنے میں آپ کی مدد کے لیے سرکاری قیمت سے کہیں کم قیمت پیش کرتا ہے، اور آپ کو رجسٹر کرنے اور لاگ ان کرنے کے بعد اپنے اکاؤنٹ میں $1 ملیں گے! CometAPI کو رجسٹر کرنے اور تجربہ کرنے میں خوش آمدید۔
CometAPI کئی سرکردہ AI ماڈلز کے APIs کے لیے ایک مرکزی مرکز کے طور پر کام کرتا ہے، جس سے متعدد API فراہم کنندگان کے ساتھ الگ الگ مشغول ہونے کی ضرورت ختم ہوتی ہے۔
ملاحظہ کیجیے Qwen 2.5 Max API انضمام کی تفصیلات کے لیے۔CometAPI نے تازہ ترین اپ ڈیٹ کیا ہے۔ QwQ-32B APIComet API میں ماڈل کی مزید معلومات کے لیے براہ کرم دیکھیں API دستاویز.


