Qwen 2.5: ما هو، البنية المعمارية والمعايير

CometAPI
AnnaDec 4, 2025
Qwen 2.5: ما هو، البنية المعمارية والمعايير

مع استمرار تطور الذكاء الاصطناعي، يبرز نظام Qwen 2.5 من علي بابا كمنافس قوي في مجال نماذج اللغات الكبيرة (LLMs). يُطرح Qwen 2025 في أوائل عام 2.5، ويتميز بتحسينات كبيرة مقارنةً بسابقاته، مقدمًا مجموعة من الميزات التي تلبي مجموعة متنوعة من التطبيقات، بدءًا من تطوير البرمجيات وحل المشكلات الرياضية وصولًا إلى إنشاء محتوى متعدد اللغات، وما إلى ذلك.

تتعمق هذه المقالة في تفاصيل Qwen 2.5، مقدمةً لمحةً تفصيليةً عن بنيتها وقدراتها وتطبيقاتها العملية. سواءً كنتَ مطورًا أو باحثًا أو خبيرًا في مجال الأعمال، فإن فهم كيفية الاستفادة من Qwen 2.5 سيفتح لك آفاقًا جديدة في عملك.

ما هو Qwen 2.5؟

Qwen 2.5 هي عائلة نماذج اللغات الكبيرة من Alibaba Cloud، من الجيل 2025، والتي تشمل من 1.5 مليار إلى 72 مليار معلمة (ونموذجًا شقيقًا مُحسَّنًا للاستدلال بقدرة 32 مليار)، وتُشغِّل الآن منتجات تجارية وبحثية واستهلاكية مثل Qwen Chat وDashScope وبوابة API متوافقة مع OpenAI. مقارنةً بـ Qwen 2، يُقدِّم خط 2.5 (i) نواة مزيج الخبراء (MoE) لتحقيق الكفاءة، (ii) التدريب على حوالي 20 رمزًا، (iii) متابعة أقوى للتعليمات والترميز والاستدلال متعدد اللغات، (iv) لغة الرؤية (VL) ومتغيرات "Omni" متعددة الوسائط بالكامل، و(v) خيارات نشر تتراوح من Alibaba Cloud إلى الاستضافة الذاتية عبر GitHub وHugging Face وModelScope وDocker/OLLAMA.

جميع الأحجام تشترك في شيء مشترك وصفة ما قبل التدريب لكنهم يختلفون في تعليمات الضبط الدقيق الطبقات: Qwen-Chat (للحوار المفتوح) وQwen-Base (للضبط الدقيق). تتضمن نقاط التفتيش الأكبر أيضًا كوين 2.5‑ماكس، إصدار مزيج من الخبراء (MoE) المتناثر الذي ينشط 2.7 معلمة B لكل رمز لتكلفة استدلال أقل بكثير على وحدات معالجة الرسومات.

أبرز المعالم المعمارية في Qwen 2.5

التحول المعماري

يُمثل Qwen 2.5 نقلة نوعية في تطوير نماذج الذكاء الاصطناعي، ويعود ذلك أساسًا إلى تدريبه المكثف وبنيته المُحسّنة. تم تدريب النموذج مُسبقًا على مجموعة بيانات ضخمة تضم 18 تريليون رمز، وهي زيادة كبيرة عن 7 تريليونات رمز مُستخدمة في سابقتها، Qwen 2. تُعزز مجموعة بيانات التدريب الشاملة هذه فهم النموذج للغة والمنطق والمعرفة المتخصصة.

يعتمد Qwen 2.5 على هيكل أساسي متناثر لمزيج الخبراء (MoE): حيث تُفعّل مجموعة فرعية صغيرة فقط من الخبراء لكل رمز، مما يتيح قدرة فعّالة أعلى دون نموّ تكلفة خطّي. استخدم التدريب حوالي 20 رمزًا من رموز T ومنهجًا مُحسّنًا للبيانات مع ضبط دقيق مُشرف (SFT) بالإضافة إلى RLHF. تُظهر المعايير التي نشرها الفريق تحسنًا كبيرًا في MMLU، ورياضيات GSM8K، والفهم متعدد اللغات بين اللغات، مقارنةً بخطوط الأساس Qwen 2 ونظراء 7 B/70 B.

عائلة طراز Qwen 2.5

طبعةالمقاسشكلالغرض والعنوان الرئيسي
كوين 2.5‑1.5B‑إرشادات1.5 مليارنصالأجهزة الطرفية / برامج الدردشة حيث تكون الذاكرة نادرة
كوين 2.5‑7B‑إرشادات7 مليارنصبرنامج ماجستير في القانون مفتوح المصدر رائد مع 32 ألف سياق وتغطية 29 لغة
كوين 2.5‑أومني‑7B7 مليارالمتعدد الوسائط (نص + صورة + صوت + فيديو)دمج الوسائط من البداية إلى النهاية
كوين 2.5-VL-3B/7B/72B-إرشاد3–72 بالرؤية - اللغةالترجمة التوضيحية المكثفة، وضمان جودة المستندات، والتعرف الضوئي على الحروف، وتحليل المخططات البيانية
QwQ‑32B32 مليارالنص (المنطق)وزارة التعليم متخصصة في الرياضيات/الترميز؛ التكافؤ مع DeepSeek R1 671 B بتكلفة 5%
كوين 2.5‑ماكسغير معلن (متعدد الخبراء)نصقائد معياري داخلي، متاح من خلال واجهة برمجة التطبيقات وQwen Chat

القدرات والمعايير الرئيسية

متابعة التعليمات والوصول إلى لغات متعددة

تُظهر الأوراق البحثية الداخلية تفوق Qwen 2.5‑7B على Llama‑3 8B على AlpacaEval (92 مقابل 89) ووصوله إلى نسبة فوز 79% ضد GPT‑3.5‑Turbo على منصة MT‑Bench الصينية. تشمل اللغات المدعومة التركية والإندونيسية والألمانية والعربية والسواحيلية. توفر نافذة سياقية بحجم 32 كيلوبايت مع ترميزات موضعية انزلاقية ملخصًا بصيغة PDF من 200 صفحة دون تجزئة.

الترميز والاستدلال

حقق QwQ‑32B نسبة 50.4% على GSM8K (خمس تجارب) و5% على HumanEval‑Plus، وهو ما يُضاهي DeepSeek R74 عند واحد على عشرين من عدد المعاملات. تُظهر الاختبارات المُجتمعية الأولية أن نموذج 1 B يُمكنه تجميع وتصحيح أخطاء شظايا C++ باستخدام g++‑7 داخل بيئة Docker الرملية بأقل قدر من الهلوسة.

نقاط القوة المتعددة الوسائط

حقق Qwen 2.5‑VL‑72B نسبة 62.7% على MMMU و73.4% على TextVQA، متفوقًا على Gemini 1.5‑Pro في مهام التعرف الضوئي على الحروف (OCR) للجداول (وفقًا لمدونة Qwen في يناير). ويوسع Omni‑7B هذه الميزة لتشمل النسخ الطيفي الصوتي وعينات إطارات MP4 عبر مُجزئ مشترك.


الترخيص والسلامة والحوكمة

تحتفظ شركة Alibaba بكود/ترخيص Apache 2.0 مع إضافة "تشيان-وين الذكاء الاصطناعي المسؤول" الراكب:

  • ممنوع: المحتوى الإرهابي، والتضليل، واستخراج البيانات الشخصية.
  • مطلوب: يجب على المطورين تنفيذ مرشحات المحتوى والعلامات المائية في التطبيقات اللاحقة.

يسمح الترخيص بالاستخدام التجاري ولكنه يفرض الكشف عن بطاقة النموذج في حال تعديل الأوزان وإعادة نشرها. على Alibaba Cloud، يُفرض الإشراف من جانب الخادم؛ ويجب على المضيفين الذاتيين دمج مُرشِّح تدرج السياسات مفتوح المصدر (مرتبط في المستودع).


خريطة الطريق نحو Qwen 3

بلومبرج وPYMNTS يذكران أن علي بابا ستكشف النقاب عن كوين 3 بحلول أواخر أبريل 2025، من المرجح أن يرتفع عدد المعلمات إلى أكثر من 100 مليار معلمة، مع إمكانيات استخدام أدوات أصلية. يشير المطلعون إلى أن 4 × 2048 وحدة معالجة رسومية (GPU) على أكثر من 800 وحدة معالجة مركزية (ASIC) من Hanguang، ونواة Triton-Flash-Attention الإصدار 3 قيد الاختبار. سيبقى Qwen 2.5 فرعًا مفتوح المصدر، بينما قد يُطرح Qwen 3 بموجب ترخيص أكثر تقييدًا، على غرار ترخيص Llama 3-Commercial من Meta.


نصائح عملية للمطورين

  1. عد الرموز: يستخدم كوين كوين توكنيزر؛ رمزها الخاص يساوي <|im_end|> في المطالبات على غرار OpenAI.
  2. رسائل النظام: لف مع <|im_start|>system … <|im_end|> للحفاظ على التسلسل الهرمي وتجنب الجناة الذين يتسببون في زيادة الوزن.
  3. الكون المثالى: قم بتطبيق LoRA rank-64 على الطبقات 20-24 فقط؛ حيث تنتج LoRA في الطبقة المبكرة مكاسب لا تذكر بسبب ندرة MoE.
  4. الجري: مع DashScope، قم بتمكين X-DashScope-Stream: trueحجم القطعة هو 20 رمزًا.
  5. مدخلات Qwen‑VL: ترميز بايتات الصورة كـ base64؛ تمرير عبر inputs=.

الخاتمة

يُعزز Qwen 2.5 مكانة Alibaba Cloud في سباق برامج ماجستير الحقوق (LLM) مفتوحة المصدر عالميًا، من خلال الجمع بين كفاءة MoE وترخيص مُيسّر ومجموعة متنوعة من مسارات الوصول، بدءًا من دردشة Qwen بنقرة واحدة ووصولًا إلى Ollama على الكمبيوتر المحمول ونقاط نهاية DashScope المُخصصة للمؤسسات. بالنسبة للباحثين، تُسهم مجموعة التدريب الشفافة والتكافؤ القوي بين اللغتين الصينية والإنجليزية في سد الفجوة التي خلفتها سلسلة Llama من Meta. أما بالنسبة للمطورين، فتُخفف واجهة برمجة التطبيقات المتوافقة مع OpenAI من احتكاك الترحيل، بينما تُنبئ فروع VL/Omni متعددة الوسائط بمستقبل قريب تلتقي فيه النصوص والرؤية والصوت والفيديو في مساحة رمزية موحدة. مع اقتراب Qwen 3 في وقت لاحق من هذا الشهر، يُمثل Qwen 2.5 ميدان اختبار ونموذج إنتاج قويًا، وهو نموذج يُعيد بالفعل تشكيل معايير المنافسة في مجال الذكاء الاصطناعي واسع النطاق في عام 2025.

للمطورين: الوصول إلى واجهة برمجة التطبيقات

كوميت ايه بي اي يُقدّم سعرًا أقل بكثير من السعر الرسمي لمساعدتك على دمج واجهة برمجة تطبيقات Qwen، وستحصل على دولار واحد في حسابك بعد التسجيل وتسجيل الدخول! مرحبًا بك في التسجيل وتجربة CometAPI.

يعمل CometAPI كمركز مركزي لواجهات برمجة التطبيقات الخاصة بالعديد من نماذج الذكاء الاصطناعي الرائدة، مما يزيل الحاجة إلى التعامل مع العديد من موفري واجهات برمجة التطبيقات بشكل منفصل.

يرجى الرجوع إلى واجهة برمجة تطبيقات Qwen 2.5 Max للحصول على تفاصيل التكامل، قامت CometAPI بتحديث أحدث إصدار واجهة برمجة التطبيقات QwQ-32B.للحصول على مزيد من المعلومات حول النموذج في Comet API، يرجى الاطلاع على وثيقة API.

SHARE THIS BLOG

500+ نموذج في واجهة برمجة تطبيقات واحدة

خصم يصل إلى 20%