Mistral 3: عائلة النماذج، المعمارية، الاختبارات المعيارية والمزيد

CometAPI
AnnaDec 7, 2025
Mistral 3: عائلة النماذج، المعمارية، الاختبارات المعيارية والمزيد

Mistral 3 هو أحدث إصدارات Mistral AI وأكثرها طموحًا — عائلة كاملة من النماذج ذات الأوزان المفتوحة تدفع على عدة محاور في آن واحد: مقياس الخبراء المتناثرين بالحجم الرائد، ومتغيرات كثيفة مدمجة للنشر على الأطراف والمحلي، وتعدد الوسائط طويل السياق، وترخيص مفتوح متساهل يشجع على الاستخدام الواقعي والبحث.

ما هو Mistral 3؟

Mistral 3 هو عائلة من نماذج اللغة متعددة الوسائط ذات الأوزان المفتوحة أصدرتها Mistral AI في أواخر 2025. تتضمن العائلة ثلاثة نماذج كثيفة (غير متناثرة) مدمجة — Ministral 3 بعدد 3B و8B و14B من المعاملات — ونموذجًا رائدًا Mistral Large 3، وهو نموذج MoE (مزيج من الخبراء) متناثر يضم 675B من المعاملات الإجمالية وحوالي 41B من المعاملات النشطة أثناء الاستدلال. جميع النماذج صدرت تحت ترخيص Apache 2.0 ومتاحة بصيغ مضغوطة لدعم التوزيع الواسع والنشر المحلي. تتضمن الميزات الرئيسية التي أبرزتها Mistral قدرات متعددة الوسائط، ونوافذ سياق طويلة جدًا (Large: حتى 256K رمزًا)، وتحسينات للمسرّعات الحديثة.

Mistral 3 مهم لثلاثة أسباب:

  1. النطاق — تغطي العائلة أحجامًا من الصغير جدًا إلى مستوى الحدود القصوى (إصدارات Ministral 3B / 8B / 14B الكثيفة وMoE بعدد 675B من المعاملات)، مما يتيح سير عمل متسقًا للبحث والإنتاج عبر مفاضلات التكلفة/الأداء.
  2. الانفتاح — أصدرت Mistral النماذج والأوزان تحت ترخيص Apache-2.0 وقدمت قطعًا جاهزة للنشر على منصات مثل Hugging Face لتسريع الاعتماد.
  3. التركيز الهندسي — يعتمد Large 3 بنية MoE حبيبية مع عدد هائل من المعاملات الإجمالية ولكن مجموعة نشطة أصغر بكثير أثناء الاستدلال، بهدف تقديم قدرات حدودية مع تحسين الإنتاجية وكفاءة التكلفة لبعض أعباء العمل.

نظرة عامة على عائلة Mistral 3

Ministral 3 — 14B (Ministral 3 14B)

ما هو: أكبر نموذج كثيف (غير MoE) في خط “Ministral” المدمج/الطرفي: نموذج متعدد الوسائط عالي الجودة بعدد 14 مليار مُعامِل يُقدم بإصدارات Base / Instruct / Reasoning ومضبوط لفهم النص + الصورة واتباع التعليمات.

متى تختاره: عندما تريد أداءً قريبًا من القمة من نموذج كثيف دون تعقيد MoE، وتريد أداءً قويًا في التعليمات/المحادثة وقدرات رؤية ضمن نموذج واحد. مناسب لوكلاء الدردشة، والمساعدين متعددي الوسائط، وتوليد الشيفرة، وأعباء العمل الطرفية/على الجهاز الأكثر تطلبًا التي يمكنها تحمل نموذج أكبر.

Ministral 3 — 8B (Ministral 3 8B)

ما هو: نموذج كثيف متوازن وفعّال بعدد 8 مليارات مُعامِل ضمن عائلة Ministral 3. متاح بإصدارات Base / Instruct / Reasoning ويدعم المدخلات متعددة الوسائط. يتموضع كنقطة التوازن "sweet spot" للعديد من حالات الاستخدام الإنتاجية.

متى تختاره: عندما تحتاج جودة توليد وقدرة استدلال جيدة لكن ترغب في زمن استجابة وبصمة VRAM أصغر بكثير من 14B. رائع لروبوتات الدردشة، والمساعدين على الجهاز، وخدمات الويب ذات ميزانيات GPU المقيدة، والاستخدام المضمن مع التكميم.

Ministral 3 — 3B (Ministral 3 3B)

ما هو: أصغر عضو كثيف في عائلة Ministral 3: نموذج متعدد الوسائط بعدد 3 مليارات مُعامِل (Base / Instruct / Reasoning). مُصمم لسيناريوهات الذاكرة/الزمن المنخفض للغاية مع الحفاظ على ميزات متعددة الوسائط حديثة.

متى تختاره: عندما تحتاج استدلالًا على الجهاز، وزمن استجابة منخفضًا جدًا، أو تشغيل العديد من الوكلاء خفيفي الوزن تزامنيًا بتكلفة منخفضة — مثل تطبيقات الهاتف، والروبوتات، والطائرات بدون طيار، أو عمليات النشر المحلية الحساسة للخصوصية. جيد للدردشة، والتلخيص، ومهام الشيفرة الخفيفة، ومهام الرؤية+النص السريعة.

Mistral Small 3 — 24B(Mistral Small 3)

ما هو: نموذج كثيف محسّن للزمن بعدد 24 مليار مُعامِل أصدرته Mistral كجزء من عائلة Mistral 3. صُمم لتقديم إنتاجية عالية على GPU واحد وجودة توليد قوية مع بقاء تقديمه بسيطًا (دون تعقيد MoE).

متى تختاره: عندما تريد أفضل مفاضلة على GPU واحد (أو عقدة واحدة): جودة أعلى بكثير من 14B/8B في العديد من المعايير، مع بقاء النشر معقول البساطة. مناسب لأنظمة المحادثة الإنتاجية، والمساعدين الأعلى دقة، والتطبيقات التي تحتاج استدلالًا أقوى دون تعقيد تقديم MoE.

Mistral Large 3 — MoE (Mixture-of-Experts)

ما هو: نموذج MoE متناثر (مزيج من الخبراء) الرائد في عائلة Mistral 3: ≈675B من المعاملات الإجمالية مع ~41B من المعاملات النشطة لكل رمز (أي لا يتم تفعيل سوى مجموعة فرعية من الخبراء لكل رمز). مُصمم للاستدلال الحدودي، وأطوال سياق طويلة جدًا، وأداء رفيع المستوى عبر المجالات. أوزانه مفتوحة (Apache-2.0).

متى تختاره: استخدمه عندما تحتاج أفضل استدلال ممكن، وفهم سياق طويل جدًا (يدعم Large 3 نوافذ طويلة جدًا — صفحات البائعين تشير إلى ما يصل إلى 256k رمزًا للاستخدام طويل السياق)، أو عندما تبني أنظمة مؤسسية عالية القيمة يمكنها تبرير تعقيد تقديم MoE والبنية التحتية.

جدول المقارنة

النموذجنقاط القوةالقيود والملاحظات
Ministral 3 14Bأفضل توازن بين الجودة ← حجم النموذج داخل العائلة المدمجة؛ كثيرًا ما يضاهي أو يقترب من زمن 24B على GPU واحد في المكدسات المحسّنة. استدلال قوي وفهم متعدد الوسائط (عند استخدام إصدارات Instruct / Reasoning).بصمة ذاكرة أكبر من 8B/3B — قد تحتاج إلى تكميم أو نوى محسّنة للنشر على GPU استهلاكي واحد. إذا كنت تحتاج أصغر بصمة زمن استجابة ممكنة، فكر في بدائل 8B أو 3B.
Ministral 3 8Bمفاضلة قوية للتكلفة/الزمن: متطلبات ذاكرة وحوسبة أقل بكثير من 14B مع الحفاظ على أداء متعدد الوسائط واستدلال قوي (خصوصًا في إصدار Reasoning). سهل التشغيل مع مشغلات محسّنة وتكميم.ليس بالقوة نفسها في أصعب مهام الاستدلال جدًا أو أطول السياقات مقارنة بـ 14B أو نموذج 24B Small، لكنه غالبًا "جيد بما يكفي" للإنتاج بتكلفة أقل بكثير. استخدم إصدار Reasoning لمهام الرياضيات/البرمجة/STEM.
Ministral 3 3Bأصغر بصمة، الأسرع تشغيلًا على عتاد مقيد، الأسهل تكميمًا ونشرًا محليًا. ما يزال يدعم فهم الصور واتباع التعليمات في إصداراته المضبوطة.جودة توليد خام أقل في مهام الاستدلال الطويلة جدًا أو المعقدة جدًا مقارنة بـ 8B/14B/24B/الـ MoE الكبير. ممتاز للتوسع أو الأطراف، لكن اختر نموذجًا أكبر لاحتياجات الدقة القصوى.
Mistral Small 3أداء مرتفع على طراز معايير MMLU لفئته، وبنية ونوى محسّنة للزمن، وصدر تحت Apache-2.0 للاستخدام المباشر. مدعوم على نطاق واسع من بائعي السحابة والمشغلات المحسّنة (NVIDIA، إلخ).VRAM/حوسبة أكبر من نماذج Ministral 14B/8B/3B — قد يتطلب وحدات GPU أقوى منفردة أو إعدادات متعددة الـ GPU إذا كنت تستهدف نوافذ سياق كبيرة أو توازيًا عاليًا. لكنه أبسط استضافة من الرائد MoE.
Mistral Large 3سعة فعالة أعلى لكل رمز من نموذج كثيف بتكلفة استدلال مماثلة (لأن الخبراء النشطين فقط هم المستخدمون)، مما يتيح استدلالًا وسلوك سياق طويل متفوقًا.تعقيد التقديم: يتطلب MoE تقسيم الخبراء، والتوجيه، وذاكرة إضافية، وIO شبكي — أكثر تعقيدًا وكلفةً للتشغيل على نطاق من نموذج كثيف.

مقاييس Mistral 3 — كيف يُؤدّي؟

المقاييس معيار غير كامل لكنه مفيد. ظهرت عدة تقييمات مستقلة وطرف ثالث منذ الإطلاق؛ الصورة دقيقة التفاصيل: يدفع Mistral Large 3 أو يضاهي أفضل النماذج المفتوحة في العديد من لوائح الصدارة القياسية (خصوصًا المهام غير الاستدلالية ومتعددة الوسائط)، بينما تُظهر سلسلة Ministral مفاضلة قوية بين السعر والأداء للمهام الأصغر.

معالجة اللغة العامة والاستدلال

قوي عبر مهام الاستدلال والسياق الطويل: يُبلغ Mistral Large 3 عن درجات تنافسية (غالبًا الأفضل بين المفتوحة المصدر) على مجموعات بيانات الاستدلال (AIME، وأجنحة الاستدلال المتقدمة في الرياضيات/البرمجة) ومعايير المعرفة العامة مثل MMLU في مقارنات المجتمع. تُظهر أوراق متعددة المهام ولوائح الصدارة التي ضمّت Large 3 أنه يؤدي في القمة أو قريبًا منها بين نماذج الأوزان المفتوحة.

البرمجة والهندسة البرمجية

لوائح صدارة البرمجة مفتوحة المصدر: تشير منشورات مبكرة على LMArena وSWE-Bench إلى أن Mistral Large 3 من أفضل المؤدين بين النماذج المفتوحة لمهام البرمجة — تضعه بعض تصنيفات المجتمع في المركز الأول مفتوح المصدر في بعض لوائح الصدارة للبرمجة. ومع ذلك، غالبًا ما تتصدر النماذج المغلقة (OpenAI، xAI، Google) قدرات البرمجة في قِمم اللوائح الخاصة.

في لوحة LMArena، يحتل Mistral Large 3:

  • المركز الثاني بين النماذج مفتوحة المصدر غير الاستدلالية؛
  • المركز السادس بين النماذج مفتوحة المصدر إجمالًا.
البندMistral 3 14B InstructMistral 3 8B InstructMistral 3 3B Instruct
تموضع النموذجرائد الحافة عالي الأداء (بدرجة مؤسسية)نموذج أساسي متوازن وموفر للطاقةنموذج محلي/طرفي خفيف للغاية
إجمالي المعاملات≈ 14B (13.5B LM + 0.4B Vision)≈ 8.8B (8.4B LM + 0.4B Vision)≈ 3.8B (3.4B LM + 0.4B Vision)
قدرات الرؤيةفهم صور بدقة عالية، تحليل مستنداتأسئلة وأجوبة على صور بدقة متوسطةأوصاف صور خفيفة
قدرات الوكيلFunction Calling + مخرجات JSONFunction Calling + مخرجات JSONFunction Calling + مخرجات JSON
قدرة استدلال السياق⭐⭐⭐⭐⭐ (قوي)⭐⭐⭐⭐ (متوسط-قوي)⭐⭐⭐ (خفيف)
استدلال الرياضيات (AIME25)0.8500.7870.721
الأداء متعدد الوسائط (MMMBench)8.498.087.83
اتباع التعليمات (WildBench)68.566.856.8
متطلب الذاكرة (FP8)≈ 24 GB≈ 12 GB≈ 8 GB

كيفية الوصول إلى/تجربة Mistral 3 (خطوة بخطوة)

1) تنزيل وتشغيل من Hugging Face (الأوزان + بطاقات النموذج)

  • زر منظمة Mistral وصفحة النموذج المحددة (مثل mistralai/Mistral-Large-3-675B-Instruct-2512 أو صفحات نماذج Ministral 3) واتبع “Files & versions” / بطاقة النموذج للصيغ الموصى بها (NVFP4/FP8/FP16).
  • سير عمل نموذجي:
    1. pip install transformers accelerate torch (أو استخدم مشغلًا مثل vLLM).
    2. انسخ معرّف النموذج الدقيق من Hugging Face (تحتوي صفحات النموذج على المعرّف الرسمي والصيغ الموصى بها).
    3. مثال (لنموذج Ministral مدمج — استخدم معرّف HF الدقيق للتشغيل الفعلي):
from transformers import AutoTokenizer, AutoModelForCausalLM  
tokenizer = AutoTokenizer.from_pretrained("mistralai/<model-id>")  
model = AutoModelForCausalLM.from_pretrained("mistralai/<model-id>",  
                                             device_map="auto",  
                                             torch_dtype="auto")
  1. بالنسبة إلى Large 3 (MoE)، فضّل مشغلات البائعين أو نقاط استدلال HF — قد لا يكون التحميل المباشر عبر transformers أمثل لتوزيع MoE.

2) استخدام نقطة نهاية مُدارة على السحابة (الأسرع، دون بنية تحتية)

  • Amazon Bedrock: أُضيف Mistral Large 3 وMinistral 3 إلى Bedrock — يمكنك إنشاء نقاط نهاية بدون خوادم عبر Bedrock واستدعاؤها عبر API/SDK الخاص بـ Bedrock. مناسب للتطبيقات الإنتاجية دون عمليات بنية تحتية.
  • IBM watsonx وAzure Foundry: أُعلِن عنهما كشركاء إطلاق — وصول مستضاف بدرجة مؤسسية وميزات امتثال.
  • Mistral AI Studio: منتج Mistral المستضاف للتجربة مع نماذجهم.

3) استخدام مكدسات محسّنة من البائعين (إذا استضفت ذاتيًا)

  • NVIDIA: استخدم مشغلات NVIDIA المحسّنة وصيغ FP8/NVFP4 لتحسين الإنتاجية والتكلفة (نشرت NVIDIA تدوينة مطورين بتحسينات لـ Mistral 3). إذا كنت تخطط لاستضافة Large 3، استخدم عتاد فئة GB200/H200 واتبع إرشادات NVIDIA.
  • vLLM / مشغلات MoE المتخصصة: تستخدم مجموعات كثيرة vLLM أو مكدسات استدلال مُدركة لـ MoE لخفض زمن الاستجابة وتحسين التجميع.

4) مستضيفون/واجهات خارجية

مزودون مثل Modal وCometAPI وغيرهم يتيحون لك استدعاء النموذج عبر واجهات أبسط أو نقاط نهاية بنظام الدفع حسب الاستخدام — مفيد للنمذجة الأولية دون قفل بائع سحابي.

القيود والمخاطر وأفضل الممارسات

قيود معروفة وأنماط فشل

  • المقاييس ليست كل شيء: تتفاوت المراكز المبلغ عنها في لوائح الصدارة؛ التقييم الخاص بالمهمة أمر حاسم.
  • تباين ضبط التعليمات: قد تنتج الإصدارات المضبوطة للتعليمات (base / instruct / reasoning) سلوكيات مختلفة؛ اختر المناسب.
  • تعقيد النشر لـ MoE: يمكن أن تكون نماذج مزيج الخبراء أكثر تعقيدًا في النشر والضبط (التوجيه، تخطيط الذاكرة، التجميع). استخدم المشغلات الموصى بها من البائعين والصيغ المكمّمة حيثما أمكن.

اعتبارات التكلفة والكفاءة

  • Ministral 3 (3–14B): تكلفة منخفضة لكل رمز، ممكنة مع وحدات GPU غير مكلفة أو العديد من الحالات المحلية. جيدة للدمج في تطبيقات العميل، وخوادم الهاتف المحمول، أو الخدمات ذات حدود صارمة لزمن الاستجابة.
  • Mistral Large 3: احتياجات موارد أعلى مطلقًا، لكن التفعيل المتناثر يقلل الحوسبة النشطة لكل رمز مقارنةً بنموذج كثيف 675B؛ يمكن للمكدسات المحسّنة من البائعين (NVIDIA) أن تقلل زمن الاستجابة والتكلفة ماديًا. إذا كنت تحتاج فوائد الاستدلال/السياق الطويل، يصبح Large 3 فعّال التكلفة مقارنةً بالنماذج الكثيفة المماثلة التي ستحتاج حوسبة استدلال أكثر بكثير لمضاهاة القدرات.

السلامة والحوكمة

ترخيص مفتوح + ضوابط مؤسسية: يتيح ترخيص Apache 2.0 استخدامًا واسعًا؛ ومع ذلك ينبغي للمؤسسات إضافة طبقات أمان (مرشحات، آليات مراجعة بشرية، إثبات المصدر) وإجراء اختبارات هجوم حمراء لسيناريوهات سوء الاستخدام الخاصة بالمجال. تُظهر الشراكات والأخبار أن Mistral تتعاون مع شركاء لعمليات نشر مسؤولة.

أفضل الممارسات

  • اختبر على بياناتك: كرر التقييمات باستخدام مطالباتك، وإعدادات درجة العشوائية، والمعالجة اللاحقة.
  • استخدم استدلالًا متعدد الطبقات: وجّه المهام السريعة/الرخيصة إلى نماذج Ministral الكثيفة واحتفظ بـ Large 3 للمهام الأثقل.
  • استفد من الصيغ المحسّنة: استخدم الصيغ والنوى التي يوفرها البائعون (NVFP4/Triton) لتحسين زمن الاستجابة وتقليل بصمة الذاكرة.

الحكم النهائي: أين يقع Mistral 3 في 2025؟

Mistral 3 هو إصدار استراتيجي الأهمية لمنظومتي الذكاء الاصطناعي المفتوحة المصدر والمؤسسية. من خلال الجمع بين عائلة مدمجة مرخّصة بشكل متساهل وسهلة النشر (Ministral 3) ونموذج رائد عالي السعة متناثر (Mistral Large 3)، قدمت Mistral مجموعة أدوات تمتد من تطوير المستخدم الهواة محليًا وصولًا إلى أعباء عمل الوكلاء المؤسسية المتطلبة. تعني تحسينات البائعين (لا سيما مع NVIDIA) والصيغ المفتوحة أن كلًا من الأداء والتكلفة قابلان للضبط حسب عبء العمل. تُظهر المقاييس المبكرة أن Mistral Large 3 ينافس في قمة لوائح النماذج المفتوحة بينما تتميز إصدارات Ministral بكفاءة التكلفة في المهام العملية.

إذا كانت أولوياتك هي الترخيص المفتوح، والقدرة على تشغيل النماذج محليًا/دون اتصال، وأداء استدلال تنافسي عند bot

للبدء، استكشف قدرات المزيد من النماذج (مثل Gemini 3 Pro) في Playground واطّلع على دليل API للحصول على تعليمات مفصلة. قبل الوصول، يرجى التأكد من تسجيل الدخول إلى CometAPI والحصول على مفتاح API. يقدّم CometAPI سعرًا أقل بكثير من السعر الرسمي لمساعدتك على الدمج.

جاهز للانطلاق؟→ سجّل في CometAPI اليوم !

اقرأ المزيد

500+ نموذج في واجهة برمجة تطبيقات واحدة

خصم يصل إلى 20%