GLM-5 مقابل GLM-4.7: ما الذي تغيّر، وما الذي يهم، وهل ينبغي لك الترقية؟

CometAPI
AnnaFeb 26, 2026
GLM-5 مقابل GLM-4.7: ما الذي تغيّر، وما الذي يهم، وهل ينبغي لك الترقية؟

GLM-5، الصادر في 11 فبراير 2026 من Zhipu AI (Z.ai)، يمثل قفزة معمارية كبيرة مقارنة بـ GLM-4.7: نطاق MoE أكبر (≈744B مقابل ~355B إجمالي المعاملات)، سعة أعلى للمعاملات النشطة، انخفاض مُقاس في الهلوسة، ومكاسب واضحة على مقاييس الوكلائية والبرمجة — وذلك مقابل تعقيد أعلى في الاستدلال وأحياناً زمن استجابة أكبر.

ما هو GLM-5 ولماذا إصداره مهم؟

ما نوع النموذج الذي يمثّله GLM-5؟

GLM-5 هو أحدث نموذج مفتوح الأوزان من Zhipu AI (Z.ai)، صدر في 11 فبراير 2026. إنه محوّل مزيج الخبراء (MoE) يوسع عائلة GLM إلى ~744 مليار معامل إجمالي، مع تفعيل نحو 40 مليار معامل لكل استدلال (أي أن توجيه MoE يُبقي الحوسبة النشطة أصغر بكثير من إجمالي عدد المعاملات). يُقدَّم النموذج بترخيص MIT وهو مُحسَّن لأعباء العمل ذات الطابع الوكيلي — مهام طويلة الأمد ومتعددة الخطوات مثل تنظيم الأدوات، كتابة وتنقيح الشيفرة، هندسة المستندات، والعمل المعرفي المعقد.

ما أبرز التحسينات مقارنة بالإصدارات السابقة من GLM؟

قائمة مختصرة بأهم التغييرات:

  • تحجيم المعاملات: GLM-5 ≈ 744B إجمالي (40B نشط) مقابل GLM-4.7 ~355B إجمالي / 32B نشط — زيادة بنحو 2× في حجم النموذج.
  • المقاييس والموثوقية الواقعية: ارتفاع كبير على المقاييس المستقلة (Artificial Analysis Intelligence Index: GLM-5 = 50 مقابل GLM-4.7 = 42)، وخفض كبير في الهلوسة على مقياس AA Omniscience (انخفاض مُبلَّغ بمقدار 56 نقطة مئوية مقارنة بـ GLM-4.7).
  • القدرة الوكيلية: تحسين الاعتمادية لاستدعاء الأدوات، تفكيك الخطط، والتنفيذ طويل الأفق (تضع Z.ai GLM-5 لـ “الهندسة الوكيلية”).
  • النشر والرقاقات: بُني ووُقّت للعمل على عتاد الاستدلال المحلي الصيني (Huawei Ascend وغيرها)، ما يعكس توجه Z.ai نحو مجموعات رقاقات متنوعة.

لماذا يهم: يقرّب GLM-5 الفجوة بين النماذج مفتوحة الأوزان والنماذج الاحتكارية المتقدمة في مهام الوكلاء والمعرفة — ما يجعل النماذج مفتوحة المصدر عالية القدرات خياراً واقعياً للمؤسسات التي تحتاج عمليات نشر قابلة للتحكم ومرونة في الترخيص.

الجديد في GLM-5 (بتفصيل)

التموضع: “الهندسة الوكيلية” على نطاق واسع

تُقدّم Z.ai GLM-5 صراحةً كنموذج للهندسة الوكيلية: فئة من الاستخدامات حيث يضع النموذج خطة، يستدعي أدوات، يفحص النتائج، ويكرّر ذاتياً عبر خطوات عديدة (مثل بناء خط CI، فرز وإصلاح مجموعات الاختبار الفاشلة، أو وصل خدمات مصغّرة معاً). هذا تحوّل استراتيجي من توليد الشيفرة أحادي الدور إلى نماذج مصمَّمة للعمل والاستدلال عبر آثار التنفيذ ومخرجات الأدوات.

أوضاع التفكير، الاستدلال المحفوظ/المتداخل

يقدم GLM-5 أوضاع تفكير مصقولة (تُذكر في الوثائق أحياناً كـ التفكير المتداخل، التفكير المحفوظ)، ما يعني أن النموذج يمكنه إنتاج — ثم إعادة استخدام — آثار الاستدلال الداخلية في الأدوار والأدوات اللاحقة. عملياً، يقلل هذا من تكاليف إعادة الاشتقاق في سير العمل الطويل ويحسّن الاتساق عندما يحتاج الوكيل إلى الحفاظ على حالة الخطة عبر نتائج الأدوات. قدّم GLM-4.7 سابقاً متغيرات التفكير وأداءً مدركاً للأدوات؛ يُحسّن GLM-5 الآليات ووصفات التدريب لجعل هذه الآثار أكثر موثوقية وقابلة لإعادة الاستخدام.

هندسة السياق الطويل واستقرار النظام

يتضمن تدريب وضبط GLM-5 تجارب توليد مع سياقات طويلة جداً (202,752 رمزاً أثناء تشغيلات SFT/التقييم). هذا ارتفاع عملي مهم عندما تحتاج أن يرى النموذج عدة مستودعات، سجلات اختبار، ومخرجات تنظيم في موجه واحد. إعدادات تقييم تدفع أطوال التوليد إلى 131,072 رمزاً لبعض أحمال الاستدلال. هذا جهد هندسي ملحوظ للتخفيف من عدم الاستقرار المعتاد عند التكيّف مع سياقات هائلة.

البنية والتحجيم (MoE)

تشير التقارير العامة إلى أن GLM-5 يستخدم بنية MoE (مزيج الخبراء) كبيرة بعدة مئات المليارات من المعاملات إجمالاً (القوائم العامة تذكر ~744–745B). لدى GLM-4.7 متغيرات MoE وFlash مضبوطة لمقايضات نشر مختلفة (مثلاً، متغيرات “Flash” بمعاملات نشطة أصغر للاستدلال المحلي أو منخفض التكلفة). تساعد بنية MoE GLM-5 على دفع الذروة القدرات مع تمكين خيارات التهيئة (مجموعات معاملات نشطة أدنى لاستدلال أرخص). توقُّع ملفات استدلال مختلفة (زمن استجابة، VRAM) تبعاً للمتغير الذي تنشره.

كيف قامت Z.ai بتوسيع وتدريب GLM-5 مقارنةً بـ GLM-4.7؟

الفروقات المعمارية الأساسية

الميزةGLM-5GLM-4.7
تاريخ الإصدارFeb 2026 (الرائد)Dec 2025
عائلة النموذجالجيل الأحدثالجيل السابق
إجمالي المعاملات~744B~355B
المعاملات النشطة (MoE)~40B (لكل تمرير أمامي)~32B (لكل تمرير أمامي)
البنيةمزيج الخبراء مع انتباه متناثرMoE مع أوضاع التفكير
نافذة السياق~200K رمز (نفس الحجم الأساسي)~200K رمز

الخلاصة: يزيد GLM-5 السعة الإجمالية تقريباً للضعف مقارنةً بـ GLM-4.7 ويرفع المعاملات النشطة، ما يُسهم في تحسين الاستدلال والقدرات التركيبية، خصوصاً للمحتوى التقني الطويل، خطوط الاستدلال الممتدة، ومهام هندسة الشيفرة المعقدة.

البنية: ما الذي تغيّر؟

GLM-4.7 هو تصميم مزيج خبراء (MoE) في متغيراته الأكبر (موثَّق كـ ~355B إجمالي معاملات مع مجموعة نشطة أصغر لكل رمز). يحتفظ GLM-5 بأفكار التبعثر على أسلوب MoE لكنه يضيف آلية انتباه متناثرة جديدة — يسميها التقرير DeepSeek Sparse Attention (DSA) — تُخصّص موارد الانتباه ديناميكياً للرموز التي تعتبرها مهمة. الادعاء هو أن DSA يقلل تكلفة الاستدلال/التدريب مع الحفاظ (أو تحسين) استدلال السياق الطويل، ما يسمح للنموذج بالتعامل مع سياقات أطول بكثير من نقاط التحقق القديمة مع إبقاء الحوسبة قابلة للإدارة.

التحجيم: المعاملات والبيانات

  • GLM-4.7: موثَّق بما يقارب 355 مليار معامل إجمالي للنسخة الأساسية MoE (مع مجموعة معاملات نشطة أصغر لكل تمرير أمامي للكفاءة).
  • GLM-5: مُبلّغ عند ~744 مليار معامل ودُرّب بـ ~28.5 تريليون رمز في ميزانية ما قبل التدريب، مع تركيز تدريب على الشيفرة والمتتاليات الوكيلية. يهدف هذا المزيج إلى تحسين توليف الشيفرة والتخطيط الوكيلي المستدام.

قفزة المعاملات إلى جانب توسيع ميزانية الرموز والتحديثات المعمارية هي السبب الأساسي على جانب الإدخال الذي يجعل GLM-5 يُظهر نتائج رقمية أفضل على لوحات متصدري الشيفرة والوكلاء.

استراتيجية التدريب وما بعد التدريب (RL)

حيث قدّم GLM-4.7 أوضاع “تفكير متداخل” أو محتفظ به لتحسين الاستدلال متعدد الخطوات واستخدام الأدوات، يُنظّم GLM-5 هذا الخط عبر:

  1. توسيع طول السياق عبر جدول منتصف التدريب (تُبلغ الفريق عن تمديد تقدُّمي للسياق حتى 200K رمز).
  2. تنفيذ خط ما بعد تدريب RL متسلسل (Reasoning RL → Agentic RL → General RL) مع تقطير عبر المراحل على سياسة لتجنب النسيان الكارثي.
  3. إضافة RL غير متزامن ومحركات إخراج مفصولة لتوسيع مسارات الوكلاء أثناء RL دون اختناقات تزامن.

تستهدف هذه الأساليب تحديداً تحسين السلوك الوكيلي بعيد الأفق — مثلاً، الحفاظ على حالة داخلية مستقرة عبر جلسات طويلة حيث ينفّذ النموذج عدة استدعاءات أدوات وتعديلات شيفرة متشابكة.

كيف يقارن GLM-5 وGLM-4.7 في الأداء والقدرة؟

المقاييس ومقاييس الذكاء

مجال التقييمGLM-5GLM-4.7
البرمجة (SWE-bench)~77.8% (أفضل أداء لنموذج مفتوح)~73.8% على SWE-bench Verified
مهام الأدوات وCLI~56% على Terminal Bench 2.0~41% على Terminal Bench 2.0
الاستدلال (HLE وموسّع)~30.5 → ~~50 بالأدوات (مقياس داخلي)~24.8 → ~42.8 على HLE بالأدوات
مهام وكيلية ومتعددة الخطواتأقوى بشكل ملحوظ (سلاسل أطول)قوي (وضع التفكير) لكنه أقل عمقاً من GLM-5

التفسير:

  • GLM-5 يتفوق على GLM-4.7 على نطاق واسع في مقاييس البرمجة والاستدلال الأساسية بهوامش قابلة للقياس. يتضح ذلك خصوصاً في الأتمتة متعددة الخطوات، تفكيك المشكلات، ومهام المنطق العميق.
  • التحسينات غير طفيفة: مثلاً، ترتفع القدرة على Terminal Bench من ~41% إلى 56%، وهي قفزة نسبية كبيرة في موثوقية الأتمتة الوكيلية.
  • في اختبارات الاستدلال (مثل مقاييس HLE الداخلية)، يُظهر GLM-5 مخرجات استدلال أقوى خاماً ومع أدوات.
  • يُظهر مكاسب قابلة للقياس في اختبارات الوكلاء الواقعية: في مقياس CC-Bench-V2 frontend HTML ISR سجّل GLM-5 38.9% مقابل 35.4% لـ GLM-4.7 على مجموعة فرعية من مهام الواجهة الأمامية. (هذا أحد المقاييس المُقَيَّمة آلياً لإظهار الكفاءة العملية في تطوير الواجهات الأمامية).

حجم السياق والمهام الطويلة

  • كلا النموذجين يدعمان سياقات كبيرة (~200k رمز) — ما يعني أنهما يستطيعان استهلاك والاستدلال على مستندات أطول، قواعد شيفرة، أو حوارات.
  • تقارير واقعية غير رسمية تشير إلى أن عمليات نشر GLM-5 قد أظهرت أحياناً مشكلات مُدرَكة في إدارة السياق على بعض المنصات — لكن قد يعكس ذلك حدود المضيف وليس تصميم النموذج نفسه.

استدعاء الأدوات والوظائف

يدعم كلاهما استدعاء الأدوات/الوظائف بشكل مُهيكل؛ ينفّذ GLM-5 ببساطة منطق نصوص أكثر تعقيداً بدقة أكبر، خصوصاً عبر فروع ممتدة من العمليات.

أمثلة: كيف تختلف جودة المخرجات عبر المهام

مثال برمجي (تصوري)

  • GLM-4.7: ينتج نصوصاً مفردة الملف بكفاءة مع صياغة صحيحة ومنطق قابل للقراءة.
  • GLM-5: يتفوّق في توليد شيفرة متعددة الملفات، اقتراحات تصحيح عميقة، وحلقات تغذية راجعة طويلة مع حد أدنى من اقتطاع السياق.

الاستدلال والتخطيط

  • GLM-4.7: استدلال متعدد الخطوات جيد لكنه يتوقف أحياناً عند سلاسل عميقة جداً.
  • GLM-5: أفضل في تقسيم الاستدلال، تذكُّر الخطوات السابقة، والتنقل عبر سلاسل طويلة — مفيد لتوليف البيانات واستراتيجيات متعددة المجالات.

كيف تتغير زمن الاستجابة والتكلفة إذا انتقلنا من GLM-4.7 إلى GLM-5؟

مقايضات الزمن وأين يظل GLM-4.7 متفوّقاً

الرسائل القصيرة وواجهات سريعة: تُظهر مقاييس من الممارسين أن GLM-5 يمكن أن يضيف حملاً ثابتاً صغيراً على الردود القصيرة (دفتر التوجيه واختيار الخبراء)، ما قد يظهر كزمن استجابة أعلى قليلاً لحمولات صغيرة جداً. لواجهات منخفضة الزمن للغاية مع رسائل صغيرة، تظل GLM-4.7 أو متغيرات Flash جذابة.

مقارنة GLM-5 بـ GLM-4.7:

  • GLM-4.7: الإدخال $0.60/1M tokens، الإخراج $2.20/1M tokens.
  • GLM-5: الإدخال $1.00/1M tokens، الإخراج $3.20/1M tokens.

المقايضة بين التكلفة وتحرير البشر

يمكن تبرير سعر النموذج الأعلى عندما يقلل GLM-5 بشكل ملموس وقت البشر لاحقاً (مثلاً، تحرير طلبات الدمج، فرز الإصلاحات المؤتمتة، أو تجنّب تكرار استدعاءات النموذج). قاعدة قرار بسيطة:

إذا خفّض GLM-5 وقت التحرير اليدوي بأكثر من X% (تعتمد X على معدل تكلفة العمل البشري وعدد الرموز لكل سير عمل)، فقد يكون فعال التكلفة رغم كلفة الرمز الأعلى. نماذج تحليل متعددة على المدونات وجدت أن GLM-5 غالباً ما يُعوّض التكلفة في سير العمل الوكيلية الثقيلة والمتكررة (مثل إصلاح الشيفرة المؤتمت على نطاق).

زمن الاستجابة والعتاد

VRAM الاستدلال وزمن الاستجابة يعتمدان على المتغير (Flash، FlashX، MoE الكامل). تُظهر الأدلة المجتمعية أن GLM-4.7 FlashX ومتغيرات 30B Flash يمكن نشرها على وحدات معالجة رسومية 24GB؛ تتطلب متغيرات MoE الكاملة إعدادات متعددة وحدات معالجة رسومية كبيرة. تتوقع إعدادات GLM-5 الكاملة احتياجات موارد أعلى مادياً لنفس الإنتاجية، رغم أن تبعثر MoE يساعد في تقليل الحوسبة النشطة لكل رمز. توقَّع استثماراً هندسياً لضبط التكميم، الخرائط الذاكرية، والبث للإنتاج.

متى يجب أن ترقي من GLM-4.7 إلى GLM-5؟

قم بالترقية إذا:

  • تحتاج استدلال شيفرة متعدد الملفات أفضل، تنظيم وكلاء بسياق طويل، أو معدلات نجاح أعلى شاملة للوكلاء.
  • مهامك عالية القيمة وتبرر تعقيد وكلفة بنية الاستدلال الأعلى لكل طلب.

ابقَ على GLM-4.7 إذا:

  • عبء العمل لديك عالي الحجم، موجهات قصيرة (تصنيف، وسم)، حيث تهم قابلية التنبؤ بالتكلفة والزمن أكثر من مكاسب الجودة الهامشية.
  • حالات استخدام تُفضِّل البقاء على GLM-4.7
  • إنتاجية عالية، حمولات قصيرة: روبوتات دردشة، اقتراحات تلقائية، مهام إعادة صياغة صغيرة — غالباً ما تكون GLM-4.7 (خاصة متغيرات Flash) أرخص وأقل زمناً.
  • ميزانيات مقيدة ومهام حجمية: للوسم، التصنيف، أو المهام الدقيقة المنفَّذة على نطاق، تُقنع كفاءة GLM-4.7 وسعر الرمز الأدنى.
  • تفتقر إلى البنية أو الميزانية للتعامل مع تشظية MoE/التحجيم الذاتي المعقد.

كيف أختار النموذج في استدعاءات واجهتي البرمجية؟ (أمثلة)

cURL — تبديل معرف النموذج (مثال CometAPI / متوافق مع OpenAI):

# GLM-4.7
curl -X POST "https://api.cometapi.com/v1/chat/completions" \
 -H "Authorization: Bearer $KEY" -H "Content-Type: application/json" \
 -d '{"model":"glm-4.7","messages":[{"role":"user","content":"Summarize this repo..."}],"max_tokens":800}'
# GLM-5
curl -X POST "https://api.cometapi.com/v1/chat/completions" \
 -H "Authorization: Bearer $KEY" -H "Content-Type: application/json" \
 -d '{"model":"glm-5","messages":[{"role":"user","content":"Summarize this repo..."}],"max_tokens":1200}'

Python (requests): غيّر الحقل model لتوجيه الطلب إلى GLM-4.7 أو GLM-5 — يمكن لبقية الشيفرة العميلة أن تبقى كما هي.

التقييم النهائي:

يبدو GLM-5 تطورياً مع نقاط انعطاف مهمة:

  • تطوري لأنه يواصل تصميم عائلة GLM المرتكز على MoE والاستدلال، ويستمر في نمط التحسين التكراري (4.5 → 4.6 → 4.7 → 5).
  • انعطاف لأنه يزيد الحجم مادياً، يُدخل DSA، ويلتزم بمنهج RL مصمم خصيصاً لمهام وكلائية بعيدة الأفق — وكل ذلك ينتج تحسينات ذات معنى وقابلة للقياس عبر نطاق واسع من المقاييس العملية.

إذا قيّمت وفق ترتيب لوحات المتصدرين فقط، يدّعي GLM-5 قيادة النماذج مفتوحة الأوزان على عدة مقاييس ويقرّب الفجوة مع الأنظمة الاحتكارية الأعلى في مهام الوكلاء والبرمجة. إذا قيّمت بتجربة المطوّر والاستخدام الحساس للزمن، تبقى الإيجابيات والسلبيات العملية بحاجة لإثبات في عمليات نشر أكبر ومع الوقت. هذا يعني أن GLM-5 مُقنع حيث تتطلب حالة الاستخدام كفاءة وكيلية مستدامة؛ يظل GLM-4.7 خياراً ناضجاً، أسرع، وأكثر توفيراً للتكلفة للعديد من احتياجات الإنتاج الحالية.

يمكن للمطورين الوصول إلى GLM-5 وGLM-4.7 عبر CometAPI الآن. للبدء، استكشف قدرات النموذج في Playground وراجع دليل API للحصول على تعليمات مفصلة. قبل الوصول، يُرجى التأكد من تسجيل الدخول إلى CometAPI والحصول على مفتاح API. يقدم CometAPI سعراً أقل بكثير من السعر الرسمي لمساعدتك على الدمج.

Ready to Go?→ سجّل الاشتراك في GLM-5 اليوم!

إذا أردت المزيد من النصائح والأدلة والأخبار حول الذكاء الاصطناعي، تابعنا على VK، X وDiscord!

الوصول إلى أفضل النماذج بتكلفة منخفضة

اقرأ المزيد