ما هو GLM-4.7
GLM-4.7 هو أحدث نموذج لغوي كبير مفتوح الأساس والرائد من Z.ai / Zhipu AI (اسم النموذج glm-4.7). ويُصنَّف كنموذج “تفكير” موجَّه للمطورين مع تحسينات خاصة في البرمجة/تنفيذ المهام الوكيلة، والاستدلال متعدد الخطوات، واستدعاء الأدوات، وسير العمل ذي السياق الطويل. يركّز الإصدار على التعامل مع سياقات كبيرة (حتى 200K من السياق)، وحدّ أقصى مرتفع للمخرجات (حتى 128K رمزًا)، وأوضاع “تفكير” متخصصة لخطوط العمل الوكيلة.
الميزات الرئيسية
- تحسينات الوكلاء / استخدام الأدوات: أوضاع تفكير مدمجة (“Interleaved Thinking”، و“Preserved Thinking”، والتحكم على مستوى الدور) لتمكين النموذج من “التفكير قبل التنفيذ”، والاحتفاظ بالاستدلال عبر الأدوار، وأن يكون أكثر استقرارًا عند استدعاء الأدوات أو تنفيذ المهام متعددة الخطوات. يهدف ذلك إلى دعم سير عمل وكيل قوي (الطرفيات، وسلاسل الأدوات، وتصفح الويب).
- الكفاءة في البرمجة والطرفية: تحسينات كبيرة في معايير البرمجة ومهام أتمتة الطرفية — تُظهر معايير المورّد مكاسب واضحة مقارنةً بـ GLM-4.6 في مقاييس SWE-bench وTerminal Bench. ويترجم ذلك إلى تحسين توليد الشيفرة عبر عدة أدوار، وتسلسل الأوامر، والتعافي في بيئات الوكلاء.
- “Vibe coding” / جودة مخرجات الواجهة الأمامية: تحسين الجودة الافتراضية لواجهة المستخدم/التخطيط في HTML والعروض التقديمية والشرائح التي يتم إنشاؤها (تخطيطات أنظف، وأحجام أفضل، وافتراضات بصرية محسّنة).
- سير العمل ذي السياق الطويل: نافذة سياق بحجم 200K رمز وأدوات لتخزين السياق مؤقتًا؛ وهي عملية لقواعد الشيفرة متعددة الملفات، والمستندات الطويلة، وجلسات الوكلاء متعددة الجولات.
أداء المقاييس
تشير جداول المقاييس الخاصة بالناشر/القائمين على GLM-4.7 وجداول المجتمع إلى مكاسب كبيرة مقارنةً بـ GLM-4.6 ونتائج تنافسية أمام نماذج معاصرة أخرى في مهام البرمجة والوكلاء واستخدام الأدوات. أرقام مختارة (المصدر: جداول منشورة رسميًا على Hugging Face / Z.AI):
- LiveCodeBench-v6 (معيار وكيل البرمجة): 84.9 (ذُكر كأفضل أداء مفتوح المصدر).
- SWE-bench Verified (البرمجة): 73.8% (ارتفاعًا من 68.0% في GLM-4.6).
- SWE-bench Multilingual: 66.7% (+12.9% مقارنةً بـ GLM-4.6).
- Terminal Bench 2.0 (إجراءات الطرفية الوكيلة): 41.0% (تحسّن ملحوظ بمقدار +16.5% مقارنةً بـ 4.6).
- HLE (استدلال معقد باستخدام الأدوات): 42.8% عند استخدامه مع الأدوات (تم الإبلاغ عن تحسّن كبير مقارنةً بالإصدارات السابقة).
- τ²-Bench (استدعاء الأدوات التفاعلي): 87.4 (تم الإبلاغ عنه كأفضل أداء مفتوح المصدر).
حالات الاستخدام النموذجية والسيناريوهات المثال
- مساعدو البرمجة الوكليون: توليد الشيفرة بشكل ذاتي أو شبه ذاتي، وإصلاحات الشيفرة متعددة الأدوار، وأتمتة الطرفية، وكتابة نصوص CI/CD.
- وكلاء مدفوعون بالأدوات: تصفح الويب، وتنسيق واجهات API، وسير العمل متعدد الخطوات (مدعوم بالتفكير المحفوظ واستدعاء الدوال).
- توليد الواجهة الأمامية وواجهة المستخدم: إنشاء هياكل مواقع الويب تلقائيًا، والعروض التقديمية، والملصقات مع تحسينات في الجماليات والتخطيط.
- البحث والمهام ذات السياق الطويل: تلخيص المستندات، وتجميع الأدبيات، والتوليد المعزّز بالاسترجاع عبر المستندات الطويلة (نافذة 200k رمز مفيدة هنا).
- وكلاء تعليميون تفاعليون / مدرسو برمجة: تعليم متعدد الأدوار مع استدلال محفوظ يتذكر كتل الاستدلال السابقة عبر الجلسة.
كيفية الوصول إلى واجهة GLM 4.7 API واستخدامها
الخطوة 1: التسجيل للحصول على مفتاح API
سجّل الدخول إلى cometapi.com. إذا لم تكن مستخدمًا لدينا بعد، فالرجاء التسجيل أولًا. سجّل الدخول إلى لوحة تحكم CometAPI. احصل على بيانات الوصول، أي مفتاح API الخاص بالواجهة. انقر على “Add Token” في قسم API token في المركز الشخصي، واحصل على مفتاح الرمز: sk-xxxxx ثم أرسله.
الخطوة 2: إرسال الطلبات إلى MiniMax M2.1 API
اختر نقطة النهاية “glm-4.7” لإرسال طلب API وقم بتعيين نص الطلب. يتم الحصول على طريقة الطلب ونص الطلب من وثائق API على موقعنا. كما يوفّر موقعنا اختبار Apifox لراحتك. استبدل <YOUR_API_KEY> بمفتاح CometAPI الفعلي من حسابك. مكان الاستدعاء: واجهات API بأسلوب Chat.
أدخل سؤالك أو طلبك في حقل content — وهذا ما سيرد عليه النموذج. عالج استجابة API للحصول على الإجابة المُولّدة.
الخطوة 3: استرجاع النتائج والتحقق منها
عالج استجابة API للحصول على الإجابة المُولّدة. بعد المعالجة، تستجيب API بحالة المهمة و


