النماذجالدعمالمؤسسةمدونة
أكثر من 500 واجهة برمجة تطبيقات لنماذج الذكاء الاصطناعي، الكل في واجهة واحدة. فقط في CometAPI
واجهة برمجة التطبيقات للنماذج
مطور
البدء السريعالتوثيقلوحة تحكم API
الموارد
نماذج الذكاء الاصطناعيمدونةالمؤسسةالسجل التاريخي للتغييراتحول
2025 CometAPI. جميع الحقوق محفوظة.سياسة الخصوصيةشروط الخدمة
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

مدخل:$0.96/M
الإخراج:$3.84/M
سياق:200K
الحد الأقصى للإخراج:128K
GLM-4.7 هو أحدث نموذج رائد من Z.AI، يقدّم ترقيات في مجالين رئيسيين: قدرات برمجية معززة وتفكير وتنفيذ متعدد الخطوات أكثر استقرارًا. ويُظهر تحسينات كبيرة في تنفيذ مهام الوكلاء المعقدة، مع تقديم تجارب محادثة أكثر طبيعية وجماليات واجهة أمامية متفوقة.
جديد
الاستخدام التجاري
Playground
نظرة عامة
الميزات
التسعير
API

ما هو GLM-4.7

GLM-4.7 هو أحدث نموذج لغوي كبير مفتوح الأساس والرائد من Z.ai / Zhipu AI (اسم النموذج glm-4.7). ويُصنَّف كنموذج “تفكير” موجَّه للمطورين مع تحسينات خاصة في البرمجة/تنفيذ المهام الوكيلة، والاستدلال متعدد الخطوات، واستدعاء الأدوات، وسير العمل ذي السياق الطويل. يركّز الإصدار على التعامل مع سياقات كبيرة (حتى 200K من السياق)، وحدّ أقصى مرتفع للمخرجات (حتى 128K رمزًا)، وأوضاع “تفكير” متخصصة لخطوط العمل الوكيلة.

الميزات الرئيسية

  • تحسينات الوكلاء / استخدام الأدوات: أوضاع تفكير مدمجة (“Interleaved Thinking”، و“Preserved Thinking”، والتحكم على مستوى الدور) لتمكين النموذج من “التفكير قبل التنفيذ”، والاحتفاظ بالاستدلال عبر الأدوار، وأن يكون أكثر استقرارًا عند استدعاء الأدوات أو تنفيذ المهام متعددة الخطوات. يهدف ذلك إلى دعم سير عمل وكيل قوي (الطرفيات، وسلاسل الأدوات، وتصفح الويب).
  • الكفاءة في البرمجة والطرفية: تحسينات كبيرة في معايير البرمجة ومهام أتمتة الطرفية — تُظهر معايير المورّد مكاسب واضحة مقارنةً بـ GLM-4.6 في مقاييس SWE-bench وTerminal Bench. ويترجم ذلك إلى تحسين توليد الشيفرة عبر عدة أدوار، وتسلسل الأوامر، والتعافي في بيئات الوكلاء.
  • “Vibe coding” / جودة مخرجات الواجهة الأمامية: تحسين الجودة الافتراضية لواجهة المستخدم/التخطيط في HTML والعروض التقديمية والشرائح التي يتم إنشاؤها (تخطيطات أنظف، وأحجام أفضل، وافتراضات بصرية محسّنة).
  • سير العمل ذي السياق الطويل: نافذة سياق بحجم 200K رمز وأدوات لتخزين السياق مؤقتًا؛ وهي عملية لقواعد الشيفرة متعددة الملفات، والمستندات الطويلة، وجلسات الوكلاء متعددة الجولات.

أداء المقاييس

تشير جداول المقاييس الخاصة بالناشر/القائمين على GLM-4.7 وجداول المجتمع إلى مكاسب كبيرة مقارنةً بـ GLM-4.6 ونتائج تنافسية أمام نماذج معاصرة أخرى في مهام البرمجة والوكلاء واستخدام الأدوات. أرقام مختارة (المصدر: جداول منشورة رسميًا على Hugging Face / Z.AI):

  • LiveCodeBench-v6 (معيار وكيل البرمجة): 84.9 (ذُكر كأفضل أداء مفتوح المصدر).
  • SWE-bench Verified (البرمجة): 73.8% (ارتفاعًا من 68.0% في GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% مقارنةً بـ GLM-4.6).
  • Terminal Bench 2.0 (إجراءات الطرفية الوكيلة): 41.0% (تحسّن ملحوظ بمقدار +16.5% مقارنةً بـ 4.6).
  • HLE (استدلال معقد باستخدام الأدوات): 42.8% عند استخدامه مع الأدوات (تم الإبلاغ عن تحسّن كبير مقارنةً بالإصدارات السابقة).
  • τ²-Bench (استدعاء الأدوات التفاعلي): 87.4 (تم الإبلاغ عنه كأفضل أداء مفتوح المصدر).

حالات الاستخدام النموذجية والسيناريوهات المثال

  • مساعدو البرمجة الوكليون: توليد الشيفرة بشكل ذاتي أو شبه ذاتي، وإصلاحات الشيفرة متعددة الأدوار، وأتمتة الطرفية، وكتابة نصوص CI/CD.
  • وكلاء مدفوعون بالأدوات: تصفح الويب، وتنسيق واجهات API، وسير العمل متعدد الخطوات (مدعوم بالتفكير المحفوظ واستدعاء الدوال).
  • توليد الواجهة الأمامية وواجهة المستخدم: إنشاء هياكل مواقع الويب تلقائيًا، والعروض التقديمية، والملصقات مع تحسينات في الجماليات والتخطيط.
  • البحث والمهام ذات السياق الطويل: تلخيص المستندات، وتجميع الأدبيات، والتوليد المعزّز بالاسترجاع عبر المستندات الطويلة (نافذة 200k رمز مفيدة هنا).
  • وكلاء تعليميون تفاعليون / مدرسو برمجة: تعليم متعدد الأدوار مع استدلال محفوظ يتذكر كتل الاستدلال السابقة عبر الجلسة.

كيفية الوصول إلى واجهة GLM 4.7 API واستخدامها

الخطوة 1: التسجيل للحصول على مفتاح API

سجّل الدخول إلى cometapi.com. إذا لم تكن مستخدمًا لدينا بعد، فالرجاء التسجيل أولًا. سجّل الدخول إلى لوحة تحكم CometAPI. احصل على بيانات الوصول، أي مفتاح API الخاص بالواجهة. انقر على “Add Token” في قسم API token في المركز الشخصي، واحصل على مفتاح الرمز: sk-xxxxx ثم أرسله.

الخطوة 2: إرسال الطلبات إلى MiniMax M2.1 API

اختر نقطة النهاية “glm-4.7” لإرسال طلب API وقم بتعيين نص الطلب. يتم الحصول على طريقة الطلب ونص الطلب من وثائق API على موقعنا. كما يوفّر موقعنا اختبار Apifox لراحتك. استبدل <YOUR_API_KEY> بمفتاح CometAPI الفعلي من حسابك. مكان الاستدعاء: واجهات API بأسلوب Chat.

أدخل سؤالك أو طلبك في حقل content — وهذا ما سيرد عليه النموذج. عالج استجابة API للحصول على الإجابة المُولّدة.

الخطوة 3: استرجاع النتائج والتحقق منها

عالج استجابة API للحصول على الإجابة المُولّدة. بعد المعالجة، تستجيب API بحالة المهمة و

الميزات لـ GLM-4.7

استكشف الميزات الرئيسية لـ GLM-4.7، المصممة لتعزيز الأداء وسهولة الاستخدام. اكتشف كيف يمكن لهذه القدرات أن تفيد مشاريعك وتحسن تجربة المستخدم.

التسعير لـ GLM-4.7

استكشف الأسعار التنافسية لـ GLM-4.7، المصمم ليناسب الميزانيات المختلفة واحتياجات الاستخدام المتنوعة. تضمن خططنا المرنة أن تدفع فقط مقابل ما تستخدمه، مما يجعل من السهل التوسع مع نمو متطلباتك. اكتشف كيف يمكن لـ GLM-4.7 تحسين مشاريعك مع الحفاظ على التكاليف قابلة للإدارة.
سعر كوميت (USD / M Tokens)السعر الرسمي (USD / M Tokens)خصم
مدخل:$0.96/M
الإخراج:$3.84/M
مدخل:$1.2/M
الإخراج:$4.8/M
-20%

نموذج الكود وواجهة برمجة التطبيقات لـ GLM-4.7

احصل على أكواد نماذجية شاملة وموارد API لـ GLM-4.7 لتبسيط عملية التكامل الخاصة بك. توفر وثائقنا التفصيلية إرشادات خطوة بخطوة، مما يساعدك على الاستفادة من الإمكانات الكاملة لـ GLM-4.7 في مشاريعك.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

المزيد من النماذج

A

Claude Opus 4.6

مدخل:$4/M
الإخراج:$20/M
Claude Opus 4.6 هو نموذج لغة كبير من فئة “Opus” تابع لـ Anthropic، صدر في فبراير 2026. ويُطرح كأداة عمل أساسية لأعمال المعرفة وسير عمل البحث — مع تحسين الاستدلال ضمن سياقات طويلة، والتخطيط متعدد الخطوات، واستخدام الأدوات (بما في ذلك أطر عمل برمجية قائمة على الوكلاء)، ومهام استخدام الحاسوب مثل إنشاء الشرائح وجداول البيانات تلقائيًا.
A

Claude Sonnet 4.6

مدخل:$2.4/M
الإخراج:$12/M
Claude Sonnet 4.6 هو أكثر نماذج Sonnet لدينا كفاءةً حتى الآن. إنه ترقية شاملة لقدرات النموذج في مجالات البرمجة، واستخدام الحاسوب، والاستدلال بسياقات طويلة، وتخطيط الوكلاء، والعمل المعرفي، والتصميم. كما يتميز Sonnet 4.6 بنافذة سياق بسعة 1M رمز في الإصدار التجريبي.
O

GPT-5.4 nano

مدخل:$0.16/M
الإخراج:$1/M
GPT-5.4 nano مصمم للمهام التي تكتسب فيها السرعة والتكلفة أهمية قصوى، مثل التصنيف، واستخراج البيانات، والترتيب، والوكلاء الفرعيين.
O

GPT-5.4 mini

مدخل:$0.6/M
الإخراج:$3.6/M
يقدّم GPT-5.4 mini قدرات GPT-5.4 ضمن نموذج أسرع وأكثر كفاءة مصمم لأحمال عمل كبيرة الحجم.
A

Claude Mythos Preview

A

Claude Mythos Preview

قريبًا
مدخل:$60/M
الإخراج:$240/M
Claude Mythos Preview هو أكثر نماذجنا الحدودية قدرة حتى الآن، ويُظهر قفزة لافتة في النتائج على العديد من معايير التقييم مقارنةً بنموذجنا الحدودي السابق، Claude Opus 4.6.
X

mimo-v2-pro

مدخل:$0.8/M
الإخراج:$2.4/M
MiMo-V2-Pro هو نموذج تأسيسي رائد من Xiaomi، يضم أكثر من 1T من إجمالي المعاملات وطول سياق يبلغ 1M، ومحسّن بعمق لسيناريوهات الوكلاء. وهو قابل للتكيّف بدرجة عالية مع أطر الوكلاء العامة مثل OpenClaw. ويصنَّف ضمن الفئة العليا عالميًا في معايير PinchBench وClawBench القياسية، مع أداء مُدرَك يقترب من أداء Opus 4.6. وقد صُمِّم MiMo-V2-Pro ليكون بمثابة عقل أنظمة الوكلاء، لتنسيق سير عمل معقّدة، وقيادة مهام الهندسة الإنتاجية، وتقديم نتائج موثوقة.

مدونات ذات صلة

GLM-5 مقابل GLM-4.7: ما الذي تغيّر، وما الذي يهم، وهل ينبغي لك الترقية؟
Feb 26, 2026
glm-5
glm-4-7

GLM-5 مقابل GLM-4.7: ما الذي تغيّر، وما الذي يهم، وهل ينبغي لك الترقية؟

GLM-5، الذي أُطلق في 11 فبراير 2026 من قِبل Zhipu AI (Z.ai)، يمثل قفزة معمارية كبيرة مقارنةً بـ GLM-4.7: حجم MoE أكبر (≈744B مقابل ~355B من إجمالي المعاملات)، سعة أكبر للمعاملات النشطة، هلوسة مقاسة أقل، ومكاسب واضحة في معايير الوكلاء والبرمجة — على حساب تعقيد الاستدلال و(أحياناً) الكمون.
كيف أستخدم GLM-4.7-Flash محليًا؟
Jan 21, 2026
glm-4-7
glm-4-7

كيف أستخدم GLM-4.7-Flash محليًا؟

GLM-4.7-Flash هو عضو MoE 30B A3B خفيف وعالي الأداء من عائلة GLM-4.7، مُصمم لتمكين النشر المحلي ومنخفض التكلفة للبرمجة، وسير العمل القائم على الوكلاء، والاستدلال العام. يمكنك تشغيله محليًا بثلاث طرق عملية: (1) عبر Ollama (سهل، وقت تشغيل محلي مُدار)، (2) عبر Hugging Face / Transformers / vLLM / SGLang (نشر خادمي يركز على GPU أولًا)، أو (3) عبر GGUF + llama.cpp / llama-cpp-python (ملائم للـ CPU/أجهزة الحافة).
إصدار GLM-4.7: ماذا يعني ذلك لقدرات الذكاء الاصطناعي؟
Dec 23, 2025
glm-4-7

إصدار GLM-4.7: ماذا يعني ذلك لقدرات الذكاء الاصطناعي؟

في 22 ديسمبر 2025، أعلنت Zhipu AI (Z.ai) رسميًا عن إطلاق GLM-4.7، أحدث إصدار ضمن عائلة نماذج اللغة العامة (GLM) — ما استقطب اهتمامًا عالميًا في عالم نماذج الذكاء الاصطناعي مفتوحة المصدر. لا يعزز هذا النموذج القدرات في مهام البرمجة والاستدلال فحسب، بل يتحدى أيضًا هيمنة النماذج المغلقة المصدر مثل GPT-5.2 وClaude Sonnet 4.5 في المعايير المرجعية الرئيسية.