النماذجالدعمالمؤسسةمدونة
أكثر من 500 واجهة برمجة تطبيقات لنماذج الذكاء الاصطناعي، الكل في واجهة واحدة. فقط في CometAPI
واجهة برمجة التطبيقات للنماذج
مطور
البدء السريعالتوثيقلوحة تحكم API
الموارد
نماذج الذكاء الاصطناعيمدونةالمؤسسةالسجل التاريخي للتغييراتحول
2025 CometAPI. جميع الحقوق محفوظة.سياسة الخصوصيةشروط الخدمة
Home/Models/Zhipu AI/GLM 4.6
Z

GLM 4.6

مدخل:$0.96/M
الإخراج:$3.84/M
سياق:200,000
الحد الأقصى للإخراج:128,000
تم إصدار نموذج Zhipu الرائد الأحدث GLM-4.6: إجمالي المعاملات 355B، والمعاملات النشطة 32B. تتفوق القدرات الأساسية الشاملة على GLM-4.5. البرمجة: يتماشى مع Claude Sonnet 4، الأفضل في الصين. السياق: مُدِّد إلى 200K (في الأصل 128K). الاستدلال: مُحسَّن، يدعم Tool calls. البحث: تم تحسين Tool وإطار الوكلاء. الكتابة: أكثر اتساقاً مع تفضيلات البشر وأسلوب الكتابة ولعب الأدوار. متعدد اللغات: تم تعزيز تأثير الترجمة.
جديد
الاستخدام التجاري
Playground
نظرة عامة
الميزات
التسعير
API

GLM-4.6 هو أحدث إصدار رئيسي ضمن عائلة GLM من Z.ai (المعروفة سابقًا باسم Zhipu AI): نموذج MoE (مزيج من الخبراء) من الجيل الرابع، مخصص لـ سير عمل قائم على الوكلاء، والاستدلال في سياقات طويلة والبرمجة الواقعية. يركز الإصدار على التكامل العملي بين الوكلاء/الأدوات، ونافذة سياق كبيرة جدًا، وإتاحة الأوزان المفتوحة للنشر المحلي.

الميزات الأساسية

  • سياق طويل — نافذة سياق 200K رمز أصلية (موسّعة من 128K). (docs.z.ai)
  • قدرات البرمجة والوكلاء — تحسينات مُعلن عنها في مهام البرمجة الواقعية واستدعاء الأدوات بشكل أفضل للوكلاء.
  • الكفاءة — انخفاض مُبلغ عنه بنسبة ~30% في استهلاك الرموز مقارنةً بـ GLM-4.5 في اختبارات Z.ai.
  • النشر والتكميم — أول إعلان عن تكامل FP8 وInt4 لرقاقات Cambricon؛ دعم FP8 أصلي على Moore Threads عبر vLLM.
  • حجم النموذج ونوع الموتر — تشير المواد المنشورة إلى نموذج بمعاملات ~357B (موترات BF16 / F32) على Hugging Face.

تفاصيل تقنية

أنماط الإدخال/الإخراج والصيغ. GLM-4.6 هو نموذج نصي فقط (LLM) (أنماط الإدخال والإخراج: نص). طول السياق = 200K رمز؛ الحد الأقصى للمخرجات = 128K رمز.

التكميم ودعم الأجهزة. يذكر الفريق تكميم FP8/Int4 على رقاقات Cambricon وتنفيذ FP8 أصلي على وحدات معالجة رسوميات Moore Threads باستخدام vLLM للاستدلال — وهو أمر مهم لخفض تكلفة الاستدلال وإتاحة النشر داخل المؤسسة وعلى السحابات المحلية.

الأدوات والتكاملات. يوزَّع GLM-4.6 عبر API الخاصة بـ Z.ai، وشبكات مزوّدي الطرف الثالث (مثل CometAPI)، ومتكامل في وكلاء البرمجة (Claude Code، Cline، Roo Code، Kilo Code).

تفاصيل تقنية

أنماط الإدخال/الإخراج والصيغ. GLM-4.6 هو نموذج نصي فقط (LLM) (أنماط الإدخال والإخراج: نص). طول السياق = 200K رمز؛ الحد الأقصى للمخرجات = 128K رمز.

التكميم ودعم الأجهزة. يذكر الفريق تكميم FP8/Int4 على رقاقات Cambricon وتنفيذ FP8 أصلي على وحدات معالجة رسوميات Moore Threads باستخدام vLLM للاستدلال — وهو أمر مهم لخفض تكلفة الاستدلال وإتاحة النشر داخل المؤسسة وعلى السحابات المحلية.

الأدوات والتكاملات. يوزَّع GLM-4.6 عبر API الخاصة بـ Z.ai، وشبكات مزوّدي الطرف الثالث (مثل CometAPI)، ومتكامل في وكلاء البرمجة (Claude Code، Cline، Roo Code، Kilo Code).

أداء القياسات المعيارية

  • تقييمات منشورة: تم اختبار GLM-4.6 على ثمانية معايير عامة تغطي الوكلاء والاستدلال والبرمجة ويُظهر تفوقًا واضحًا على GLM-4.5. في اختبارات البرمجة الواقعية المُقيّمة بشريًا (نسخة موسّعة من CC-Bench)، يستخدم GLM-4.6 ~15% رموزًا أقل مقارنةً بـ GLM-4.5 ويحقق معدل فوز ~48.6% مقابل Claude Sonnet 4 من Anthropic (تقارب شبه متكافئ في العديد من القوائم).
  • التموضع: النتائج تدّعي أن GLM-4.6 ينافس النماذج الرائدة محليًا ودوليًا (تتضمن الأمثلة DeepSeek-V3.1 وClaude Sonnet 4).

صورة

القيود والمخاطر

  • الهلاوس والأخطاء: مثل جميع النماذج الحالية، يرتكب GLM-4.6 أخطاءً واقعية — توضح وثائق Z.ai صراحةً أن المخرجات قد تحتوي على أخطاء. ينبغي للمستخدمين تطبيق التحقق والاسترجاع/RAG للمحتوى الحرج.
  • تعقيد النموذج وتكلفة الخدمة: سياق 200K ومخرجات كبيرة جدًا يزيدان بشكل كبير متطلبات الذاكرة والزمن وقد يرفعان تكاليف الاستدلال؛ يلزم تكميم/هندسة الاستدلال للتشغيل على نطاق واسع.
  • فجوات في المجالات: رغم أن GLM-4.6 يورد أداءً قويًا في الوكلاء/البرمجة، تُشير بعض التقارير العامة إلى أنه لا يزال يتأخر عن بعض الإصدارات من النماذج المنافسة في اختبارات مصغّرة محددة (مثل بعض مقاييس البرمجة مقابل Sonnet 4.5). قيّم حسب المهمة قبل استبدال نماذج الإنتاج.
  • السلامة والسياسات: الأوزان المفتوحة تزيد الوصول لكنها تثير أيضًا أسئلة الحوكمة (تظل وسائل التخفيف والحواجز والاختبار الأحمر مسؤولية المستخدم).

حالات الاستخدام

  • أنظمة الوكلاء وتنظيم الأدوات: سلاسل آثار الوكلاء الطويلة، التخطيط متعدد الأدوات، الاستدعاء الديناميكي للأدوات؛ معايرة النموذج للوكلاء هي نقطة بيع أساسية.
  • مساعدو البرمجة الواقعية: توليد الشيفرة متعدد الجولات، مراجعة الشيفرة ومساعدو بيئات التطوير التفاعلية (مُتكامل في Claude Code وCline وRoo Code — وفق Z.ai). تحسينات كفاءة الرموز تجعله جذابًا لخطط المطورين كثيفة الاستخدام.
  • سير عمل المستندات الطويلة: التلخيص، التركيب متعدد المستندات، المراجعات القانونية/التقنية الطويلة نظرًا لنافذة 200K.
  • إنشاء المحتوى والشخصيات الافتراضية: حوارات ممتدة، الحفاظ على شخصية متسقة في السيناريوهات متعددة الجولات.

كيف يقارن GLM-4.6 بالنماذج الأخرى

  • GLM-4.5 → GLM-4.6: قفزة في حجم السياق (128K → 200K) وكفاءة الرموز (~15% رموز أقل على CC-Bench)؛ تحسين استخدام الوكلاء/الأدوات.
  • GLM-4.6 مقابل Claude Sonnet 4 / Sonnet 4.5: تفيد Z.ai بوجود تقارب على عدة قوائم ومعدل فوز ~48.6% على مهام البرمجة الواقعية في CC-Bench (تنافس وثيق، مع اختبارات مصغّرة يتفوق فيها Sonnet أحيانًا). بالنسبة لفرق الهندسة الكثيفة الاستخدام، يُقدَّم GLM-4.6 كبديل فعّال من حيث التكلفة.
  • GLM-4.6 مقابل نماذج السياق الطويل الأخرى (DeepSeek، Gemini، عائلة GPT-4): يركز GLM-4.6 على السياق الكبير وسير عمل البرمجة الوكيلية؛ تتباين نقاط القوة حسب المقياس (كفاءة الرموز/تكامل الوكلاء مقابل دقة توليد الشيفرة الخام أو مسارات السلامة). ينبغي أن يكون الاختيار التجريبي مُوجَّهًا بالمهمة.

أُطلق نموذج GLM-4.6 الأحدث من Zhipu AI: 355B معاملات إجمالية، 32B نشطة. يتفوق على GLM-4.5 في جميع القدرات الأساسية.

  • البرمجة: يتماشى مع Claude Sonnet 4، الأفضل في الصين.
  • السياق: تم التوسيع إلى 200K (من 128K).
  • الاستدلال: مُحسّن، يدعم استدعاء الأدوات أثناء الاستدلال.
  • البحث: تعزيز استدعاء الأدوات وأداء الوكلاء.
  • الكتابة: يتوافق بدرجة أفضل مع تفضيلات البشر في الأسلوب وسهولة القراءة ولعب الأدوار.
  • متعدد اللغات: تعزيز الترجمة عبر اللغات.

الأسئلة الشائعة

What are the context window and output limits for GLM-4-6?

GLM-4-6 supports a 200,000 token context window (extended from 128K in GLM-4.5) with up to 128,000 output tokens, enabling extensive document analysis and long-form generation.

How does GLM-4-6 compare to Claude Sonnet 4 in coding?

According to Zhipu, GLM-4-6's coding capabilities align with Claude Sonnet 4, making it the best coding model among Chinese domestic models.

Does GLM-4-6 support tool calling and agent workflows?

Yes, GLM-4-6 features improved inference capabilities with enhanced Tool calls support and an optimized agent framework for complex multi-step task automation.

What is the architecture of GLM-4-6?

GLM-4-6 is a Mixture-of-Experts model with 355B total parameters and 32B active parameters, balancing capability with efficiency.

What makes GLM-4-6 different from GLM-4.5?

GLM-4-6 offers extended context (200K vs 128K), improved reasoning and tool calling, enhanced writing aligned with human preferences, better multilingual translation, and optimized role-playing.

Is GLM-4-6 suitable for enterprise Chinese language applications?

Yes, GLM-4-6 is particularly strong for Chinese language tasks including translation, content writing, and conversational AI, with enhanced multilingual capabilities.

When should I choose GLM-4-6 over GPT-5.2 or Claude?

Choose GLM-4-6 for Chinese-first applications, cost-effective 200K context needs, or when you need a strong domestic AI alternative with coding capabilities comparable to frontier models.

الميزات لـ GLM 4.6

استكشف الميزات الرئيسية لـ GLM 4.6، المصممة لتعزيز الأداء وسهولة الاستخدام. اكتشف كيف يمكن لهذه القدرات أن تفيد مشاريعك وتحسن تجربة المستخدم.

التسعير لـ GLM 4.6

استكشف الأسعار التنافسية لـ GLM 4.6، المصمم ليناسب الميزانيات المختلفة واحتياجات الاستخدام المتنوعة. تضمن خططنا المرنة أن تدفع فقط مقابل ما تستخدمه، مما يجعل من السهل التوسع مع نمو متطلباتك. اكتشف كيف يمكن لـ GLM 4.6 تحسين مشاريعك مع الحفاظ على التكاليف قابلة للإدارة.
سعر كوميت (USD / M Tokens)السعر الرسمي (USD / M Tokens)خصم
مدخل:$0.96/M
الإخراج:$3.84/M
مدخل:$1.2/M
الإخراج:$4.8/M
-20%

نموذج الكود وواجهة برمجة التطبيقات لـ GLM 4.6

GLM-4.6 هو أحدث إصدار رئيسي ضمن عائلة GLM لدى Z.ai (المعروفة سابقًا باسم Zhipu AI): نموذج لغة كبير من نوع MoE من الجيل الرابع مُحسَّن لسير عمل قائم على الوكلاء، والاستدلال في سياقات طويلة، والبرمجة في العالم الحقيقي. يركز الإصدار على التكامل العملي بين الوكلاء والأدوات، ونافذة سياق كبيرة جدًا، وتوافر الأوزان المفتوحة للنشر محليًا.
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await openai.chat.completions.create({
  model: "glm-4.6",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" },
  ],
});

console.log(completion.choices[0].message.content);

Curl Code Example

curl https://api.cometapi.com/v1/chat/completions \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "glm-4.6",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
}'

المزيد من النماذج

A

Claude Opus 4.6

مدخل:$4/M
الإخراج:$20/M
Claude Opus 4.6 هو نموذج لغة كبير من فئة “Opus” تابع لـ Anthropic، صدر في فبراير 2026. ويُطرح كأداة عمل أساسية لأعمال المعرفة وسير عمل البحث — مع تحسين الاستدلال ضمن سياقات طويلة، والتخطيط متعدد الخطوات، واستخدام الأدوات (بما في ذلك أطر عمل برمجية قائمة على الوكلاء)، ومهام استخدام الحاسوب مثل إنشاء الشرائح وجداول البيانات تلقائيًا.
A

Claude Sonnet 4.6

مدخل:$2.4/M
الإخراج:$12/M
Claude Sonnet 4.6 هو أكثر نماذج Sonnet لدينا كفاءةً حتى الآن. إنه ترقية شاملة لقدرات النموذج في مجالات البرمجة، واستخدام الحاسوب، والاستدلال بسياقات طويلة، وتخطيط الوكلاء، والعمل المعرفي، والتصميم. كما يتميز Sonnet 4.6 بنافذة سياق بسعة 1M رمز في الإصدار التجريبي.
O

GPT-5.4 nano

مدخل:$0.16/M
الإخراج:$1/M
GPT-5.4 nano مصمم للمهام التي تكتسب فيها السرعة والتكلفة أهمية قصوى، مثل التصنيف، واستخراج البيانات، والترتيب، والوكلاء الفرعيين.
O

GPT-5.4 mini

مدخل:$0.6/M
الإخراج:$3.6/M
يقدّم GPT-5.4 mini قدرات GPT-5.4 ضمن نموذج أسرع وأكثر كفاءة مصمم لأحمال عمل كبيرة الحجم.
A

Claude Mythos Preview

A

Claude Mythos Preview

قريبًا
مدخل:$60/M
الإخراج:$240/M
Claude Mythos Preview هو أكثر نماذجنا الحدودية قدرة حتى الآن، ويُظهر قفزة لافتة في النتائج على العديد من معايير التقييم مقارنةً بنموذجنا الحدودي السابق، Claude Opus 4.6.
X

mimo-v2-pro

مدخل:$0.8/M
الإخراج:$2.4/M
MiMo-V2-Pro هو نموذج تأسيسي رائد من Xiaomi، يضم أكثر من 1T من إجمالي المعاملات وطول سياق يبلغ 1M، ومحسّن بعمق لسيناريوهات الوكلاء. وهو قابل للتكيّف بدرجة عالية مع أطر الوكلاء العامة مثل OpenClaw. ويصنَّف ضمن الفئة العليا عالميًا في معايير PinchBench وClawBench القياسية، مع أداء مُدرَك يقترب من أداء Opus 4.6. وقد صُمِّم MiMo-V2-Pro ليكون بمثابة عقل أنظمة الوكلاء، لتنسيق سير عمل معقّدة، وقيادة مهام الهندسة الإنتاجية، وتقديم نتائج موثوقة.

مدونات ذات صلة

إصدار GLM-4.7: ماذا يعني ذلك لقدرات الذكاء الاصطناعي؟
Dec 23, 2025
glm-4-7

إصدار GLM-4.7: ماذا يعني ذلك لقدرات الذكاء الاصطناعي؟

في 22 ديسمبر 2025، أعلنت Zhipu AI (Z.ai) رسميًا عن إطلاق GLM-4.7، أحدث إصدار ضمن عائلة نماذج اللغة العامة (GLM) — ما استقطب اهتمامًا عالميًا في عالم نماذج الذكاء الاصطناعي مفتوحة المصدر. لا يعزز هذا النموذج القدرات في مهام البرمجة والاستدلال فحسب، بل يتحدى أيضًا هيمنة النماذج المغلقة المصدر مثل GPT-5.2 وClaude Sonnet 4.5 في المعايير المرجعية الرئيسية.