ماڈلزسپورٹانٹرپرائزبلاگ
500+ AI ماڈل API، تمام ایک API میں۔ صرف CometAPI میں
ماڈلز API
ڈویلپر
فوری آغازدستاویزاتAPI ڈیش بورڈ
وسائل
AI ماڈلزبلاگانٹرپرائزتبدیلیوں کا ریکارڈہمارے بارے میں
2025 CometAPI۔ تمام حقوق محفوظ ہیں۔رازداری کی پالیسیخدمات کی شرائط
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

ان پٹ:$0.96/M
آؤٹ پٹ:$3.84/M
سیاق و سباق:200K
زیادہ سے زیادہ آؤٹ پٹ:128K
GLM-4.7، Z.AI کا تازہ ترین فلیگ شپ ماڈل ہے، جو دو کلیدی شعبوں میں اپ گریڈز پیش کرتا ہے: بہتر پروگرامنگ صلاحیتیں اور مرحلہ وار استدلال و نفاذ میں زیادہ استحکام۔ یہ پیچیدہ ایجنٹ ٹاسکس کی انجام دہی میں نمایاں بہتری دکھاتا ہے، جبکہ زیادہ فطری مکالماتی تجربات اور اعلیٰ فرنٹ اینڈ جمالیات فراہم کرتا ہے۔
نیا
تجارتی استعمال
Playground
خلاصہ
خصوصیات
قیمت
API

GLM-4.7 کیا ہے

GLM-4.7 Z.ai / Zhipu AI کا تازہ ترین فلیگ شپ اوپن-فاؤنڈیشن بڑا لسانی ماڈل ہے (ماڈل نام glm-4.7)۔ اسے ڈویلپر مرکوز “thinking” ماڈل کے طور پر متعین کیا گیا ہے، جس میں خاص طور پر coding/ایجنٹ پر مبنی ٹاسک ایکزیکیوشن، کثیر مرحلہ استدلال، ٹول کالنگ، اور طویل سیاق پر مبنی ورک فلو میں بہتریاں شامل ہیں۔ اس ریلیز میں بڑے کانٹیکسٹ کو سنبھالنے (200K کانٹیکسٹ تک)، زیادہ سے زیادہ آؤٹ پٹ (128K tokens تک)، اور ایجنٹک پائپ لائنز کے لیے مخصوص “thinking” موڈز پر زور دیا گیا ہے۔

اہم خصوصیات

  • ایجنٹ پر مبنی/ٹول کے استعمال میں بہتریاں: بلٹ اِن thinking موڈز (“Interleaved Thinking”، “Preserved Thinking”، ٹرن-لیول کنٹرول) تاکہ ماڈل “عمل کرنے سے پہلے سوچ” سکے، متعدد ٹرنز میں استدلال برقرار رکھ سکے، اور ٹولز کال کرنے یا کثیر مرحلہ کام انجام دینے کے دوران زیادہ مستحکم ہو۔ یہ ٹرمینلز، ٹول چینز اور ویب براؤزنگ جیسے مضبوط ایجنٹ ورک فلو کو ہدف بناتا ہے۔
  • Coding اور ٹرمینل صلاحیت: کوڈنگ بینچ مارکس اور ٹرمینل آٹومیشن ٹاسکس پر نمایاں بہتری — وینڈر بینچ مارکس SWE-bench اور Terminal Bench میٹرکس میں GLM-4.6 کے مقابلے میں واضح اضافہ دکھاتے ہیں۔ اس کا نتیجہ ایجنٹ ماحول میں بہتر ملٹی-ٹرن کوڈ جنریشن، کمانڈ سیکوینسنگ اور ریکوری کی صورت میں نکلتا ہے۔
  • “Vibe coding” / فرنٹ اینڈ آؤٹ پٹ کوالٹی: تیار کردہ HTML، سلائیڈز اور پریزنٹیشنز کے لیے بہتر ڈیفالٹ UI/لے آؤٹ کوالٹی (زیادہ صاف لے آؤٹس، سائزنگ، بہتر بصری ڈیفالٹس)۔
  • لانگ-کانٹیکسٹ ورک فلو: 200K token کانٹیکسٹ ونڈو اور کانٹیکسٹ کیشنگ کے لیے ٹولز؛ متعدد فائلوں والے کوڈ بیسز، طویل دستاویزات، اور کثیر راؤنڈ ایجنٹ سیشنز کے لیے عملی۔

بینچ مارک کارکردگی

GLM-4.7 کے ناشر/مینٹینرز اور کمیونٹی بینچ مارک ٹیبلز کوڈنگ، ایجنٹک اور ٹول کے استعمال والے کاموں میں GLM-4.6 کے مقابلے میں خاطر خواہ بہتریاں اور دیگر ہم عصر ماڈلز کے خلاف مسابقتی نتائج رپورٹ کرتے ہیں۔ منتخب اعدادوشمار (ماخذ: آفیشل Hugging Face / Z.AI کی شائع کردہ ٹیبلز):

  • LiveCodeBench-v6 (coding agent بینچ مارک): 84.9 (اوپن سورس SOTA حوالہ دیا گیا)۔
  • SWE-bench Verified (coding): 73.8% (GLM-4.6 میں 68.0% سے بڑھ کر)۔
  • SWE-bench Multilingual: 66.7% (+12.9% بمقابلہ GLM-4.6)۔
  • Terminal Bench 2.0 (ایجنٹک ٹرمینل ایکشنز): 41.0% (4.6 کے مقابلے میں قابلِ ذکر +16.5% بہتری)۔
  • HLE (ٹولز کے ساتھ پیچیدہ استدلال): ٹولز کے ساتھ استعمال کرنے پر 42.8% (سابقہ ورژنز کے مقابلے میں بڑی بہتری رپورٹ)۔
  • τ²-Bench (انٹرایکٹو ٹول کالنگ): 87.4 (اوپن سورس SOTA رپورٹ)۔

عام استعمال کے کیسز اور مثالیں

  • ایجنٹک کوڈنگ اسسٹنٹس: خودکار یا نیم خودکار کوڈ جنریشن، ملٹی-ٹرن کوڈ فکسز، ٹرمینل آٹومیشن اور CI/CD سکرپٹنگ۔
  • ٹول پر مبنی ایجنٹس: ویب براؤزنگ، API آرکسٹریشن، کثیر مرحلہ ورک فلو (Preserved Thinking اور فنکشن کالنگ کے ذریعے معاونت یافتہ)۔
  • فرنٹ اینڈ اور UI جنریشن: خودکار ویب سائٹ اسکیفولڈنگ، سلائیڈ ڈیکس، پوسٹرز جن میں جمالیاتیات اور لے آؤٹ بہتر ہوں۔
  • تحقیق اور لانگ-کانٹیکسٹ ٹاسکس: دستاویز خلاصہ سازی، ادب کا تناظر، اور طویل دستاویزات میں retrieval-augmented generation (یہاں 200k token ونڈو مددگار ہے)۔
  • انٹرایکٹو تعلیمی ایجنٹس/کوڈنگ ٹیوٹرز: ملٹی-ٹرن تدریس جس میں محفوظ شدہ استدلال ایک سیشن کے دوران سابقہ استدلالی بلاکس کو یاد رکھتا ہے۔

GLM 4.7 API تک رسائی اور استعمال کا طریقہ

مرحلہ 1: API Key کے لیے سائن اپ کریں

cometapi.com میں لاگ اِن کریں۔ اگر آپ ابھی تک ہمارے صارف نہیں ہیں تو پہلے رجسٹر کریں۔ اپنے CometAPI console میں سائن ان کریں۔ انٹرفیس کے لیے ایکسیس کریڈنشل API key حاصل کریں۔ personal center میں API token پر “Add Token” پر کلک کریں، token key حاصل کریں: sk-xxxxx اور سبمٹ کریں۔

مرحلہ 2: MiniMax M2.1 API کو درخواستیں بھیجیں

API ریکویسٹ بھیجنے کے لیے “glm-4.7” اینڈ پوائنٹ منتخب کریں اور ریکویسٹ باڈی سیٹ کریں۔ ریکویسٹ میتھڈ اور ریکویسٹ باڈی ہماری ویب سائٹ کی API دستاویز سے حاصل کریں۔ ہماری ویب سائٹ آپ کی سہولت کے لیے Apifox ٹیسٹ بھی فراہم کرتی ہے۔ اپنے اکاؤنٹ کی اصل CometAPI key کے ساتھ <YOUR_API_KEY> تبدیل کریں۔ کہاں کال کرنا ہے: [Chat]-اسٹائل APIs۔

اپنا سوال یا درخواست content فیلڈ میں درج کریں—اسی پر ماڈل جواب دے گا۔ API ریسپانس کو پروسیس کریں تاکہ تیار کردہ جواب حاصل ہو سکے۔

مرحلہ 3: نتائج حاصل کریں اور تصدیق کریں

تیار کردہ جواب حاصل کرنے کے لیے API ریسپانس کو پروسیس کریں۔ پروسیسنگ کے بعد، API ٹاسک کی حیثیت اور

GLM-4.7 کے لیے خصوصیات

[ماڈل کا نام] کی اہم خصوصیات دریافت کریں، جو کارکردگی اور قابل استعمال کو بہتر بنانے کے لیے ڈیزائن کی گئی ہیں۔ جانیں کہ یہ صلاحیتیں آپ کے منصوبوں کو کیسے فائدہ پہنچا سکتی ہیں اور صارف کے تجربے کو بہتر بنا سکتی ہیں۔

GLM-4.7 کی قیمتیں

[ماڈل کا نام] کے لیے مسابقتی قیمتوں کو دریافت کریں، جو مختلف بجٹ اور استعمال کی ضروریات کے مطابق ڈیزائن کیا گیا ہے۔ ہمارے لچکدار منصوبے اس بات کو یقینی بناتے ہیں کہ آپ صرف اسی کے لیے ادائیگی کریں جو آپ استعمال کرتے ہیں، جس سے آپ کی ضروریات بڑھنے کے ساتھ ساتھ اسکیل کرنا آسان ہو جاتا ہے۔ دریافت کریں کہ [ماڈل کا نام] کیسے آپ کے پروجیکٹس کو بہتر بنا سکتا ہے جبکہ اخراجات کو قابو میں رکھتا ہے۔
Comet قیمت (USD / M Tokens)سرکاری قیمت (USD / M Tokens)رعایت
ان پٹ:$0.96/M
آؤٹ پٹ:$3.84/M
ان پٹ:$1.2/M
آؤٹ پٹ:$4.8/M
-20%

GLM-4.7 کے لیے نمونہ کوڈ اور API

GLM-4.7 کے لیے جامع نمونہ کوڈ اور API وسائل تک رسائی حاصل کریں تاکہ آپ کے انضمام کے عمل کو آسان بنایا جا سکے۔ ہماری تفصیلی دستاویزات قدم بہ قدم رہنمائی فراہم کرتی ہیں، جو آپ کو اپنے پروجیکٹس میں GLM-4.7 کی مکمل صلاحیت سے فائدہ اٹھانے میں مدد کرتی ہیں۔
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

مزید ماڈلز

A

Claude Opus 4.6

ان پٹ:$4/M
آؤٹ پٹ:$20/M
Claude Opus 4.6، Anthropic کے “Opus” کلاس کا بڑا لسانی ماڈل ہے، جو فروری 2026 میں جاری کیا گیا۔ اسے علمی کام اور تحقیقی ورک فلوز کے لیے ایک بھروسہ مند مرکزی حل کے طور پر پیش کیا گیا ہے — اور یہ طویل سیاق میں استدلال، کئی مرحلوں پر مشتمل منصوبہ بندی، ٹولز کے استعمال (جن میں ایجنٹ پر مبنی سافٹ ویئر ورک فلوز بھی شامل ہیں)، اور کمپیوٹر کے استعمال سے متعلق کام جیسے خودکار سلائیڈ اور اسپریڈشیٹ کی تیاری کو بہتر بناتا ہے۔
A

Claude Sonnet 4.6

ان پٹ:$2.4/M
آؤٹ پٹ:$12/M
Claude Sonnet 4.6 ہمارا اب تک کا سب سے زیادہ قابل Sonnet ماڈل ہے۔ یہ کوڈنگ، کمپیوٹر کے استعمال، طویل سیاقی استدلال، ایجنٹ منصوبہ بندی، دانش پر مبنی کام، اور ڈیزائن کے حوالے سے ماڈل کی صلاحیتوں کا مکمل اپ گریڈ ہے۔ Sonnet 4.6 میں بیٹا مرحلے میں 1M ٹوکن کانٹیکسٹ ونڈو کی خصوصیت بھی ہے۔
O

GPT-5.4 nano

ان پٹ:$0.16/M
آؤٹ پٹ:$1/M
GPT-5.4 nano اُن کاموں کے لیے تیار کیا گیا ہے جن میں رفتار اور لاگت سب سے زیادہ اہمیت رکھتی ہیں، مثلاً درجہ بندی، ڈیٹا استخراج، رینکنگ، اور ذیلی ایجنٹس۔
O

GPT-5.4 mini

ان پٹ:$0.6/M
آؤٹ پٹ:$3.6/M
GPT-5.4 mini، GPT-5.4 کی صلاحیتوں کو ایک تیز تر، زیادہ مؤثر ماڈل میں لے آتا ہے جو زیادہ حجم کے ورک لوڈز کے لیے ڈیزائن کیا گیا ہے۔
A

Claude Mythos Preview

A

Claude Mythos Preview

جلد آ رہا ہے
ان پٹ:$60/M
آؤٹ پٹ:$240/M
Claude Mythos Preview اب تک ہمارا سب سے طاقتور فرنٹیئر ماڈل ہے، اور کئی تشخیصی بینچ مارکس پر اسکورز میں ایک نمایاں چھلانگ دکھاتا ہے، ہمارے سابقہ فرنٹیئر ماڈل Claude Opus 4.6 کے مقابلے میں۔
X

mimo-v2-pro

ان پٹ:$0.8/M
آؤٹ پٹ:$2.4/M
MiMo-V2-Pro، Xiaomi کا فلیگ شپ فاؤنڈیشن ماڈل ہے، جس میں 1T سے زیادہ کل پیرا میٹرز اور 1M کی کانٹیکسٹ لمبائی ہے، اور اسے ایجنٹ پر مبنی منظرناموں کے لیے گہرائی سے بہتر بنایا گیا ہے۔ یہ OpenClaw جیسے عمومی ایجنٹ فریم ورکس کے ساتھ انتہائی مطابقت پذیر ہے۔ معیاری PinchBench اور ClawBench بنچ مارکس میں یہ عالمی سطح پر اعلیٰ ترین درجے میں شمار ہوتا ہے، اور اس کی محسوس شدہ کارکردگی Opus 4.6 کے قریب پہنچتی ہے۔ MiMo-V2-Pro کو ایجنٹ سسٹمز کے دماغ کے طور پر کام کرنے کے لیے بنایا گیا ہے، جو پیچیدہ ورک فلو کو ہم آہنگ و منظم کرتا ہے، پروڈکشن انجینئرنگ کے کاموں کو آگے بڑھاتا ہے، اور نتائج قابلِ اعتماد طور پر فراہم کرتا ہے۔

متعلقہ بلاگز

GLM-5 بمقابلہ GLM-4.7: کیا بدلا، کیا اہم ہے، اور کیا آپ کو اپ گریڈ کرنا چاہیے؟
Feb 26, 2026
glm-5
glm-4-7

GLM-5 بمقابلہ GLM-4.7: کیا بدلا، کیا اہم ہے، اور کیا آپ کو اپ گریڈ کرنا چاہیے؟

GLM-5، جسے 11 فروری 2026 کو Zhipu AI (Z.ai) نے جاری کیا، GLM-4.7 کے مقابلے میں آرکیٹیکچرل لحاظ سے ایک بڑی جست کی نمائندگی کرتا ہے: MoE کا بڑا پیمانہ (≈744B بمقابلہ ~355B کل پیرامیٹرز)، فعال پیرامیٹرز کی زیادہ گنجائش، ماپی گئی ہیلوسینیشن کی کم سطح، اور ایجنٹک اور کوڈنگ بینچ مارکس پر واضح بہتری — البتہ انفرنس پیچیدگی اور (کبھی کبھی) لیٹنسی کی قیمت پر۔
GLM-4.7-Flash کو مقامی طور پر کیسے استعمال کریں؟
Jan 21, 2026
glm-4-7
glm-4-7

GLM-4.7-Flash کو مقامی طور پر کیسے استعمال کریں؟

GLM-4.7-Flash، GLM-4.7 فیملی کا ایک ہلکا پھلکا، اعلی کارکردگی والا 30B A3B MoE رکن ہے، جو کوڈنگ، ایجنٹ پر مبنی ورک فلوز اور عمومی استدلال کے لیے مقامی اور کم لاگت تعیناتی کو ممکن بنانے کے لیے ڈیزائن کیا گیا ہے۔ آپ اسے مقامی طور پر چلانے کے تین عملی طریقے اختیار کر سکتے ہیں: (1) Ollama کے ذریعے (آسان، انتظام شدہ مقامی رن ٹائم)، (2) Hugging Face / Transformers / vLLM / SGLang کے ذریعے (GPU-first سرور تعیناتی)، یا (3) GGUF + llama.cpp / llama-cpp-python کے ذریعے (CPU/ایج کے لیے موزوں)۔
GLM-4.7 جاری: اس کا مصنوعی ذہانت کے لیے کیا مطلب ہے؟
Dec 23, 2025
glm-4-7

GLM-4.7 جاری: اس کا مصنوعی ذہانت کے لیے کیا مطلب ہے؟

22 دسمبر 2025 کو، Zhipu AI (Z.ai) نے باضابطہ طور پر GLM-4.7 جاری کیا، جو اس کے General Language Model (GLM) خاندان کی جدید ترین تکرار ہے — جس نے اوپن سورس AI ماڈلز کی دنیا میں عالمی توجہ حاصل کی۔ یہ ماڈل نہ صرف کوڈنگ اور استدلالی کاموں میں اپنی صلاحیتوں میں نمایاں بہتری لاتا ہے بلکہ اہم بینچ مارکس میں GPT-5.2 اور Claude Sonnet 4.5 جیسے ملکیتی ماڈلز کی بالادستی کو بھی چیلنج کرتا ہے۔