Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

อินพุต:$0.96/M
เอาต์พุต:$3.84/M
บริบท:200K
เอาต์พุตสูงสุด:128K
GLM-4.7 เป็นโมเดลเรือธงล่าสุดของ Z.AI ซึ่งมาพร้อมการอัปเกรดในสองด้านสำคัญ: ความสามารถด้านการเขียนโปรแกรมที่เพิ่มขึ้น และการให้เหตุผลและการดำเนินการแบบหลายขั้นตอนที่มีเสถียรภาพมากขึ้น โดยแสดงให้เห็นถึงการปรับปรุงอย่างมีนัยสำคัญในการดำเนินภารกิจของเอเจนต์ที่ซับซ้อน พร้อมทั้งมอบประสบการณ์การสนทนาที่เป็นธรรมชาติมากขึ้นและความสวยงามของส่วนหน้า (front-end) ที่เหนือกว่า
ใหม่
ใช้งานเชิงพาณิชย์
Playground
ภาพรวม
คุณสมบัติ
ราคา
API

GLM-4.7 คืออะไร

GLM-4.7 เป็นโมเดลภาษาขนาดใหญ่แบบ open‑foundation รุ่นเรือธงล่าสุดของ Z.ai / Zhipu AI (ชื่อโมเดล glm-4.7) มีการวางตำแหน่งเป็นโมเดล “คิดได้” ที่เน้นนักพัฒนา โดยปรับปรุงเด่นในด้าน การเขียนโค้ด/การทำงานแบบเอเจนต์, การให้เหตุผลหลายขั้นตอน, การเรียกใช้เครื่องมือ, และเวิร์กโฟลว์บริบทยาว รุ่นนี้เน้นความสามารถในการจัดการบริบทขนาดใหญ่ (สูงสุด 200K context), เอาต์พุตสูงสุด (ได้ถึง 128K tokens), และโหมด “การคิด” เฉพาะทางสำหรับสายงานเอเจนต์

คุณสมบัติหลัก

  • การใช้งานเอเจนต์/เครื่องมือที่ดีขึ้น: มีโหมดการคิดในตัว (“Interleaved Thinking”, “Preserved Thinking”, การควบคุมระดับ turn) ช่วยให้โมเดล “คิดก่อนลงมือทำ” คงเหตุผลข้ามหลายรอบโต้ตอบ และมีความเสถียรมากขึ้นเมื่อเรียกใช้เครื่องมือหรือทำงานหลายขั้นตอน มุ่งรองรับเวิร์กโฟลว์เอเจนต์ที่ทนทาน (เทอร์มินัล, โซ่เครื่องมือ, การท่องเว็บ)
  • ความสามารถด้านการโค้ดและเทอร์มินัล: ปรับปรุงอย่างมีนัยสำคัญในเบนช์มาร์กการโค้ดและงานอัตโนมัติบนเทอร์มินัล — ผลเบนช์มาร์กของผู้พัฒนาระบุว่าดีกว่า GLM-4.6 อย่างชัดเจนในตัวชี้วัด SWE-bench และ Terminal Bench ซึ่งส่งผลให้การสร้างโค้ดหลายรอบ การจัดลำดับคำสั่ง และการกู้คืนในสภาพแวดล้อมเอเจนต์ดีขึ้น
  • “Vibe coding”/คุณภาพเอาต์พุตฝั่งหน้า: ปรับปรุงคุณภาพ UI/เลย์เอาต์เริ่มต้นสำหรับ HTML, สไลด์ และงานพรีเซนต์ที่สร้างขึ้น (เลย์เอาต์สะอาดขึ้น การจัดสัดส่วนดีขึ้น ค่าเริ่มต้นด้านภาพที่ดีกว่า)
  • เวิร์กโฟลว์บริบทยาว: หน้าต่างบริบท 200K โทเคน และเครื่องมือสำหรับแคชบริบท; เหมาะกับโค้ดเบสหลายไฟล์ เอกสารยาว และเซสชันเอเจนต์หลายรอบ

ประสิทธิภาพตามเบนช์มาร์ก

ผู้เผยแพร่/ผู้ดูแล GLM-4.7 และตารางเบนช์มาร์กจากชุมชนรายงานว่ามีความก้าวหน้ามากเมื่อเทียบกับ GLM-4.6 และมีความสามารถทัดเทียมโมเดลร่วมสมัยอื่นๆ ในงานด้านการโค้ด เอเจนต์ และการใช้เครื่องมือ ตัวเลขที่คัดเลือกมา (แหล่งที่มา: ตารางที่เผยแพร่โดย Hugging Face / Z.AI อย่างเป็นทางการ):

  • LiveCodeBench-v6 (เบนช์มาร์กเอเจนต์การโค้ด): 84.9 (อ้างว่าเป็น SOTA แบบโอเพนซอร์ส)
  • SWE-bench Verified (การโค้ด): 73.8% (เพิ่มจาก 68.0% ใน GLM-4.6)
  • SWE-bench Multilingual: 66.7% (+12.9% เทียบกับ GLM-4.6)
  • Terminal Bench 2.0 (การกระทำบนเทอร์มินัลเชิงเอเจนต์): 41.0% (เพิ่มขึ้นอย่างเด่นชัด +16.5% เหนือรุ่น 4.6)
  • HLE (การให้เหตุผลซับซ้อนร่วมกับเครื่องมือ): 42.8% เมื่อใช้ร่วมกับเครื่องมือ (รายงานว่าดีขึ้นมากจากเวอร์ชันก่อน)
  • τ²-Bench (การเรียกใช้เครื่องมือแบบโต้ตอบ): 87.4 (รายงานว่าเป็น SOTA แบบโอเพนซอร์ส)

กรณีการใช้งานทั่วไปและสถานการณ์ตัวอย่าง

  • ผู้ช่วยโค้ดแบบเอเจนต์: การสร้างโค้ดอัตโนมัติหรือกึ่งอัตโนมัติ การแก้โค้ดหลายรอบ การทำงานอัตโนมัติบนเทอร์มินัล และสคริปต์ CI/CD
  • เอเจนต์ที่ขับเคลื่อนด้วยเครื่องมือ: การท่องเว็บ การประสานงาน API เวิร์กโฟลว์หลายขั้นตอน (รองรับด้วย preserved thinking และการเรียกฟังก์ชัน)
  • การสร้างฝั่งหน้าและ UI: สร้างโครงเว็บไซต์อัตโนมัติ สไลด์เด็ค โปสเตอร์ พร้อมความสวยงามและเลย์เอาต์ที่ดีขึ้น
  • งานวิจัยและงานที่ใช้บริบทยาว: สรุปเอกสาร สังเคราะห์วรรณกรรม และการสร้างข้อความแบบเสริมการค้นคืนในเอกสารยาว (หน้าต่าง 200k โทเคนช่วยได้มากที่นี่)
  • เอเจนต์การสอนเชิงโต้ตอบ/ติวเตอร์การโค้ด: การสอนหลายรอบด้วยเหตุผลที่เก็บรักษาไว้ ซึ่งจดจำบล็อกเหตุผลก่อนหน้าได้ตลอดเซสชัน

วิธีเข้าถึงและใช้งาน GLM 4.7 API

ขั้นตอนที่ 1: สมัครรับ API Key

เข้าสู่ระบบที่ cometapi.com. หากคุณยังไม่เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน ลงชื่อเข้าใช้ CometAPI console รับ API key สำหรับการเข้าถึงอินเทอร์เฟซ คลิก “Add Token” ที่ API token ในศูนย์ส่วนบุคคล รับ token key: sk-xxxxx แล้วส่ง

ขั้นตอนที่ 2: ส่งคำขอไปยัง MiniMax M2.1 API

เลือกเอนด์พอยต์ “glm-4.7” เพื่อส่งคำขอ API และตั้งค่า request body วิธีการเรียกและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ยังมีการทดสอบ Apifox เพื่อความสะดวกของคุณ แทนที่ <YOUR_API_KEY> ด้วย CometAPI key จริงจากบัญชีของคุณ เรียกที่ไหน: Chat-style APIs

ใส่คำถามหรือคำขอของคุณลงในฟิลด์ content — โมเดลจะตอบสนองต่อสิ่งนี้ ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น

ขั้นตอนที่ 3: ดึงและตรวจสอบผลลัพธ์

ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับสถานะงานและ

คุณสมบัติสำหรับ GLM-4.7

สำรวจคุณสมบัติหลักของ GLM-4.7 ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความสะดวกในการใช้งาน ค้นพบว่าความสามารถเหล่านี้สามารถเป็นประโยชน์ต่อโครงการของคุณและปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างไร

ราคาสำหรับ GLM-4.7

สำรวจราคาที่แข่งขันได้สำหรับ GLM-4.7 ที่ออกแบบมาให้เหมาะสมกับงบประมาณและความต้องการการใช้งานที่หลากหลาย แผนการบริการที่ยืดหยุ่นของเรารับประกันว่าคุณจะจ่ายเฉพาะสิ่งที่คุณใช้เท่านั้น ทำให้สามารถขยายขนาดได้ง่ายเมื่อความต้องการของคุณเพิ่มขึ้น ค้นพบว่า GLM-4.7 สามารถยกระดับโปรเจกต์ของคุณได้อย่างไรในขณะที่ควบคุมต้นทุนให้อยู่ในระดับที่จัดการได้
ราคา Comet (USD / M Tokens)ราคาทางการ (USD / M Tokens)ส่วนลด
อินพุต:$0.96/M
เอาต์พุต:$3.84/M
อินพุต:$1.2/M
เอาต์พุต:$4.8/M
-20%

โค้ดตัวอย่างและ API สำหรับ GLM-4.7

เข้าถึงโค้ดตัวอย่างที่ครอบคลุมและทรัพยากร API สำหรับ GLM-4.7 เพื่อปรับปรุงกระบวนการผสานรวมของคุณ เอกสารประกอบที่มีรายละเอียดของเราให้คำแนะนำทีละขั้นตอน ช่วยให้คุณใช้ประโยชน์จากศักยภาพเต็มรูปแบบของ GLM-4.7 ในโครงการของคุณ
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

โมเดลเพิ่มเติม