GLM-4.7 คืออะไร
GLM-4.7 เป็นโมเดลภาษาขนาดใหญ่แบบ open‑foundation รุ่นเรือธงล่าสุดของ Z.ai / Zhipu AI (ชื่อโมเดล glm-4.7) มีการวางตำแหน่งเป็นโมเดล “คิดได้” ที่เน้นนักพัฒนา โดยปรับปรุงเด่นในด้าน การเขียนโค้ด/การทำงานแบบเอเจนต์, การให้เหตุผลหลายขั้นตอน, การเรียกใช้เครื่องมือ, และเวิร์กโฟลว์บริบทยาว รุ่นนี้เน้นความสามารถในการจัดการบริบทขนาดใหญ่ (สูงสุด 200K context), เอาต์พุตสูงสุด (ได้ถึง 128K tokens), และโหมด “การคิด” เฉพาะทางสำหรับสายงานเอเจนต์
คุณสมบัติหลัก
- การใช้งานเอเจนต์/เครื่องมือที่ดีขึ้น: มีโหมดการคิดในตัว (“Interleaved Thinking”, “Preserved Thinking”, การควบคุมระดับ turn) ช่วยให้โมเดล “คิดก่อนลงมือทำ” คงเหตุผลข้ามหลายรอบโต้ตอบ และมีความเสถียรมากขึ้นเมื่อเรียกใช้เครื่องมือหรือทำงานหลายขั้นตอน มุ่งรองรับเวิร์กโฟลว์เอเจนต์ที่ทนทาน (เทอร์มินัล, โซ่เครื่องมือ, การท่องเว็บ)
- ความสามารถด้านการโค้ดและเทอร์มินัล: ปรับปรุงอย่างมีนัยสำคัญในเบนช์มาร์กการโค้ดและงานอัตโนมัติบนเทอร์มินัล — ผลเบนช์มาร์กของผู้พัฒนาระบุว่าดีกว่า GLM-4.6 อย่างชัดเจนในตัวชี้วัด SWE-bench และ Terminal Bench ซึ่งส่งผลให้การสร้างโค้ดหลายรอบ การจัดลำดับคำสั่ง และการกู้คืนในสภาพแวดล้อมเอเจนต์ดีขึ้น
- “Vibe coding”/คุณภาพเอาต์พุตฝั่งหน้า: ปรับปรุงคุณภาพ UI/เลย์เอาต์เริ่มต้นสำหรับ HTML, สไลด์ และงานพรีเซนต์ที่สร้างขึ้น (เลย์เอาต์สะอาดขึ้น การจัดสัดส่วนดีขึ้น ค่าเริ่มต้นด้านภาพที่ดีกว่า)
- เวิร์กโฟลว์บริบทยาว: หน้าต่างบริบท 200K โทเคน และเครื่องมือสำหรับแคชบริบท; เหมาะกับโค้ดเบสหลายไฟล์ เอกสารยาว และเซสชันเอเจนต์หลายรอบ
ประสิทธิภาพตามเบนช์มาร์ก
ผู้เผยแพร่/ผู้ดูแล GLM-4.7 และตารางเบนช์มาร์กจากชุมชนรายงานว่ามีความก้าวหน้ามากเมื่อเทียบกับ GLM-4.6 และมีความสามารถทัดเทียมโมเดลร่วมสมัยอื่นๆ ในงานด้านการโค้ด เอเจนต์ และการใช้เครื่องมือ ตัวเลขที่คัดเลือกมา (แหล่งที่มา: ตารางที่เผยแพร่โดย Hugging Face / Z.AI อย่างเป็นทางการ):
- LiveCodeBench-v6 (เบนช์มาร์กเอเจนต์การโค้ด): 84.9 (อ้างว่าเป็น SOTA แบบโอเพนซอร์ส)
- SWE-bench Verified (การโค้ด): 73.8% (เพิ่มจาก 68.0% ใน GLM-4.6)
- SWE-bench Multilingual: 66.7% (+12.9% เทียบกับ GLM-4.6)
- Terminal Bench 2.0 (การกระทำบนเทอร์มินัลเชิงเอเจนต์): 41.0% (เพิ่มขึ้นอย่างเด่นชัด +16.5% เหนือรุ่น 4.6)
- HLE (การให้เหตุผลซับซ้อนร่วมกับเครื่องมือ): 42.8% เมื่อใช้ร่วมกับเครื่องมือ (รายงานว่าดีขึ้นมากจากเวอร์ชันก่อน)
- τ²-Bench (การเรียกใช้เครื่องมือแบบโต้ตอบ): 87.4 (รายงานว่าเป็น SOTA แบบโอเพนซอร์ส)
กรณีการใช้งานทั่วไปและสถานการณ์ตัวอย่าง
- ผู้ช่วยโค้ดแบบเอเจนต์: การสร้างโค้ดอัตโนมัติหรือกึ่งอัตโนมัติ การแก้โค้ดหลายรอบ การทำงานอัตโนมัติบนเทอร์มินัล และสคริปต์ CI/CD
- เอเจนต์ที่ขับเคลื่อนด้วยเครื่องมือ: การท่องเว็บ การประสานงาน API เวิร์กโฟลว์หลายขั้นตอน (รองรับด้วย preserved thinking และการเรียกฟังก์ชัน)
- การสร้างฝั่งหน้าและ UI: สร้างโครงเว็บไซต์อัตโนมัติ สไลด์เด็ค โปสเตอร์ พร้อมความสวยงามและเลย์เอาต์ที่ดีขึ้น
- งานวิจัยและงานที่ใช้บริบทยาว: สรุปเอกสาร สังเคราะห์วรรณกรรม และการสร้างข้อความแบบเสริมการค้นคืนในเอกสารยาว (หน้าต่าง 200k โทเคนช่วยได้มากที่นี่)
- เอเจนต์การสอนเชิงโต้ตอบ/ติวเตอร์การโค้ด: การสอนหลายรอบด้วยเหตุผลที่เก็บรักษาไว้ ซึ่งจดจำบล็อกเหตุผลก่อนหน้าได้ตลอดเซสชัน
วิธีเข้าถึงและใช้งาน GLM 4.7 API
ขั้นตอนที่ 1: สมัครรับ API Key
เข้าสู่ระบบที่ cometapi.com. หากคุณยังไม่เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน ลงชื่อเข้าใช้ CometAPI console รับ API key สำหรับการเข้าถึงอินเทอร์เฟซ คลิก “Add Token” ที่ API token ในศูนย์ส่วนบุคคล รับ token key: sk-xxxxx แล้วส่ง
ขั้นตอนที่ 2: ส่งคำขอไปยัง MiniMax M2.1 API
เลือกเอนด์พอยต์ “glm-4.7” เพื่อส่งคำขอ API และตั้งค่า request body วิธีการเรียกและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ยังมีการทดสอบ Apifox เพื่อความสะดวกของคุณ แทนที่ <YOUR_API_KEY> ด้วย CometAPI key จริงจากบัญชีของคุณ เรียกที่ไหน: Chat-style APIs
ใส่คำถามหรือคำขอของคุณลงในฟิลด์ content — โมเดลจะตอบสนองต่อสิ่งนี้ ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น
ขั้นตอนที่ 3: ดึงและตรวจสอบผลลัพธ์
ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับสถานะงานและ