GLM-4.7 คืออะไร
GLM-4.7 คือโมเดลภาษาขนาดใหญ่แบบ open-foundation รุ่นเรือธงล่าสุดของ Z.ai / Zhipu AI (ชื่อโมเดล glm-4.7) โดยถูกวางตำแหน่งให้เป็นโมเดล “thinking” ที่มุ่งเน้นนักพัฒนา พร้อมการปรับปรุงเด่นในด้าน การเขียนโค้ด/การทำงานเชิงเอเจนต์ การให้เหตุผลหลายขั้นตอน การเรียกใช้เครื่องมือ และเวิร์กโฟลว์บริบทยาว การเปิดตัวครั้งนี้เน้นความสามารถในการรองรับบริบทขนาดใหญ่ (สูงสุด 200K context) เอาต์พุตสูงสุดจำนวนมาก (สูงสุด 128K tokens) และโหมด “thinking” เฉพาะทางสำหรับไปป์ไลน์เชิงเอเจนต์
คุณสมบัติหลัก
- การปรับปรุงด้านเอเจนต์ / การใช้เครื่องมือ: มีโหมดการคิดในตัว (“Interleaved Thinking”, “Preserved Thinking”, การควบคุมระดับเทิร์น) เพื่อให้โมเดล “คิดก่อนลงมือทำ” รักษาเหตุผลข้ามหลายเทิร์น และมีความเสถียรมากขึ้นเมื่อเรียกใช้เครื่องมือหรือดำเนินงานหลายขั้นตอน ทั้งหมดนี้มุ่งรองรับเวิร์กโฟลว์เอเจนต์ที่ทนทาน (เทอร์มินัล ชุดเครื่องมือ การท่องเว็บ)
- ความสามารถด้านการเขียนโค้ดและเทอร์มินัล: มีการปรับปรุงอย่างมีนัยสำคัญบนเบนช์มาร์กด้านโค้ดและงานอัตโนมัติบนเทอร์มินัล — เบนช์มาร์กของผู้พัฒนาระบุว่าดีขึ้นชัดเจนเมื่อเทียบกับ GLM-4.6 ในตัวชี้วัด SWE-bench และ Terminal Bench ซึ่งแปลเป็นความสามารถที่ดีขึ้นในการสร้างโค้ดหลายเทิร์น การจัดลำดับคำสั่ง และการกู้คืนในสภาพแวดล้อมแบบเอเจนต์
- “Vibe coding” / คุณภาพเอาต์พุตฝั่งฟรอนต์เอนด์: คุณภาพ UI/เลย์เอาต์เริ่มต้นที่สร้างขึ้นดีขึ้นสำหรับ HTML สไลด์ และงานนำเสนอ (เลย์เอาต์สะอาดกว่า การกำหนดขนาดดีขึ้น และค่าภาพเริ่มต้นที่ดีกว่า)
- เวิร์กโฟลว์บริบทยาว: หน้าต่างบริบท 200K โทเค็น และเครื่องมือสำหรับแคชบริบท เหมาะในทางปฏิบัติสำหรับโค้ดเบสหลายไฟล์ เอกสารยาว และเซสชันเอเจนต์หลายรอบ
ประสิทธิภาพบนเบนช์มาร์ก
ตารางเบนช์มาร์กจากผู้เผยแพร่/ผู้ดูแล GLM-4.7 และชุมชนรายงานว่ามีการพัฒนาอย่างมากเมื่อเทียบกับ GLM-4.6 และให้ผลลัพธ์ที่แข่งขันได้กับโมเดลร่วมสมัยอื่น ๆ ในงานด้านการเขียนโค้ด งานเชิงเอเจนต์ และการใช้เครื่องมือ ตัวเลขที่คัดเลือกมา (ที่มา: ตารางที่เผยแพร่อย่างเป็นทางการบน Hugging Face / Z.AI):
- LiveCodeBench-v6 (เบนช์มาร์กเอเจนต์ด้านการเขียนโค้ด): 84.9 (อ้างว่าเป็น open-source SOTA)
- SWE-bench Verified (การเขียนโค้ด): 73.8% (เพิ่มจาก 68.0% ใน GLM-4.6)
- SWE-bench Multilingual: 66.7% (+12.9% เทียบกับ GLM-4.6)
- Terminal Bench 2.0 (การกระทำบนเทอร์มินัลเชิงเอเจนต์): 41.0% (เพิ่มขึ้นอย่างเด่นชัด +16.5% จาก 4.6)
- HLE (การให้เหตุผลซับซ้อนร่วมกับเครื่องมือ): 42.8% เมื่อใช้ร่วมกับเครื่องมือ (รายงานว่าดีขึ้นมากเมื่อเทียบกับเวอร์ชันก่อนหน้า)
- τ²-Bench (การเรียกใช้เครื่องมือแบบโต้ตอบ): 87.4 (รายงานว่าเป็น open-source SOTA)
กรณีใช้งานทั่วไปและตัวอย่างสถานการณ์
- ผู้ช่วยเขียนโค้ดเชิงเอเจนต์: การสร้างโค้ดแบบอัตโนมัติหรือกึ่งอัตโนมัติ การแก้โค้ดหลายเทิร์น งานอัตโนมัติบนเทอร์มินัล และสคริปต์ CI/CD
- เอเจนต์ที่ขับเคลื่อนด้วยเครื่องมือ: การท่องเว็บ การประสานงาน API และเวิร์กโฟลว์หลายขั้นตอน (รองรับโดย preserved thinking และ function calling)
- การสร้างฟรอนต์เอนด์และ UI: การสร้างโครงเว็บไซต์อัตโนมัติ ชุดสไลด์ และโปสเตอร์ พร้อมความสวยงามและเลย์เอาต์ที่ดีขึ้น
- งานวิจัยและงานบริบทยาว: การสรุปเอกสาร การสังเคราะห์วรรณกรรม และการสร้างข้อความแบบ retrieval-augmented ข้ามเอกสารยาว (หน้าต่าง 200k โทเค็นมีประโยชน์ในที่นี้)
- เอเจนต์การศึกษาแบบโต้ตอบ / ติวเตอร์เขียนโค้ด: การสอนหลายเทิร์นพร้อม preserved reasoning ที่จดจำบล็อกการให้เหตุผลก่อนหน้าตลอดทั้งเซสชัน
วิธีเข้าถึงและใช้งาน GLM 4.7 API
ขั้นตอนที่ 1: สมัครรับ API Key
เข้าสู่ระบบที่ cometapi.com หากคุณยังไม่ได้เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน จากนั้นเข้าสู่ CometAPI console ของคุณ รับข้อมูลรับรองการเข้าถึง API key ของอินเทอร์เฟซ คลิก “Add Token” ที่ส่วน API token ในศูนย์ส่วนบุคคล รับ token key: sk-xxxxx แล้วส่งข้อมูล
ขั้นตอนที่ 2: ส่งคำขอไปยัง MiniMax M2.1 API
เลือกเอนด์พอยต์ “glm-4.7” เพื่อส่งคำขอ API และตั้งค่า request body วิธีการส่งคำขอและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณด้วย แทนที่ <YOUR_API_KEY> ด้วย CometAPI key จริงจากบัญชีของคุณ เรียกใช้งานที่ไหน: API แบบ Chat
ใส่คำถามหรือคำขอของคุณลงในฟิลด์ content—นี่คือสิ่งที่โมเดลจะใช้ตอบกลับ ประมวลผลการตอบกลับจาก API เพื่อรับคำตอบที่สร้างขึ้น
ขั้นตอนที่ 3: ดึงและตรวจสอบผลลัพธ์
ประมวลผลการตอบกลับจาก API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับพร้อมสถานะของงานและ


