ข้อกำหนดทางเทคนิคของ GLM-5
| รายการ | GLM-5 (ตามรายงาน) |
|---|---|
| ตระกูลโมเดล | GLM (Z.ai / Zhipu AI) — รุ่นเรือธง |
| สถาปัตยกรรม | Mixture-of-Experts (MoE) + sparse attention (การปรับแต่งโดย DeepSeek/DSA) |
| จำนวนพารามิเตอร์ทั้งหมด | ≈744–745B (พูล MoE) |
| พารามิเตอร์ที่ใช้งาน/ถูกกำหนดเส้นทาง (ต่อโทเคน) | ~40–44B ที่ใช้งานอยู่ (ขึ้นกับการกำหนดเส้นทาง/ผู้เชี่ยวชาญ) |
| โทเคนก่อนการฝึก | ~28.5T โทเคน (ตามรายงาน) |
| หน้าต่างบริบท (อินพุต) | สูงสุด 200,000 โทเคน (โหมดบริบทยาว) |
| โทเคนเอาต์พุตสูงสุด | 128,000 โทเคน (การสร้างสูงสุดต่อการเรียกหนึ่งครั้งตามรายงาน) |
| รูปแบบอินพุต | ข้อความเท่านั้น (หลัก); ออกแบบเพื่อสร้างเอาต์พุต rich text → (การสร้าง doc/xlsx ผ่านเครื่องมือ) |
GLM-5 คืออะไร
GLM-5 คือโมเดลพื้นฐานรุ่นถัดไปของ Zhipu AI ที่ขยายสาย GLM ด้วยดีไซน์การกำหนดเส้นทางแบบ MoE และการปรับแต่ง sparse attention เพื่อมอบความสามารถในการให้เหตุผลบนบริบทยาวและเวิร์กโฟลว์เชิงเอเจนต์ (การวางแผนหลายขั้นตอน การประสานงานโค้ดและระบบ) โดยวางตำแหน่งอย่างชัดเจนให้เป็นโมเดลแบบ open-weights ที่พร้อมสำหรับงานเชิงเอเจนต์และวิศวกรรม พร้อมความยืดหยุ่นระดับองค์กรผ่าน API และการโฮสต์ด้วยตนเอง
🚀 คุณสมบัติหลักของ GLM-5
1. ความฉลาดเชิงเอเจนต์และการให้เหตุผล
GLM-5 ได้รับการปรับให้เหมาะกับเวิร์กโฟลว์ที่โมเดลจะแยกงานที่ยาวและซับซ้อนออกเป็นขั้นตอนที่มีลำดับ ลดการเพี้ยนของข้อเท็จจริงอย่างมีนัยสำคัญ—เป็นการพัฒนาครั้งใหญ่เมื่อเทียบกับ GLM รุ่นก่อนๆ ทั้งยังนำในชุดทดสอบของโมเดลแบบ open-weights ด้านความน่าเชื่อถือของความรู้และประสิทธิผลของงาน
2. รองรับบริบทยาว
ด้วย หน้าต่างบริบทขนาด 200K โทเคน GLM-5 สามารถรองรับบทสนทนาที่ยาวมาก เอกสารขนาดใหญ่ และสายโซ่การให้เหตุผลที่ยาวโดยไม่สูญเสียความสอดคล้อง—ซึ่งเป็นความสามารถที่สำคัญยิ่งสำหรับการใช้งานระดับมืออาชีพในโลกแห่งความเป็นจริง
3. DeepSeek Sparse Attention
ด้วยการผนวกกลไก sparse attention GLM-5 สามารถขยายการใช้หน่วยความจำได้อย่างมีประสิทธิภาพ อนุญาตให้จัดการลำดับที่ยาวขึ้นโดยไม่เพิ่มต้นทุนแบบเชิงเส้น
4. การผสานเครื่องมือและรูปแบบเอาต์พุต
การรองรับเอาต์พุตแบบมีโครงสร้างและการผสานเครื่องมือภายนาตามค่าเริ่มต้น (JSON, การเรียก API, การใช้เครื่องมือแบบไดนามิก) ทำให้ GLM-5 ใช้งานได้จริงสำหรับงานระดับองค์กร เช่น สเปรดชีต รายงาน และผู้ช่วยเขียนโค้ดอัตโนมัติ
5. ความคุ้มค่าด้านต้นทุน
GLM-5 ถูกวางตำแหน่งให้มีความสามารถในการแข่งขันด้านต้นทุนเมื่อเทียบกับคู่แข่งแบบ proprietary โดยมีราคาอินพุต/เอาต์พุตต่ำกว่าข้อเสนอหลักหลายเจ้ามาก ทำให้เหมาะกับการปรับใช้ในขนาดใหญ่
ผลการทดสอบมาตรฐานของ GLM-5
การประเมินโดยอิสระหลายชุดและเกณฑ์มาตรฐานในอุตสาหกรรมช่วงแรกแสดงให้เห็นว่า GLM-5 ทำผลงานได้โดดเด่นท่ามกลางโมเดลแบบ open-weight:
- ทำได้อัตราการเพี้ยนของข้อเท็จจริงต่ำเป็นประวัติการณ์บน Artificial Analysis Intelligence Index—ตัวชี้วัดความน่าเชื่อถือและความจริง—และเหนือกว่ารุ่นก่อนๆ อย่างมีนัยสำคัญ
- เกณฑ์ทดสอบที่เน้นเอเจนต์บ่งชี้ถึงการก้าวหน้าครั้งใหญ่ในความสามารถในการทำงานที่ซับซ้อนเมื่อเทียบกับ GLM-4.7 และโมเดลเปิดอื่นๆ
- เมตริกต้นทุนต่อประสิทธิภาพจัดวาง GLM-5 ให้อยู่ในควอร์ไทล์ที่ 4 สำหรับความเร็ว แต่ระดับบนสุด (ดีที่สุด) ในด้านสติปัญญาและราคาในบรรดาโมเดลแบบ open-weight
คะแนนเชิงปริมาณ (ตัวอย่างจากแพลตฟอร์มการจัดอันดับ):
- Intelligence Index: อันดับ #1 ในบรรดาโมเดลแบบ open-weights
- Pricing Efficiency: ได้คะแนนสูงในด้านต้นทุนอินพุต/เอาต์พุตต่ำ
วิธีเข้าถึงและใช้งาน GLM-5 API
ขั้นตอนที่ 1: สมัครรับคีย์ API
เข้าสู่ระบบที่ cometapi.com หากคุณยังไม่เป็นผู้ใช้ โปรดลงทะเบียนก่อน เข้าสู่ คอนโซล CometAPI รับคีย์ API สำหรับสิทธิ์เข้าถึงอินเทอร์เฟซ คลิก “Add Token” ที่ส่วน API token ในศูนย์ส่วนบุคคล รับกุญแจโทเคน: sk-xxxxx แล้วส่ง
ขั้นตอนที่ 2: ส่งคำขอไปยัง API glm-5
เลือกปลายทาง “glm-5” เพื่อส่งคำขอ API และกำหนด request body วิธีการเรียกและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบผ่าน Apifox เพื่อความสะดวกของคุณ แทนที่ <YOUR_API_KEY> ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ ตำแหน่งที่ต้องเรียกใช้: รูปแบบ Chat
ใส่คำถามหรือคำขอของคุณลงในช่อง content—ซึ่งเป็นสิ่งที่โมเดลจะตอบกลับ ประมวลผลการตอบสนองของ API เพื่อรับคำตอบที่สร้างขึ้น
ขั้นตอนที่ 3: ดึงผลลัพธ์และตรวจสอบความถูกต้อง
ประมวลผลการตอบสนองของ API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับด้วยสถานะงานและข้อมูลเอาต์พุต