Home/Models/Zhipu AI/GLM 5
Z

GLM 5

อินพุต:$0.672/M
เอาต์พุต:$2.688/M
GLM-5 เป็นโมเดลพื้นฐานแบบโอเพนซอร์สระดับเรือธงของ Z.ai ที่ออกแบบมาเพื่อการออกแบบระบบที่ซับซ้อนและเวิร์กโฟลว์ของเอเจนต์ระยะยาว หนึ่งเดียวสำหรับนักพัฒนาผู้เชี่ยวชาญ มอบประสิทธิภาพระดับโปรดักชันในงานเขียนโปรแกรมขนาดใหญ่ ทัดเทียมโมเดลแบบปิดชั้นนำ ด้วยการวางแผนเชิงเอเจนต์ขั้นสูง การให้เหตุผลเชิงแบ็กเอนด์เชิงลึก และการแก้ไขตนเองแบบวนซ้ำ GLM-5 ก้าวข้ามการสร้างโค้ดไปสู่การสร้างระบบครบวงจรและการดำเนินการแบบอัตโนมัติ
ใหม่
ใช้งานเชิงพาณิชย์
Playground
ภาพรวม
คุณสมบัติ
ราคา
API

ข้อมูลจำเพาะทางเทคนิคของ GLM-5

รายการGLM-5 (ตามที่รายงาน)
ตระกูลโมเดลGLM (Z.ai / Zhipu AI) — รุ่นเรือธง
สถาปัตยกรรมMixture-of-Experts (MoE) + ความสนใจแบบเบาบาง (การปรับให้เหมาะสมของ DeepSeek/DSA).
จำนวนพารามิเตอร์ทั้งหมด≈744–745B (พูล MoE).
พารามิเตอร์ที่ทำงาน/ถูกเราท์ (ต่อโทเค็น)~40–44B ที่ทำงานอยู่ (ขึ้นอยู่กับการเราท์/ผู้เชี่ยวชาญ).
โทเค็นสำหรับพรีเทรน~28.5T โทเค็น (ตามที่รายงาน).
หน้าต่างบริบท (อินพุต)สูงสุด 200,000 โทเค็น (โหมดบริบทยาว).
จำนวนโทเค็นเอาต์พุตสูงสุด128,000 โทเค็น (การสร้างสูงสุดต่อการเรียกตามที่รายงาน).
รูปแบบอินพุตเฉพาะข้อความ (หลัก); ออกแบบสำหรับข้อความแบบริช → เอาต์พุต (การสร้าง doc/xlsx ผ่านเครื่องมือ).

GLM-5 คืออะไร

GLM-5 คือโมเดลฐานรุ่นถัดไปของ Zhipu AI ที่ขยายสาย GLM ด้วยการออกแบบการเราท์แบบ MoE และการปรับให้เหมาะสมของความสนใจแบบเบาบาง เพื่อมอบการให้เหตุผลแบบบริบทยาวและเวิร์กโฟลว์เชิงเอเจนต์ (การวางแผนหลายขั้นตอน การประสานงานโค้ด & ระบบ) ถูกวางตำแหน่งอย่างชัดเจนให้เป็นคู่แข่งแบบน้ำหนักเปิดสำหรับงานเชิงเอเจนต์และวิศวกรรม พร้อมความสามารถในการเข้าถึงระดับองค์กรผ่าน API และการโฮสต์เอง

🚀 คุณสมบัติหลักของ GLM-5

1. ความฉลาดเชิงเอเจนต์และการให้เหตุผล

GLM-5 ได้รับการปรับให้เหมาะสมสำหรับเวิร์กโฟลว์ที่โมเดลแยกงานที่ยาวและซับซ้อนออกเป็นขั้นตอนตามลำดับ พร้อมลดการมโน — เป็นการปรับปรุงครั้งใหญ่จาก GLM รุ่นก่อน นำหน้าเกณฑ์วัดบางรายการของโมเดลน้ำหนักเปิดด้านความเชื่อถือได้ของความรู้และผลิตภาพของงาน

2. รองรับบริบทยาว

ด้วยหน้าต่างบริบทขนาด 200K โทเค็น GLM-5 สามารถรองรับการสนทนายาวมาก เอกสารขนาดใหญ่ และสายโซ่การให้เหตุผลที่ยืดยาวได้โดยไม่สูญเสียความสอดคล้อง — ความสามารถที่ยิ่งทวีความสำคัญสำหรับการใช้งานจริงระดับมืออาชีพ

3. ความสนใจแบบเบาบางของ DeepSeek

ด้วยการผสานกลไกความสนใจแบบเบาบาง GLM-5 สามารถปรับสเกลการใช้หน่วยความจำได้อย่างมีประสิทธิภาพ ทำให้รองรับลำดับที่ยาวขึ้นโดยไม่ต้องจ่ายต้นทุนเชิงเส้น

4. การผสานเครื่องมือและรูปแบบเอาต์พุต

การรองรับเอาต์พุตแบบมีโครงสร้างและการผสานเครื่องมือภายนอกโดยกำเนิด (JSON, การเรียก API, การใช้เครื่องมือแบบไดนามิก) ทำให้ GLM-5 ใช้งานได้จริงสำหรับแอปพลิเคชันระดับองค์กร เช่น สเปรดชีต รายงาน และผู้ช่วยเขียนโค้ดอัตโนมัติ

5. ประสิทธิภาพด้านต้นทุน

GLM-5 ถูกวางตำแหน่งให้มีความสามารถในการแข่งขันด้านต้นทุนเมื่อเทียบกับรุ่นกรรมสิทธิ์ โดยมีราคาสำหรับอินพุต/เอาต์พุตที่ต่ำกว่าข้อเสนอหลักอย่างมาก ทำให้น่าสนใจสำหรับการปรับใช้ในขนาดใหญ่

ผลงานตามเกณฑ์วัดของ GLM-5

การประเมินอิสระหลายครั้งและเกณฑ์วัดอุตสาหกรรมระยะแรกชี้ว่า GLM-5 ทำผลงานได้แข็งแกร่งในบรรดาโมเดลน้ำหนักเปิด:

  • ทำอัตราการมโนต่ำเป็นประวัติการณ์บน Artificial Analysis Intelligence Index — ตัวชี้วัดความน่าเชื่อถือและความจริง — แซงหน้ารุ่นก่อนอย่างทิ้งห่าง
  • เกณฑ์วัดที่เน้นเอเจนต์บ่งชี้ว่ามีความก้าวหน้ามากในการดำเนินงานที่ซับซ้อนเมื่อเทียบกับ GLM-4.7 และโมเดลเปิดอื่นๆ
  • เมตริกต้นทุนต่อประสิทธิภาพจัดวางให้ GLM-5 อยู่ในควอไทล์ที่ 4 ด้านความเร็ว แต่ระดับท็อป (ดีที่สุด) ด้านสติปัญญาและราคาในบรรดาโมเดลน้ำหนักเปิด

คะแนนเชิงปริมาณ (ตัวอย่างจากแพลตฟอร์มการจัดอันดับ):

  • ดัชนีสติปัญญา: อันดับ #1 ในบรรดาโมเดลน้ำหนักเปิด
  • ประสิทธิภาพด้านราคา: ได้รับคะแนนสูงสำหรับต้นทุนอินพุต/เอาต์พุตต่ำ

วิธีเข้าถึงและใช้งาน GLM-5 API

ขั้นตอนที่ 1: สมัครรับ API Key

เข้าสู่ระบบที่ cometapi.com. หากคุณยังไม่เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน เข้าสู่ CometAPI console ของคุณ รับคีย์ API สำหรับข้อมูลรับรองการเข้าถึงของอินเทอร์เฟซ คลิก “Add Token” ที่ API token ในศูนย์ส่วนบุคคล รับ token key: sk-xxxxx และส่ง

ขั้นตอนที่ 2: ส่งคำขอไปยัง glm-5 API

เลือกเอ็นด์พอยต์ “glm-5” เพื่อส่งคำขอ API และตั้งค่าเนื้อหาของคำขอ วิธีการและเนื้อหาคำขอสามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบผ่าน Apifox เพื่อความสะดวกของคุณ แทนที่ <YOUR_API_KEY> ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ วิธีเรียกใช้งาน: รูปแบบ Chat

ใส่คำถามหรือคำขอของคุณในช่อง content—นี่คือสิ่งที่โมเดลจะตอบกลับ ประมวลผลการตอบกลับของ API เพื่อรับคำตอบที่สร้างขึ้น

ขั้นตอนที่ 3: ดึงและตรวจสอบผลลัพธ์

ประมวลผลการตอบกลับของ API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผล API จะตอบกลับด้วยสถานะงานและข้อมูลผลลัพธ์

คำถามที่พบบ่อย

What distinguishes GLM-5’s architecture from earlier GLM models?

GLM-5 uses a Mixture of Experts (MoE) architecture with ~745B total parameters and 8 active experts per token (~44B active), enabling efficient large-scale reasoning and agentic workflows compared to previous GLM series.

How long of a context window does GLM-5 support via its API?

GLM-5 supports a 200K token context window with up to 128K output tokens, making it suitable for extended reasoning and document tasks.

Can GLM-5 handle complex agentic and engineering tasks?

Yes — GLM-5 is explicitly optimized for long-horizon agent tasks and complex systems engineering workflows, with deep reasoning and planning capabilities beyond standard chat models.

Does GLM-5 support tool calling and structured output?

Yes — GLM-5 supports function calling, structured JSON outputs, context caching, and real-time streaming to integrate with external tools and systems.

How does GLM-5 compare to proprietary models like GPT and Claude?

GLM-5 is competitive with top proprietary models in benchmarks, performing close to Claude Opus 4.5 and offering significantly lower per-token costs and open-weight availability, though closed-source models may still lead in some fine-grained benchmarks.

Is GLM-5 open source and what license does it use?

Yes — GLM-5 is released under a permissive MIT license, enabling open-weight access and community development.

What are typical use cases where GLM-5 excels?

GLM-5 is well suited for long-sequence reasoning, agentic automation, coding assistance, creative writing at scale, and backend system design tasks that demand coherent multi-step outputs.

What are known limitations of GLM-5?

While powerful, GLM-5 is primarily text-only (no native multimodal support) and may be slower or more resource-intensive than smaller models, especially for shorter tasks.

คุณสมบัติสำหรับ GLM 5

สำรวจคุณสมบัติหลักของ GLM 5 ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความสะดวกในการใช้งาน ค้นพบว่าความสามารถเหล่านี้สามารถเป็นประโยชน์ต่อโครงการของคุณและปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างไร

ราคาสำหรับ GLM 5

สำรวจราคาที่แข่งขันได้สำหรับ GLM 5 ที่ออกแบบมาให้เหมาะสมกับงบประมาณและความต้องการการใช้งานที่หลากหลาย แผนการบริการที่ยืดหยุ่นของเรารับประกันว่าคุณจะจ่ายเฉพาะสิ่งที่คุณใช้เท่านั้น ทำให้สามารถขยายขนาดได้ง่ายเมื่อความต้องการของคุณเพิ่มขึ้น ค้นพบว่า GLM 5 สามารถยกระดับโปรเจกต์ของคุณได้อย่างไรในขณะที่ควบคุมต้นทุนให้อยู่ในระดับที่จัดการได้
ราคา Comet (USD / M Tokens)ราคาทางการ (USD / M Tokens)ModelDetail.discount
อินพุต:$0.672/M
เอาต์พุต:$2.688/M
อินพุต:$0.84/M
เอาต์พุต:$3.36/M
-20%

โค้ดตัวอย่างและ API สำหรับ GLM 5

เข้าถึงโค้ดตัวอย่างที่ครอบคลุมและทรัพยากร API สำหรับ GLM 5 เพื่อปรับปรุงกระบวนการผสานรวมของคุณ เอกสารประกอบที่มีรายละเอียดของเราให้คำแนะนำทีละขั้นตอน ช่วยให้คุณใช้ประโยชน์จากศักยภาพเต็มรูปแบบของ GLM 5 ในโครงการของคุณ
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
    model="glm-5",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

โมเดลเพิ่มเติม