Thông số kỹ thuật của GLM-5
| Hạng mục | GLM-5 (báo cáo) |
|---|---|
| Họ mô hình | GLM (Z.ai / Zhipu AI) — thế hệ chủ lực |
| Kiến trúc | Mixture-of-Experts (MoE) + chú ý thưa (tối ưu hóa DeepSeek/DSA). |
| Tổng số tham số | ≈744–745B (pool MoE). |
| Tham số đang hoạt động/được định tuyến (mỗi token) | ~40–44B đang hoạt động (phụ thuộc vào định tuyến/chuyên gia). |
| Token tiền huấn luyện | ~28.5T token (được báo cáo). |
| Cửa sổ ngữ cảnh (đầu vào) | Tối đa 200,000 token (chế độ ngữ cảnh dài). |
| Số token đầu ra tối đa | 128,000 token (tối đa mỗi lượt sinh, theo báo cáo). |
| Phương thức đầu vào | Chỉ văn bản (chính); được thiết kế cho đầu ra văn bản giàu định dạng → (tạo doc/xlsx qua công cụ). |
GLM-5 là gì
GLM-5 là mô hình nền tảng thế hệ tiếp theo của Zhipu AI, mở rộng dòng GLM với thiết kế định tuyến MoE và tối ưu hóa chú ý thưa để cung cấp khả năng suy luận ngữ cảnh dài và các quy trình tác tử (lập kế hoạch nhiều bước, điều phối mã và hệ thống). Mô hình được định vị rõ ràng là một đối thủ mở trọng số cho các tác vụ tác tử và kỹ thuật, với khả năng tiếp cận cấp doanh nghiệp qua API và tự lưu trữ.
🚀 Tính năng chính của GLM-5
1. Trí tuệ tác tử & Lập luận
GLM-5 được tối ưu cho các quy trình mà mô hình phân rã các tác vụ dài và phức tạp thành các bước có thứ tự với mức ảo giác giảm — một cải tiến lớn so với các phiên bản GLM trước. Mô hình dẫn đầu một số chuẩn đánh giá mô hình mở trọng số về độ tin cậy tri thức và năng suất tác vụ.
2. Hỗ trợ ngữ cảnh dài
Với cửa sổ ngữ cảnh 200K token, GLM-5 có thể duy trì các cuộc hội thoại rất dài, tài liệu lớn và chuỗi suy luận mở rộng mà không mất tính mạch lạc — một năng lực ngày càng quan trọng cho các ứng dụng chuyên nghiệp trong thế giới thực.
3. Cơ chế chú ý thưa DeepSeek
Bằng cách tích hợp cơ chế chú ý thưa, GLM-5 mở rộng hiệu quả dấu chân bộ nhớ, cho phép chuỗi dài hơn mà không làm chi phí tăng tuyến tính.
4. Tích hợp công cụ & định dạng đầu ra
Hỗ trợ gốc cho đầu ra có cấu trúc và tích hợp công cụ bên ngoài (JSON, gọi API, sử dụng công cụ động) giúp GLM-5 thực tiễn cho các ứng dụng doanh nghiệp như bảng tính, báo cáo và trợ lý lập trình tự động.
5. Hiệu quả chi phí
GLM-5 được định vị là cạnh tranh về chi phí so với các đối thủ độc quyền, với giá đầu vào/đầu ra thấp hơn đáng kể so với các dịch vụ lớn, khiến nó hấp dẫn cho triển khai quy mô lớn.
Hiệu năng trên các chuẩn đánh giá của GLM-5
Nhiều đánh giá độc lập và các chuẩn đánh giá sớm trong ngành cho thấy GLM-5 thể hiện mạnh mẽ trong số các mô hình mở trọng số:
- Đạt tỷ lệ ảo giác thấp kỷ lục trên Artificial Analysis Intelligence Index — một thước đo độ tin cậy và tính xác thực — vượt trội so với các mô hình trước với khoảng cách lớn.
- Các chuẩn đánh giá hướng tác tử cho thấy tăng đáng kể trong thực thi tác vụ phức tạp so với GLM-4.7 và các mô hình mở khác.
- Các chỉ số chi phí/hiệu năng định vị GLM-5 ở tứ phân vị thứ 4 về tốc độ nhưng tốp đầu (tốt nhất) về trí tuệ và giá trong số các mô hình mở trọng số.
Điểm định lượng (Ví dụ từ nền tảng xếp hạng):
- Chỉ số Trí tuệ: #1 trong các mô hình mở trọng số.
- Hiệu quả định giá: Xếp hạng cao về chi phí đầu vào/đầu ra thấp.
Cách truy cập và sử dụng API GLM-5
Bước 1: Đăng ký khóa API
Đăng nhập vào cometapi.com. Nếu bạn chưa là người dùng của chúng tôi, vui lòng đăng ký trước. Đăng nhập vào Bảng điều khiển CometAPI. Lấy khóa API (thông tin xác thực truy cập) của giao diện. Nhấp “Add Token” tại mục API token trong trung tâm cá nhân, lấy khóa token: sk-xxxxx và gửi.
Bước 2: Gửi yêu cầu tới API glm-5
Chọn endpoint “glm-5” để gửi yêu cầu API và thiết lập phần thân yêu cầu. Phương thức và phần thân yêu cầu được lấy từ tài liệu API trên website của chúng tôi. Trang web của chúng tôi cũng cung cấp kiểm thử Apifox để thuận tiện cho bạn. Thay thế <YOUR_API_KEY> bằng khóa CometAPI thực tế từ tài khoản của bạn. Gọi ở đâu: định dạng Chat.
Chèn câu hỏi hoặc yêu cầu của bạn vào trường content — đây là nội dung mà mô hình sẽ phản hồi. Xử lý phản hồi API để lấy câu trả lời được tạo.
Bước 3: Truy xuất và xác minh kết quả
Xử lý phản hồi API để lấy câu trả lời được tạo. Sau khi xử lý, API phản hồi trạng thái tác vụ và dữ liệu đầu ra.