GLM-4.7 là gì
GLM-4.7 là mô hình ngôn ngữ lớn nền tảng mở mới nhất của Z.ai / Zhipu AI (tên mô hình glm-4.7). Mô hình được định vị như một mô hình “tư duy” hướng tới nhà phát triển, với các cải tiến nổi bật về thực thi tác vụ lập trình/agent, lý luận nhiều bước, gọi công cụ và quy trình ngữ cảnh dài. Bản phát hành nhấn mạnh khả năng xử lý ngữ cảnh lớn (tối đa 200K), độ dài đầu ra tối đa lớn (lên tới 128K token), và các chế độ “tư duy” chuyên biệt cho pipeline agent.
Tính năng chính
- Cải thiện về agent / sử dụng công cụ: Các chế độ tư duy tích hợp (“Interleaved Thinking”, “Preserved Thinking”, kiểm soát ở cấp lượt) cho phép mô hình “suy nghĩ trước khi hành động”, giữ lại lập luận qua nhiều lượt và ổn định hơn khi gọi công cụ hoặc thực hiện tác vụ nhiều bước. Nhắm tới các quy trình agent vững chắc (terminal, chuỗi công cụ, duyệt web).
- Năng lực lập trình & terminal: Cải thiện đáng kể trên các thang đo lập trình và tác vụ tự động hóa terminal — các benchmark từ nhà cung cấp cho thấy mức tăng rõ rệt so với GLM-4.6 ở các chỉ số SWE-bench và Terminal Bench. Điều này mang lại khả năng sinh mã nhiều lượt tốt hơn, sắp xếp chuỗi lệnh và phục hồi trong môi trường agent.
- “Vibe coding” / chất lượng đầu ra frontend: Cải thiện chất lượng UI/bố cục mặc định cho HTML, slide và bản trình bày được tạo (bố cục gọn gàng hơn, kích thước, mặc định hiển thị tốt hơn).
- Quy trình ngữ cảnh dài: Cửa sổ ngữ cảnh 200K token và các công cụ để cache ngữ cảnh; hữu ích cho codebase nhiều tệp, tài liệu dài và phiên agent nhiều vòng.
Hiệu năng benchmark
Các nhà phát hành/duy trì GLM-4.7 và các bảng benchmark từ cộng đồng báo cáo mức tăng đáng kể so với GLM-4.6 và kết quả cạnh tranh so với các mô hình đương thời khác trên các tác vụ lập trình, agent và sử dụng công cụ. Một số số liệu chọn lọc (nguồn: các bảng chính thức do Hugging Face / Z.AI công bố):
- LiveCodeBench-v6 (benchmark agent lập trình): 84.9 (SOTA nguồn mở được ghi nhận).
- SWE-bench Verified (coding): 73.8% (tăng từ 68.0% ở GLM-4.6).
- SWE-bench Multilingual: 66.7% (+12.9% so với GLM-4.6).
- Terminal Bench 2.0 (tác vụ terminal dạng agent): 41.0% (cải thiện đáng kể +16.5% so với 4.6).
- HLE (lý luận phức tạp với công cụ): 42.8% khi dùng kèm công cụ (báo cáo cải thiện lớn so với các phiên bản trước).
- τ²-Bench (gọi công cụ tương tác): 87.4 (được báo cáo là SOTA nguồn mở).
Trường hợp sử dụng điển hình & kịch bản ví dụ
- Trợ lý lập trình dạng agent: Tạo mã tự động hoặc bán tự động, sửa mã nhiều lượt, tự động hóa terminal và viết script CI/CD.
- Agent vận hành bằng công cụ: Duyệt web, điều phối API, quy trình nhiều bước (được hỗ trợ bởi preserved thinking & function calling).
- Tạo front-end và UI: Dựng khung website tự động, bộ slide, poster với thẩm mỹ và bố cục được cải thiện.
- Nghiên cứu & tác vụ ngữ cảnh dài: Tóm tắt tài liệu, tổng hợp tài liệu, và sinh nội dung tăng cường truy xuất trên các tài liệu dài (cửa sổ 200k token rất hữu ích ở đây).
- Agent giáo dục tương tác / gia sư lập trình: Hướng dẫn nhiều lượt với khả năng bảo toàn lập luận, ghi nhớ các khối lập luận trước đó trong suốt phiên.
Cách truy cập và sử dụng API GLM 4.7
Bước 1: Đăng ký lấy khóa API
Đăng nhập vào cometapi.com. Nếu bạn chưa là người dùng của chúng tôi, vui lòng đăng ký trước. Đăng nhập vào CometAPI console. Lấy khóa API thông tin xác thực truy cập của giao diện. Nhấp “Add Token” tại mục API token trong trung tâm cá nhân, lấy khóa token: sk-xxxxx và gửi.
Bước 2: Gửi yêu cầu đến API MiniMax M2.1
Chọn endpoint “glm-4.7” để gửi yêu cầu API và thiết lập phần thân yêu cầu. Phương thức và phần thân yêu cầu được lấy từ tài liệu API trên trang web của chúng tôi. Trang web cũng cung cấp bài kiểm thử Apifox để bạn tiện sử dụng. Thay thế <YOUR_API_KEY> bằng CometAPI key thực tế từ tài khoản của bạn. Nơi gọi: API kiểu Chat.
Chèn câu hỏi hoặc yêu cầu của bạn vào trường nội dung — đây là phần mà mô hình sẽ phản hồi. Xử lý phản hồi API để lấy câu trả lời được tạo.
Bước 3: Truy xuất và xác minh kết quả
Xử lý phản hồi API để lấy câu trả lời được tạo. Sau khi xử lý, API sẽ phản hồi trạng thái tác vụ và