模型
定价
企业
资源
免费开始
免费开始
GLM 4.7 博客
GLM 4.7 博客
Mar 19, 2026
GLM-5
GLM 4.7
GLM-5 与 GLM-4.7:有哪些变化、哪些值得关注、是否应该升级?
由 Zhipu AI(Z.ai)于 2026年2月11日发布的 GLM-5,相较于 GLM-4.7,在架构上实现了重大跃迁:更大的 MoE 规模(≈744B vs ~355B 总参数)、更高的活跃参数容量、更低的测得幻觉率,并在智能体与编码基准上取得明显提升——代价是推理复杂性以及(有时)延迟的增加。
Mar 19, 2026
GLM 4.7
GLM 4.7
如何在本地使用 GLM-4.7-Flash?
GLM-4.7-Flash 是 GLM-4.7 家族中一款轻量、高性能的 30B A3B MoE 成员,旨在为编程、智能体工作流和通用推理实现本地、低成本部署。你可以通过三种实用方式在本地运行它:(1) 通过 Ollama(简单、托管的本地运行时),(2) 通过 Hugging Face / Transformers / vLLM / SGLang(GPU 优先的服务器部署),或 (3) 通过 GGUF + llama.cpp / llama-cpp-python(对 CPU/边缘场景友好)。
Mar 30, 2026
GLM 4.7
GLM-4.7 发布:这对人工智能意味着什么?
2025年12月22日,Zhipu AI (Z.ai) 正式发布 GLM-4.7,这是其 General Language Model(GLM)家族的最新迭代——在开源AI模型领域引发全球关注。该模型不仅在编程与推理任务方面的能力有所提升,还在关键基准测试中对 GPT-5.2 和 Claude Sonnet 4.5 等专有模型的主导地位发起挑战。