GLM-5 to flagowy, otwartoźródłowy model bazowy Z.ai, zaprojektowany do projektowania złożonych systemów i długohoryzontowych przepływów pracy agentów. Przeznaczony dla doświadczonych programistów, zapewnia wydajność klasy produkcyjnej w zadaniach programistycznych na dużą skalę, rywalizując z wiodącymi modelami o zamkniętym kodzie źródłowym. Dzięki zaawansowanemu planowaniu agentowemu, głębokiemu rozumowaniu na poziomie backendu oraz iteracyjnej samokorekcie, GLM-5 wykracza poza generowanie kodu, umożliwiając budowę kompletnych systemów i autonomiczne wykonywanie.
Nowy
Użycie komercyjne
Playground
Przegląd
Funkcje
Cennik
API
CN
Najczęściej zadawane pytania
What distinguishes GLM-5’s architecture from earlier GLM models?
GLM-5 uses a Mixture of Experts (MoE) architecture with ~745B total parameters and 8 active experts per token (~44B active), enabling efficient large-scale reasoning and agentic workflows compared to previous GLM series.
How long of a context window does GLM-5 support via its API?
GLM-5 supports a 200K token context window with up to 128K output tokens, making it suitable for extended reasoning and document tasks.
Can GLM-5 handle complex agentic and engineering tasks?
Yes — GLM-5 is explicitly optimized for long-horizon agent tasks and complex systems engineering workflows, with deep reasoning and planning capabilities beyond standard chat models.
Does GLM-5 support tool calling and structured output?
Yes — GLM-5 supports function calling, structured JSON outputs, context caching, and real-time streaming to integrate with external tools and systems.
How does GLM-5 compare to proprietary models like GPT and Claude?
GLM-5 is competitive with top proprietary models in benchmarks, performing close to Claude Opus 4.5 and offering significantly lower per-token costs and open-weight availability, though closed-source models may still lead in some fine-grained benchmarks.
Is GLM-5 open source and what license does it use?
Yes — GLM-5 is released under a permissive MIT license, enabling open-weight access and community development.
What are typical use cases where GLM-5 excels?
GLM-5 is well suited for long-sequence reasoning, agentic automation, coding assistance, creative writing at scale, and backend system design tasks that demand coherent multi-step outputs.
What are known limitations of GLM-5?
While powerful, GLM-5 is primarily text-only (no native multimodal support) and may be slower or more resource-intensive than smaller models, especially for shorter tasks.
Funkcje dla GLM 5
Poznaj kluczowe funkcje GLM 5, zaprojektowane w celu zwiększenia wydajności i użyteczności. Odkryj, jak te możliwości mogą przynieść korzyści Twoim projektom i poprawić doświadczenie użytkownika.
Cennik dla GLM 5
Poznaj konkurencyjne ceny dla GLM 5, zaprojektowane tak, aby pasowały do różnych budżetów i potrzeb użytkowania. Nasze elastyczne plany zapewniają, że płacisz tylko za to, czego używasz, co ułatwia skalowanie w miarę wzrostu Twoich wymagań. Odkryj, jak GLM 5 może ulepszyć Twoje projekty przy jednoczesnym utrzymaniu kosztów na rozsądnym poziomie.
Cena Comet (USD / M Tokens)
Oficjalna cena (USD / M Tokens)
ModelDetail.discount
Wejście:$0.672/M
Wyjście:$2.688/M
Wejście:$0.84/M
Wyjście:$3.36/M
-20%
Przykładowy kod i API dla GLM 5
Uzyskaj dostęp do kompleksowego przykładowego kodu i zasobów API dla GLM 5, aby usprawnić proces integracji. Nasza szczegółowa dokumentacja zapewnia wskazówki krok po kroku, pomagając wykorzystać pełny potencjał GLM 5 w Twoich projektach.
Python
JavaScript
Curl
from openai import OpenAI
import os
# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"
client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
model="glm-5",
messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)
print(completion.choices[0].message.content)