Home/Models/Zhipu AI/GLM 5
Z

GLM 5

입력:$0.672/M
출력:$2.688/M
GLM-5는 복잡한 시스템 설계와 장기적 에이전트 워크플로우를 위해 설계된 Z.ai의 대표 오픈소스 파운데이션 모델입니다. 전문 개발자를 위해 구축되었으며 대규모 프로그래밍 작업에서 프로덕션급 성능을 제공해 최상위 폐쇄형 모델에 필적합니다. 고급 에이전트 기반 계획, 심층 백엔드 추론, 반복적 자기 교정을 통해 GLM-5는 코드 생성을 넘어 전체 시스템 구축과 자율 실행까지 구현합니다.
새로운
상업적 사용
Playground
개요
기능
가격
API

GLM-5의 기술 사양

항목GLM-5 (보고됨)
모델 계열GLM (Z.ai / Zhipu AI) — 플래그십 세대
아키텍처Mixture-of-Experts(MoE) + 스파스 어텐션(DeepSeek/DSA 최적화).
총 파라미터≈744–745B(MoE 풀).
활성/라우팅 파라미터(토큰당)~40–44B 활성(라우팅/전문가 수에 따라 다름).
사전학습 토큰~28.5T 토큰(보고됨).
컨텍스트 윈도우(입력)최대 200,000 토큰(롱 컨텍스트 모드).
최대 출력 토큰128,000 토큰(호출당 최대 생성량 기준).
입력 모달리티텍스트 전용(기본); 리치 텍스트 → 출력(도구를 통한 doc/xlsx 생성)에 최적화.

GLM-5란 무엇인가

GLM-5는 Zhipu AI의 차세대 파운데이션 모델로, MoE 라우팅 설계와 스파스 어텐션 최적화를 통해 GLM 라인을 확장하여 롱 컨텍스트 추론과 에이전틱 워크플로(다단계 계획, 코드 및 시스템 오케스트레이션)를 제공한다. API와 셀프 호스팅을 통해 엔터프라이즈 접근성을 갖춘 에이전틱 및 엔지니어링 작업을 위한 오픈 웨이트 경쟁자로 명확히 포지셔닝되어 있다.

🚀 GLM-5의 주요 기능

1. 에이전틱 인텔리전스 및 추론

GLM-5는 모델이 길고 복잡한 작업을 순차적 단계로 분해하면서 할루시네이션을 줄이는 워크플로에 최적화되어 있으며 — 이전 GLM 버전 대비 큰 개선을 이뤘다. 지식 신뢰성과 작업 생산성 측면에서 특정 오픈 웨이트 모델 벤치마크를 선도한다.

2. 롱 컨텍스트 지원

200K 토큰 컨텍스트 윈도우로, GLM-5는 일관성을 잃지 않고 매우 긴 대화, 대형 문서, 확장된 추론 체인을 유지할 수 있으며 — 실무형 전문 애플리케이션에서 점점 더 중요한 역량이다.

3. DeepSeek 스파스 어텐션

스파스 어텐션 메커니즘을 통합하여 메모리 사용량을 효율적으로 확장하고, 선형적으로 비용이 증가하지 않으면서 더 긴 시퀀스를 처리할 수 있다.

4. 도구 통합 및 출력 형식

구조화된 출력과 외부 도구 통합(JSON, API 호출, 동적 도구 사용)을 기본 지원하여 스프레드시트, 보고서, 자동화된 코딩 어시스턴트 등 엔터프라이즈 애플리케이션에 실용적이다.

5. 비용 효율성

GLM-5는 주요 상용 제품 대비 입출력 요금이 상당히 낮아 비용 경쟁력이 있으며, 대규모 도입에 매력적이다.

GLM-5의 벤치마크 성능

여러 독립 평가와 초기 업계 벤치마크에서 GLM-5는 오픈 웨이트 모델 중 강력한 성능을 보였다:

  • 신뢰성과 진실성을 측정하는 Artificial Analysis Intelligence Index에서 역대 최저 할루시네이션율을 기록하며, 이전 모델들을 큰 폭으로 앞질렀다.
  • 에이전트 중심 벤치마크에서 GLM-4.7 및 기타 오픈 모델 대비 복잡한 작업 수행에서 상당한 향상을 보였다.
  • 비용 대비 성능 지표에서 GLM-5는 속도 측면에서는 4사분위지만 **지능과 가격은 최상위권(베스트)**으로 평가된다.

정량 점수(랭킹 플랫폼 예시):

  • Intelligence Index: 오픈 웨이트 모델 중 #1.
  • Pricing Efficiency: 낮은 입출력 비용으로 높은 평가.

GLM-5 API 접근 및 사용 방법

1단계: API 키 발급

cometapi.com에 로그인합니다. 아직 사용자가 아니면 먼저 등록하세요. CometAPI console에 로그인합니다. 인터페이스의 액세스 자격인 API 키를 발급받습니다. 개인 센터의 API 토큰에서 “Add Token”을 클릭하고 토큰 키: sk-xxxxx를 발급받아 제출합니다.

2단계: glm-5 API로 요청 보내기

“glm-5” 엔드포인트를 선택해 API 요청을 전송하고 요청 본문을 설정합니다. 요청 메서드와 요청 본문은 웹사이트의 API 문서에서 확인할 수 있습니다. 편의를 위해 Apifox 테스트도 제공합니다. <YOUR_API_KEY>를 계정의 실제 CometAPI 키로 교체하세요. 호출 위치: Chat 형식.

질문이나 요청을 content 필드에 입력합니다 — 이것이 모델이 응답할 내용입니다. API 응답을 처리하여 생성된 답변을 얻습니다.

3단계: 결과 수집 및 검증

API 응답을 처리해 생성된 답변을 얻습니다. 처리 후, API는 작업 상태와 출력 데이터를 반환합니다.

자주 묻는 질문

What distinguishes GLM-5’s architecture from earlier GLM models?

GLM-5 uses a Mixture of Experts (MoE) architecture with ~745B total parameters and 8 active experts per token (~44B active), enabling efficient large-scale reasoning and agentic workflows compared to previous GLM series.

How long of a context window does GLM-5 support via its API?

GLM-5 supports a 200K token context window with up to 128K output tokens, making it suitable for extended reasoning and document tasks.

Can GLM-5 handle complex agentic and engineering tasks?

Yes — GLM-5 is explicitly optimized for long-horizon agent tasks and complex systems engineering workflows, with deep reasoning and planning capabilities beyond standard chat models.

Does GLM-5 support tool calling and structured output?

Yes — GLM-5 supports function calling, structured JSON outputs, context caching, and real-time streaming to integrate with external tools and systems.

How does GLM-5 compare to proprietary models like GPT and Claude?

GLM-5 is competitive with top proprietary models in benchmarks, performing close to Claude Opus 4.5 and offering significantly lower per-token costs and open-weight availability, though closed-source models may still lead in some fine-grained benchmarks.

Is GLM-5 open source and what license does it use?

Yes — GLM-5 is released under a permissive MIT license, enabling open-weight access and community development.

What are typical use cases where GLM-5 excels?

GLM-5 is well suited for long-sequence reasoning, agentic automation, coding assistance, creative writing at scale, and backend system design tasks that demand coherent multi-step outputs.

What are known limitations of GLM-5?

While powerful, GLM-5 is primarily text-only (no native multimodal support) and may be slower or more resource-intensive than smaller models, especially for shorter tasks.

GLM 5의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

GLM 5 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)ModelDetail.discount
입력:$0.672/M
출력:$2.688/M
입력:$0.84/M
출력:$3.36/M
-20%

GLM 5의 샘플 코드 및 API

[모델 이름]의 포괄적인 샘플 코드와 API 리소스에 액세스하여 통합 프로세스를 간소화하세요. 자세한 문서는 단계별 가이드를 제공하여 프로젝트에서 [모델 이름]의 모든 잠재력을 활용할 수 있도록 돕습니다.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
    model="glm-5",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

더 많은 모델