모델지원엔터프라이즈블로그
500개 이상의 AI 모델 API, 모든 것이 하나의 API로. CometAPI에서
Models API
개발자
빠른 시작문서API 대시보드
리소스
AI 모델블로그엔터프라이즈변경 로그소개
2025 CometAPI. 모든 권리 보유.개인정보 보호정책서비스 이용약관
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

입력:$0.96/M
출력:$3.84/M
맥락:200K
최대 출력:128K
GLM-4.7은 Z.AI의 최신 플래그십 모델로, 두 가지 핵심 영역에서 업그레이드가 이루어졌습니다: 향상된 프로그래밍 역량과 더 안정적인 다단계 추론/실행. 이는 복잡한 에이전트 작업을 수행하는 능력에서 상당한 개선을 보여주는 동시에, 더 자연스러운 대화 경험과 우수한 프론트엔드 미적 완성도를 제공합니다.
새로운
상업적 사용
Playground
개요
기능
가격
API

GLM-4.7란

GLM-4.7은 Z.ai / Zhipu AI의 최신 플래그십 오픈 파운데이션 대형 언어 모델(모델명 glm-4.7)입니다. 개발자 지향의 “사고형” 모델로 포지셔닝되었으며, 특히 코딩/에이전트형 작업 실행, 다단계 추론, 도구 호출, 장문맥 워크플로에서 개선되었습니다. 이번 릴리스는 대용량 컨텍스트 처리(최대 200K 컨텍스트), 높은 최대 출력(최대 128K 토큰), 에이전트형 파이프라인을 위한 특화된 “사고” 모드를 강조합니다.

주요 기능

  • 에이전트형/도구 사용 개선: 모델이 “행동 전에 생각”하고, 턴 간 추론을 유지하며, 도구 호출이나 다단계 작업 실행 시 더 안정적으로 동작하도록 돕는 내장 사고 모드(“Interleaved Thinking”, “Preserved Thinking”, 턴 수준 제어)를 제공합니다. 터미널, 도구 체인, 웹 브라우징 등 견고한 에이전트 워크플로를 목표로 합니다.
  • 코딩 & 터미널 역량: 코딩 벤치마크와 터미널 자동화 작업에서 유의미한 향상이 있었으며 — 벤더 벤치마크 기준 SWE-bench와 Terminal Bench 지표에서 GLM-4.6 대비 명확한 향상을 보였습니다. 이는 에이전트 환경에서의 다회차 코드 생성, 명령 시퀀싱 및 복구 성능 향상으로 이어집니다.
  • “Vibe coding”/프런트엔드 출력 품질: 생성되는 HTML, 슬라이드, 프레젠테이션의 기본 UI/레이아웃 품질이 개선되었습니다(더 깔끔한 레이아웃, 크기 조정, 더 나은 기본 시각 설정).
  • 장문맥 워크플로: 200K 토큰 컨텍스트 윈도우와 컨텍스트 캐싱 도구를 제공하며, 다중 파일 코드베이스, 장문서, 다회차 에이전트 세션에 실용적입니다.

벤치마크 성능

GLM-4.7의 퍼블리셔/유지보수자와 커뮤니티 벤치마크 표에 따르면, GLM-4.6 대비 상당한 향상과 함께 동시대 모델과 경쟁력 있는 결과가 코딩, 에이전트형 및 도구 사용 작업에서 보고되었습니다. 일부 지표(출처: 공식 Hugging Face / Z.AI 공개 표):

  • LiveCodeBench-v6(코딩 에이전트 벤치마크): 84.9(오픈소스 SOTA로 인용).
  • SWE-bench Verified(코딩): 73.8%(GLM-4.6의 68.0%에서 상승).
  • SWE-bench Multilingual: 66.7%(GLM-4.6 대비 +12.9%).
  • Terminal Bench 2.0(에이전트형 터미널 작업): 41.0%(4.6 대비 +16.5%의 뚜렷한 향상).
  • HLE(도구를 활용한 복잡한 추론): 도구 사용 시 42.8%(이전 버전 대비 큰 개선 보고).
  • τ²-Bench(대화형 도구 호출): 87.4(오픈소스 SOTA로 보고).

일반적인 사용 사례 및 예시 시나리오

  • 에이전트형 코딩 도우미: 자율적/준자율적 코드 생성, 다회차 코드 수정, 터미널 자동화 및 CI/CD 스크립팅.
  • 도구 기반 에이전트: 웹 브라우징, API 오케스트레이션, 다단계 워크플로(보존된 사고 & 함수 호출 지원).
  • 프런트엔드 및 UI 생성: 자동 웹사이트 스캐폴딩, 슬라이드 데크, 포스터를 미려한 레이아웃으로 생성.
  • 리서치 & 장문맥 작업: 문서 요약, 문헌 종합, 장문서 전반의 검색 증강 생성(200K 토큰 창이 유용).
  • 인터랙티브 교육 에이전트/코딩 튜터: 세션 전반에 걸쳐 이전 추론 블록을 기억하는 보존된 추론을 활용한 다회차 튜터링.

GLM 4.7 API 액세스 및 사용 방법

1단계: API 키 발급

cometapi.com에 로그인합니다. 아직 사용자가 아니라면 먼저 가입하세요. CometAPI 콘솔에 로그인합니다. 인터페이스의 액세스 자격 증명인 API 키를 발급받습니다. 개인 센터의 API 토큰에서 “Add Token”을 클릭하여 토큰 키: sk-xxxxx를 발급받아 제출합니다.

2단계: MiniMax M2.1 API로 요청 보내기

API 요청을 보낼 때 “glm-4.7” 엔드포인트를 선택하고 요청 본문을 설정합니다. 요청 메서드와 본문은 당사 웹사이트의 API 문서에서 확인할 수 있습니다. 편의를 위해 웹사이트에서 Apifox 테스트도 제공합니다. 계정의 실제 CometAPI 키로 <YOUR_API_KEY>를 대체하세요. 호출 위치: Chat-스타일 API.

content 필드에 질문이나 요청을 입력합니다 — 모델은 여기에 응답합니다. API 응답을 처리하여 생성된 답변을 받습니다.

3단계: 결과 조회 및 검증

API 응답을 처리하여 생성된 답변을 받습니다. 처리 후, API는 작업 상태와

GLM-4.7의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

GLM-4.7 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)할인
입력:$0.96/M
출력:$3.84/M
입력:$1.2/M
출력:$4.8/M
-20%

GLM-4.7의 샘플 코드 및 API

[모델 이름]의 포괄적인 샘플 코드와 API 리소스에 액세스하여 통합 프로세스를 간소화하세요. 자세한 문서는 단계별 가이드를 제공하여 프로젝트에서 [모델 이름]의 모든 잠재력을 활용할 수 있도록 돕습니다.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

더 많은 모델

A

Claude Opus 4.6

입력:$4/M
출력:$20/M
Claude Opus 4.6는 Anthropic의 “Opus”급 대규모 언어 모델로, 2026년 2월에 출시되었습니다. 지식 업무와 연구 워크플로를 위한 주력 모델로 자리매김했으며 — 긴 컨텍스트 추론, 다단계 계획, 도구 사용(에이전트형 소프트웨어 워크플로 포함), 그리고 슬라이드와 스프레드시트 자동 생성과 같은 컴퓨터 활용 작업을 개선합니다.
A

Claude Sonnet 4.6

입력:$2.4/M
출력:$12/M
Claude Sonnet 4.6은 지금까지 가장 역량이 뛰어난 Sonnet 모델입니다. 코딩, 컴퓨터 사용, 장문맥 추론, 에이전트 계획, 지식 업무, 디자인 전반에 걸쳐 모델의 역량을 전면 업그레이드한 버전입니다. Sonnet 4.6은 베타 단계의 1M 토큰 컨텍스트 윈도우도 제공합니다.
O

GPT-5.4 nano

입력:$0.16/M
출력:$1/M
GPT-5.4 nano는 속도와 비용이 최우선인 분류, 데이터 추출, 순위화, 하위 에이전트 등의 작업을 위해 설계되었습니다.
O

GPT-5.4 mini

입력:$0.6/M
출력:$3.6/M
GPT-5.4 mini는 대규모 워크로드를 위해 설계된 더 빠르고 더 효율적인 모델에 GPT-5.4의 강점을 접목합니다.
A

Claude Mythos Preview

A

Claude Mythos Preview

곧 출시 예정
입력:$60/M
출력:$240/M
Claude Mythos Preview는 현재까지 우리의 가장 강력한 프런티어 모델이며, 이전 프런티어 모델인 Claude Opus 4.6과 비교해 여러 평가 벤치마크 점수에서 놀라운 도약을 보여줍니다.
X

mimo-v2-pro

입력:$0.8/M
출력:$2.4/M
MiMo-V2-Pro는 Xiaomi의 플래그십 파운데이션 모델로, 총 1T 파라미터와 1M 컨텍스트 길이를 갖추고 있으며, 에이전트 중심 시나리오에 맞춰 깊이 최적화되었습니다. OpenClaw와 같은 범용 에이전트 프레임워크와의 호환성이 뛰어납니다. 표준 PinchBench 및 ClawBench 벤치마크에서 글로벌 최상위권에 속하며, 체감 성능은 Opus 4.6에 근접합니다. MiMo-V2-Pro는 에이전트 시스템의 두뇌로 기능하도록 설계되어 복잡한 워크플로를 오케스트레이션하고, 프로덕션 엔지니어링 작업을 추진하며, 신뢰할 수 있는 결과를 제공합니다.

관련 블로그

GLM-5 vs GLM-4.7: 무엇이 달라졌고, 무엇이 중요하며, 업그레이드해야 할까요?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: 무엇이 달라졌고, 무엇이 중요하며, 업그레이드해야 할까요?

GLM-5는 Zhipu AI (Z.ai)가 2026년 2월 11일에 출시했으며, GLM-4.7 대비 큰 아키텍처적 도약을 나타낸다: 더 큰 MoE 규모(≈744B vs ~355B 총 파라미터 수), 더 높은 활성 파라미터 용량, 더 낮은 측정 환각률, 그리고 에이전트성 및 코딩 벤치마크에서의 뚜렷한 향상 — 그 대가로 추론 복잡성과 (때때로) 지연이 따른다.
로컬에서 GLM-4.7-Flash를 사용하는 방법은?
Jan 21, 2026
glm-4-7
glm-4-7

로컬에서 GLM-4.7-Flash를 사용하는 방법은?

GLM-4.7-Flash는 코딩, 에이전트 기반 워크플로, 일반 추론을 위해 로컬 및 저비용 배포가 가능하도록 설계된, GLM-4.7 제품군의 경량 고성능 30B A3B MoE 구성원입니다. 로컬에서 실행하는 실용적인 방법은 세 가지입니다: (1) Ollama를 통한 실행(간편한 관리형 로컬 런타임), (2) Hugging Face / Transformers / vLLM / SGLang을 통한 실행(GPU 우선 서버 배포), 또는 (3) GGUF + llama.cpp / llama-cpp-python을 통한 실행(CPU/엣지 친화적).
GLM-4.7 출시: 이는 AI  인텔리전스에 어떤 의미가 있을까?
Dec 23, 2025
glm-4-7

GLM-4.7 출시: 이는 AI 인텔리전스에 어떤 의미가 있을까?

2025년 12월 22일, Zhipu AI(Z.ai)는 General Language Model(GLM) 제품군의 최신 버전인 GLM-4.7을 공식 출시했으며 — 오픈 소스 AI 모델 세계에서 전 세계의 주목을 끌고 있다. 이 모델은 코딩 및 추론 작업 능력을 향상시킬 뿐만 아니라, 핵심 벤치마크에서 GPT-5.2와 Claude Sonnet 4.5와 같은 독점 모델의 지배력에 도전한다.