Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

입력:$0.96/M
출력:$3.84/M
맥락:200K
최대 출력:128K
GLM-4.7은 Z.AI의 최신 플래그십 모델로, 두 가지 핵심 영역에서 업그레이드가 이루어졌습니다: 향상된 프로그래밍 역량과 더 안정적인 다단계 추론/실행. 이는 복잡한 에이전트 작업을 수행하는 능력에서 상당한 개선을 보여주는 동시에, 더 자연스러운 대화 경험과 우수한 프론트엔드 미적 완성도를 제공합니다.
새로운
상업적 사용
Playground
개요
기능
가격
API

GLM-4.7란

GLM-4.7은 Z.ai / Zhipu AI의 최신 플래그십 오픈 파운데이션 대규모 언어 모델(모델명 glm-4.7)입니다. 코딩/에이전트형 작업 실행, 다단계 추론, 도구 호출, 긴 컨텍스트 워크플로에서 특히 개선된 개발자 지향의 “사고” 모델로 포지셔닝되어 있습니다. 이번 릴리스는 대용량 컨텍스트 처리(최대 200K 컨텍스트), 높은 최대 출력(최대 128K 토큰), 에이전트형 파이프라인을 위한 특화된 “사고” 모드를 강조합니다.

주요 기능

  • 에이전트형/도구 사용 개선: 내장 사고 모드(“Interleaved Thinking”, “Preserved Thinking”, 턴 수준 제어)를 통해 모델이 “행동 전에 생각”하고, 턴 간 추론을 보존하며, 도구 호출이나 다단계 작업 실행 시 더 안정적으로 동작하도록 합니다. 이는 견고한 에이전트 워크플로(터미널, 도구 체인, 웹 브라우징)를 목표로 합니다.
  • 코딩 및 터미널 역량: 코딩 벤치마크와 터미널 자동화 작업에서 큰 향상 — 벤더 벤치마크에 따르면 SWE-bench와 Terminal Bench 지표에서 GLM-4.6 대비 뚜렷한 향상을 보입니다. 이는 에이전트 환경에서의 멀티턴 코드 생성, 명령 시퀀싱 및 복구 능력 향상으로 이어집니다.
  • “vibe coding”/프런트엔드 출력 품질: 생성되는 HTML, 슬라이드, 프레젠테이션의 기본 UI/레이아웃 품질이 개선되었습니다(더 깔끔한 레이아웃, 크기 조정, 더 나은 시각적 기본값).
  • 긴 컨텍스트 워크플로: 200K 토큰 컨텍스트 윈도우와 컨텍스트 캐싱 도구를 제공하여 다중 파일 코드베이스, 장문 문서, 다회차 에이전트 세션에 실용적입니다.

벤치마크 성능

GLM-4.7의 퍼블리셔/유지보수자와 커뮤니티 벤치마크 표는 GLM-4.6 대비 상당한 향상과 동시대 다른 모델들과의 경쟁력을 코딩, 에이전트형 및 도구 사용 작업에서 보고합니다. 선정된 수치(출처: 공식 Hugging Face / Z.AI 공개 표):

  • LiveCodeBench-v6(코딩 에이전트 벤치마크): 84.9(오픈소스 SOTA 언급).
  • SWE-bench Verified(코딩): 73.8%(GLM-4.6의 68.0%에서 상승).
  • SWE-bench Multilingual: 66.7%(GLM-4.6 대비 +12.9%).
  • Terminal Bench 2.0(에이전트형 터미널 동작): 41.0%(4.6 대비 +16.5%의 두드러진 향상).
  • HLE(도구를 활용한 복잡한 추론): 도구 사용 시 42.8%(이전 버전 대비 큰 개선 보고).
  • τ²-Bench(대화형 도구 호출): 87.4(오픈소스 SOTA 보고).

일반적인 사용 사례 및 예시 시나리오

  • 에이전트형 코딩 어시스턴트: 자율/반자율 코드 생성, 멀티턴 코드 수정, 터미널 자동화 및 CI/CD 스크립팅.
  • 도구 중심 에이전트: 웹 브라우징, API 오케스트레이션, 다단계 워크플로(사고 보존 및 함수 호출 지원).
  • 프런트엔드 및 UI 생성: 미관과 레이아웃이 개선된 자동 웹사이트 스캐폴딩, 슬라이드 데크, 포스터.
  • 리서치 및 긴 컨텍스트 작업: 문서 요약, 문헌 종합, 장문 문서 전반의 검색 증강 생성(200k 토큰 윈도우가 유용).
  • 대화형 교육 에이전트/코딩 튜터: 세션 전반에 걸친 이전 추론 블록을 기억하는 사고 보존을 활용한 멀티턴 튜터링.

GLM 4.7 API 액세스 및 사용 방법

1단계: API 키 가입

cometapi.com에 로그인하세요. 아직 사용자 아니라면 먼저 등록하세요. CometAPI 콘솔에 로그인하세요. 인터페이스의 액세스 자격 증명 API 키를 발급받습니다. 개인 센터의 API 토큰에서 “Add Token”을 클릭하여 토큰 키: sk-xxxxx를 발급받고 제출합니다.

2단계: MiniMax M2.1 API에 요청 보내기

“glm-4.7” 엔드포인트를 선택해 API 요청을 보내고 요청 본문을 설정합니다. 요청 메서드와 요청 본문은 당사 웹사이트 API 문서에서 얻을 수 있습니다. 당사 웹사이트는 편의를 위해 Apifox 테스트도 제공합니다. <YOUR_API_KEY>를 계정의 실제 CometAPI 키로 교체하세요. 호출 위치: 채팅-스타일 API.

content 필드에 질문이나 요청을 입력하세요—모델이 이에 응답합니다. API 응답을 처리하여 생성된 답변을 얻으세요.

3단계: 결과 검색 및 검증

API 응답을 처리하여 생성된 답변을 얻습니다. 처리 후, API는 작업 상태와

GLM-4.7의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

GLM-4.7 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)할인
입력:$0.96/M
출력:$3.84/M
입력:$1.2/M
출력:$4.8/M
-20%

GLM-4.7의 샘플 코드 및 API

[모델 이름]의 포괄적인 샘플 코드와 API 리소스에 액세스하여 통합 프로세스를 간소화하세요. 자세한 문서는 단계별 가이드를 제공하여 프로젝트에서 [모델 이름]의 모든 잠재력을 활용할 수 있도록 돕습니다.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

더 많은 모델