モデルサポートエンタープライズブログ
500以上のAI Model API、オールインワンAPI。CometAPIで。
モデルAPI
開発者
クイックスタートドキュメントAPI ダッシュボード
リソース
AIモデルブログエンタープライズ変更履歴概要
2025 CometAPI. 全著作権所有。プライバシーポリシー利用規約
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

入力:$0.96/M
出力:$3.84/M
文脈:200K
最大出力:128K
GLM-4.7はZ.AIの最新フラッグシップモデルで、強化点は「プログラミング能力」と「より安定したマルチステップ推論・実行」の2つです。複雑なエージェントタスクの遂行において顕著な向上を示し、より自然な会話体験と優れたフロントエンドの美観を提供します。
新着
商用利用
Playground
概要
機能
料金プラン
API

GLM-4.7 とは

GLM-4.7 は、Z.ai / Zhipu AI の最新のフラッグシップ・オープン基盤大規模言語モデル(モデル名 glm-4.7)です。開発者志向の“思考型”モデルとして位置づけられており、特にコーディング/エージェント型タスク実行、多段推論、ツール呼び出し、長文脈ワークフローに改良があります。本リリースは、大規模コンテキストの処理(最大 200K コンテキスト)、高い最大出力(最大 128K トークン)、エージェントパイプライン向けの特化した“思考”モードを強調しています。

主な特長

  • エージェント/ツール使用の改善: 組み込みの思考モード(“Interleaved Thinking”、“Preserved Thinking”、ターン単位の制御)により、行動の前に“考える”、ターン間で推論を保持する、ツール呼び出しや多段タスク実行での安定性を高めることができます。これは堅牢なエージェントワークフロー(ターミナル、ツールチェーン、ウェブブラウジング)を目的としています。
  • コーディングとターミナル能力: コーディング系ベンチマークやターミナル自動化タスクで大幅に改善—ベンダーのベンチマークでは、SWE-bench と Terminal Bench の指標で GLM-4.6 に対して明確な向上が示されています。これにより、エージェント環境でのマルチターンのコード生成、コマンドのシーケンス化およびリカバリーが向上します。
  • “Vibe coding”/フロントエンド出力品質: 生成される HTML、スライド、プレゼンテーションのデフォルトの UI/レイアウト品質が向上(よりクリーンなレイアウト、サイズ調整、より良いビジュアルのデフォルト)。
  • 長文脈ワークフロー: 200K トークンのコンテキストウィンドウとコンテキストキャッシュ用のツールを備え、複数ファイルのコードベース、長文書、複数ラウンドのエージェントセッションに実用的です。

ベンチマーク性能

GLM-4.7 の発行元/メンテナおよびコミュニティのベンチマークでは、コーディング、エージェント、ツール使用タスクにおいて GLM-4.6 に対する大幅な向上と、他の同時代モデルに対する競争力のある結果が報告されています。抜粋した数値(出典:公式 Hugging Face / Z.AI 公開表):

  • LiveCodeBench-v6(コーディングエージェント・ベンチマーク): 84.9(オープンソース SOTA とされる)。
  • SWE-bench Verified(コーディング): 73.8%(GLM-4.6 の 68.0% から上昇)。
  • SWE-bench Multilingual: 66.7%(GLM-4.6 比 +12.9%)。
  • Terminal Bench 2.0(エージェント的なターミナル操作): 41.0%(4.6 比で顕著な +16.5%)。
  • HLE(ツールを用いた複雑な推論): ツール併用時 42.8%(前バージョン比で大幅な改善と報告)。
  • τ²-Bench(対話的ツール呼び出し): 87.4(オープンソース SOTA と報告)。

代表的なユースケースと例

  • エージェント型コーディングアシスタント: 自律/半自律のコード生成、マルチターンのコード修正、ターミナル自動化、CI/CD スクリプティング。
  • ツール駆動のエージェント: ウェブブラウジング、API オーケストレーション、多段ワークフロー(Preserved Thinking と function calling によるサポート)。
  • フロントエンドおよび UI 生成: Web サイトのスキャフォールディング、スライドデッキ、ポスターの自動生成(美観とレイアウトが改善)。
  • リサーチ & 長文脈タスク: 文書要約、文献統合、長文書をまたぐ検索拡張生成(200k トークンウィンドウが有用)。
  • インタラクティブな教育エージェント/コーディングチューター: セッション全体で以前の推論ブロックを記憶する推論保持を用いたマルチターン指導。

GLM 4.7 API の利用方法

ステップ 1: API キーの取得

cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI コンソールにサインインします。インターフェースのアクセス認証である API キーを取得します。パーソナルセンターの API トークンで「Add Token」をクリックし、トークンキー: sk-xxxxx を取得して送信します。

ステップ 2: MiniMax M2.1 API へリクエストを送信

“glm-4.7” エンドポイントを選択して API リクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは当社ウェブサイトの API ドキュメントから取得できます。利便性のため Apifox テストも提供しています。<YOUR_API_KEY> は、アカウントの実際の CometAPI キーに置き換えてください。呼び出し先: Chat 形式の API。

content フィールドに質問やリクエストを挿入します—モデルはこの内容に応答します。API レスポンスを処理して、生成された回答を取得します。

ステップ 3: 結果の取得と検証

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクのステータスと

GLM-4.7の機能

GLM-4.7のパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

GLM-4.7の料金

GLM-4.7の競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。GLM-4.7がコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$0.96/M
出力:$3.84/M
入力:$1.2/M
出力:$4.8/M
-20%

GLM-4.7のサンプルコードとAPI

GLM-4.7の包括的なサンプルコードとAPIリソースにアクセスして、統合プロセスを効率化しましょう。詳細なドキュメントでは段階的なガイダンスを提供し、プロジェクトでGLM-4.7の潜在能力を最大限に活用できるよう支援します。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

その他のモデル

A

Claude Opus 4.6

入力:$4/M
出力:$20/M
Claude Opus 4.6 は、Anthropic の「Opus」クラスの大規模言語モデルで、2026年2月にリリースされた。ナレッジワークや研究ワークフローの主力として位置づけられており、長文脈での推論、多段階の計画立案、ツールの利用(エージェント型ソフトウェアワークフローを含む)、およびスライドやスプレッドシートの自動生成といったコンピュータ操作タスクを強化する。
A

Claude Sonnet 4.6

入力:$2.4/M
出力:$12/M
Claude Sonnet 4.6 は、これまでで最も高性能な Sonnet モデルです。コーディング、コンピューターの利用、長文脈推論、エージェントの計画立案、ナレッジワーク、デザインにわたってモデルのスキルを全面的にアップグレードしました。Sonnet 4.6 は、ベータ版で 1M トークンのコンテキストウィンドウも備えています。
O

GPT-5.4 nano

入力:$0.16/M
出力:$1/M
GPT-5.4 nano は、分類、データ抽出、ランキング、サブエージェントなど、速度とコストが最も重要となるタスク向けに設計されています。
O

GPT-5.4 mini

入力:$0.6/M
出力:$3.6/M
GPT-5.4 mini は、GPT-5.4 の強みを、高スループットのワークロード向けに設計された、より高速で効率的なモデルにもたらします。
A

Claude Mythos Preview

A

Claude Mythos Preview

近日公開
入力:$60/M
出力:$240/M
Claude Mythos Preview は、当社のこれまでで最も高性能なフロンティアモデルであり、 従来のフロンティアモデルである Claude Opus 4.6 と比べ、多くの評価ベンチマークでスコアが顕著に向上していることを示しています。
X

mimo-v2-pro

入力:$0.8/M
出力:$2.4/M
MiMo-V2-Pro は Xiaomi のフラッグシップ基盤モデルで、総パラメータ数は 1T 超、コンテキスト長は 1M で、エージェント志向のシナリオ向けに徹底的に最適化されています。OpenClaw のような汎用エージェントフレームワークに高い適応性を備えており、標準的な PinchBench および ClawBench ベンチマークで世界トップクラスに位置し、体感パフォーマンスは Opus 4.6 に迫ります。MiMo-V2-Pro はエージェントシステムの頭脳として、複雑なワークフローをオーケストレーションし、本番環境のエンジニアリングタスクを推進し、確実に成果を提供するよう設計されています。

関連ブログ

GLM-5 vs GLM-4.7:何が変わったのか、何が重要か、アップグレードすべきか?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7:何が変わったのか、何が重要か、アップグレードすべきか?

GLM-5 は、Zhipu AI (Z.ai) により2026年2月11日にリリースされ、GLM-4.7からの大きなアーキテクチャ上の飛躍を示す: より大規模なMoEスケール(総パラメータ数 ≈744B 対 ~355B)、より高いアクティブパラメータ容量、測定されたハルシネーションの低減、そしてエージェント性およびコーディング・ベンチマークでの明確な向上 — ただし、推論の複雑性および(時には)レイテンシというコストを伴う。
GLM-4.7-Flash をローカルで使用するには?
Jan 21, 2026
glm-4-7
glm-4-7

GLM-4.7-Flash をローカルで使用するには?

GLM-4.7-Flash は、GLM-4.7 ファミリーに属する軽量かつ高性能な 30B A3B MoE のメンバーで、コーディング、エージェント駆動のワークフロー、汎用的な推論において、ローカルかつ低コストでのデプロイを可能にするよう設計されています。ローカル実行には実用的な 3 つの方法があります: (1) Ollama 経由(簡単でマネージドなローカルランタイム)、(2) Hugging Face / Transformers / vLLM / SGLang 経由(GPU 優先のサーバーデプロイ)、(3) GGUF + llama.cpp / llama-cpp-python 経由(CPU/エッジ向け)。
GLM-4.7がリリース:これはAIの知能にとって何を意味するのか?
Dec 23, 2025
glm-4-7

GLM-4.7がリリース:これはAIの知能にとって何を意味するのか?

2025年12月22日、Zhipu AI(Z.ai)はGeneral Language Model(GLM)ファミリーの最新イテレーションであるGLM-4.7を正式にリリースし、オープンソースAIモデルの分野で国際的な注目を集めた。このモデルはコード生成や推論タスクにおける能力を向上させただけでなく、主要なベンチマークでGPT-5.2やClaude Sonnet 4.5といったプロプライエタリモデルの支配的地位に挑戦している。