Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

入力:$0.96/M
出力:$3.84/M
文脈:200K
最大出力:128K
GLM-4.7はZ.AIの最新フラッグシップモデルで、強化点は「プログラミング能力」と「より安定したマルチステップ推論・実行」の2つです。複雑なエージェントタスクの遂行において顕著な向上を示し、より自然な会話体験と優れたフロントエンドの美観を提供します。
新着
商用利用
Playground
概要
機能
料金プラン
API

GLM-4.7 とは

GLM-4.7 は Z.ai / Zhipu AI による最新のフラグシップ・オープン基盤型大規模言語モデル(モデル名 glm-4.7)です。開発者志向の“思考”モデルとして位置付けられており、特に コーディング/エージェントタスク実行、マルチステップ推論、ツール呼び出し、長文脈ワークフロー において改善が図られています。本リリースは、大規模コンテキストへの対応(最大 200K)、高い最大出力(最大 128K トークン)、およびエージェントパイプライン向けの特化した“思考”モードを重視しています。

主な特長

  • エージェント/ツール使用の改善: 組み込みの思考モード(“Interleaved Thinking”、“Preserved Thinking”、ターンレベル制御)により、モデルが「行動する前に考える」ことを可能にし、ターンをまたいだ推論の保持や、ツール呼び出し・マルチステップタスク実行時の安定性を向上。ターミナル、ツールチェーン、ウェブブラウジングといった堅牢なエージェントワークフローを想定。
  • コーディングとターミナル対応力: コーディング系ベンチマークやターミナル自動化タスクで大幅に改善—ベンダーのベンチマークでは SWE-bench と Terminal Bench の指標で GLM-4.6 比の明確な向上を確認。これにより、エージェント環境でのマルチターンのコード生成、コマンドのシーケンス化とリカバリーが向上。
  • “Vibe coding”/フロントエンド出力品質: 生成される HTML、スライド、プレゼンテーションのデフォルト UI/レイアウト品質が向上(よりクリーンなレイアウト、サイズ設定、ビジュアルのデフォルト)。
  • 長文脈ワークフロー: 200K トークンのコンテキストウィンドウとコンテキストキャッシュ用ツールを提供。複数ファイルのコードベース、長文書、複数ラウンドのエージェントセッションに実用的。

ベンチマーク性能

GLM-4.7 のパブリッシャー/メンテナーおよびコミュニティのベンチマーク表では、GLM-4.6 比で大幅な向上が報告され、コーディング、エージェント、ツール使用タスクにおいて同時代の他モデルと比べても競争力のある結果となっています。抜粋(出典: 公式 Hugging Face / Z.AI 公開表):

  • LiveCodeBench-v6(コーディングエージェント・ベンチマーク): 84.9(オープンソース SOTA と記載)。
  • SWE-bench Verified(コーディング): 73.8%(GLM-4.6 の 68.0% から上昇)。
  • SWE-bench Multilingual: 66.7%(GLM-4.6 比 +12.9%)。
  • Terminal Bench 2.0(エージェント的ターミナル操作): 41.0%(4.6 比で顕著な +16.5% 改善)。
  • HLE(ツール併用での複雑推論): ツール使用時に 42.8%(前バージョン比で大幅改善と報告)。
  • τ²-Bench(対話的ツール呼び出し): 87.4(オープンソース SOTA と報告)。

典型的なユースケースと例

  • エージェント型コーディングアシスタント: 自律/半自律のコード生成、マルチターンのコード修正、ターミナル自動化や CI/CD スクリプティング。
  • ツールドリブンなエージェント: ウェブブラウジング、API オーケストレーション、マルチステップワークフロー(Preserved Thinking と関数呼び出しで支援)。
  • フロントエンドと UI 生成: 自動ウェブサイトのスキャフォールディング、スライドデッキ、審美性とレイアウトが改善されたポスター生成。
  • リサーチと長文脈タスク: 文書要約、文献統合、長文書にまたがる検索拡張生成(200k トークンのウィンドウが有用)。
  • インタラクティブな教育エージェント/コーディングチューター: セッションをまたいで推論ブロックを保持する、マルチターンの個別指導。

GLM 4.7 API の利用方法

ステップ 1: API キーにサインアップ

cometapi.com にログインしてください。まだユーザーでない場合は、先に登録してください。CometAPI console にサインインします。インターフェースのアクセス認証 API キーを取得します。personal center の API token で “Add Token” をクリックし、トークンキー: sk-xxxxx を取得して送信します。

ステップ 2: MiniMax M2.1 API にリクエストを送信

API リクエストを送信する際は “glm-4.7” エンドポイントを選択し、リクエストボディを設定します。リクエストメソッドとリクエストボディは当社ウェブサイトの API ドキュメントから取得できます。利便性のため、当社ウェブサイトでは Apifox テストも提供しています。<YOUR_API_KEY> をアカウントの実際の CometAPI キーに置き換えてください。呼び出し先: Chat スタイルの API。

質問やリクエストを content フィールドに挿入します—モデルはその内容に応答します。API レスポンスを処理して生成結果を取得します。

ステップ 3: 結果の取得と検証

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクのステータスと

GLM-4.7の機能

GLM-4.7のパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

GLM-4.7の料金

GLM-4.7の競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。GLM-4.7がコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$0.96/M
出力:$3.84/M
入力:$1.2/M
出力:$4.8/M
-20%

GLM-4.7のサンプルコードとAPI

GLM-4.7の包括的なサンプルコードとAPIリソースにアクセスして、統合プロセスを効率化しましょう。詳細なドキュメントでは段階的なガイダンスを提供し、プロジェクトでGLM-4.7の潜在能力を最大限に活用できるよう支援します。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

その他のモデル