モデルサポートエンタープライズブログ
500以上のAI Model API、オールインワンAPI。CometAPIで。
モデルAPI
開発者
クイックスタートドキュメントAPI ダッシュボード
リソース
AIモデルブログエンタープライズ変更履歴概要
2025 CometAPI. 全著作権所有。プライバシーポリシー利用規約
Home/Models/Zhipu AI/GLM 4.6
Z

GLM 4.6

入力:$0.96/M
出力:$3.84/M
文脈:200,000
最大出力:128,000
Zhipu の最新フラッグシップモデル GLM-4.6 をリリース: 総パラメータ数 355B、アクティブパラメータ 32B。コア機能全体は GLM-4.5 を上回る。コーディング: Claude Sonnet 4 と同等水準、中国国内で最高。コンテキスト: 200K に拡張(従来は 128K)。推論: 改善され、Tool 呼び出しに対応。検索: Tool とエージェントフレームワークを最適化。ライティング: 人間の嗜好・文体・ロールプレイへの適合性が向上。多言語: 翻訳効果を強化。
新着
商用利用
Playground
概要
機能
料金プラン
API

GLM-4.6 は Z.ai(旧称 Zhipu AI)の GLM ファミリーにおける最新のメジャーリリースであり、エージェント型ワークフロー、長文脈推論、実務的なコーディング向けに調整された第4世代の大規模言語 MoE(専門家混合)モデル です。本リリースは、実用的なエージェント/ツールの統合、非常に大きな コンテキストウィンドウ、およびローカル導入向けの公開ウェイト提供を重視しています。

Key features

  • Long context — ネイティブな 200K トークンのコンテキストウィンドウ(128K から拡張)。(docs.z.ai)
  • Coding & agentic capability — 実務的なコーディングタスクでの改善と、エージェントによるツール呼び出しの向上を謳う。
  • Efficiency — Z.ai のテストで ~30% のトークン消費削減が報告。
  • Deployment & quantization — Cambricon チップ向けに FP8 と Int4 の統合を初発表;vLLM 経由で Moore Threads 上でネイティブな FP8 をサポート。
  • Model size & tensor type — 公開アーティファクトは、Hugging Face 上で ~357B パラメータのモデル(BF16 / F32 テンソル)を示している。

Technical details

Modalities & formats. GLM-4.6 は テキストのみ の LLM(入力と出力のモダリティ:テキスト)。コンテキスト長 = 200K トークン;最大出力 = 128K トークン。

Quantization & hardware support. チームは Cambricon チップでの FP8/Int4 量子化と、vLLM を用いた Moore Threads GPU 上での ネイティブ FP8 実行を報告 — 推論コストを下げ、オンプレミスおよび国内クラウドでの導入を可能にする上で重要。

Tooling & integrations. GLM-4.6 は Z.ai の API、サードパーティのプロバイダーネットワーク(例:CometAPI)を通じて配布され、コーディングエージェント(Claude Code、Cline、Roo Code、Kilo Code)に統合されている。

Technical details

Modalities & formats. GLM-4.6 は テキストのみ の LLM(入力と出力のモダリティ:テキスト)。コンテキスト長 = 200K トークン;最大出力 = 128K トークン。

Quantization & hardware support. チームは Cambricon チップでの FP8/Int4 量子化と、vLLM を用いた Moore Threads GPU 上での ネイティブ FP8 実行を報告 — 推論コストを下げ、オンプレミスおよび国内クラウドでの導入を可能にする上で重要。

Tooling & integrations. GLM-4.6 は Z.ai の API、サードパーティのプロバイダーネットワーク(例:CometAPI)を通じて配布され、コーディングエージェント(Claude Code、Cline、Roo Code、Kilo Code)に統合されている。

Benchmark performance

  • Published evaluations: GLM-4.6 は、エージェント、推論、コーディングを対象とする 8 つの公開ベンチマークでテストされ、GLM-4.5 に対して明確な向上を示す。人手評価の実務的コーディングテスト(拡張版 CC-Bench)では、GLM-4.5 対比で ~15% 少ないトークンを使用し、Anthropic の Claude Sonnet 4 対比で ~48.6% の勝率を記録(多くのリーダーボードでほぼ同等)。
  • Positioning: 結果は、GLM-4.6 が国内外の先進モデルと競合できると主張(例として DeepSeek-V3.1 や Claude Sonnet 4 が挙げられている)。

画像

Limitations & risks

  • Hallucinations & mistakes: 現在のすべての LLM と同様に、GLM-4.6 は事実誤りを起こし得る — Z.ai のドキュメントは、出力にミスが含まれる可能性を明示的に警告。重要な内容には検証とリトリーバル/RAGの適用が推奨。
  • Model complexity & serving cost: 200K コンテキストと非常に大きな出力は、メモリとレイテンシの要求を劇的に増大させ、推論コストを引き上げ得る;大規模運用には量子化や推論エンジニアリングが必要。
  • Domain gaps: エージェント/コーディング性能が強いと報告される一方で、公開レポートの一部では特定のマイクロベンチマークで競合モデルの一部バージョンに遅れを指摘(例:一部のコーディング指標での Sonnet 4.5 対比)。本番置換の前にタスク単位で評価すべき。
  • Safety & policy: オープンウェイトはアクセス性を高める一方で、運用管理上の課題も生む(緩和策、ガードレール、レッドチーミングは引き続きユーザーの責任)。

Use cases

  • Agentic systems & tool orchestration: 長いエージェントトレース、マルチツールの計画、動的ツール呼び出し;エージェント指向の調整が主要な訴求点。
  • Real-world coding assistants: マルチターンのコード生成、コードレビュー、対話型 IDE アシスタント(Z.ai によれば Claude Code、Cline、Roo Code に統合)。トークン効率の改善により、ヘビーユースの開発者プランに魅力的。
  • Long-document workflows: 200K ウィンドウにより、要約、複数文書の統合、長尺の法務/技術レビュー。
  • Content creation & virtual characters: 長尺の対話、マルチターンシナリオでの一貫したペルソナ維持。

How GLM-4.6 compares to other models

  • GLM-4.5 → GLM-4.6: **コンテキストサイズ(128K → 200K)**の大きな変更と トークン効率(CC-Bench で ~15% の削減);エージェント/ツール利用の向上。
  • GLM-4.6 vs Claude Sonnet 4 / Sonnet 4.5: Z.ai は複数のリーダーボードでのほぼ同等と、CC-Bench の実務的コーディングタスクでの ~48.6% の勝率を報告(接戦で、一部マイクロベンチマークでは Sonnet が先行)。多くのエンジニアリングチームにとって、GLM-4.6 はコスト効率の高い代替として位置付けられている。
  • GLM-4.6 vs other long-context models (DeepSeek, Gemini variants, GPT-4 family): GLM-4.6 は大きなコンテキストとエージェント型コーディングワークフローを強調;相対的な強みは指標に依存(トークン効率/エージェント統合 vs コード生成の素の精度やセーフティのパイプライン)。選定はタスク駆動で実証的に行うべき。

Zhipu AI の最新フラッグシップモデル GLM-4.6 をリリース:総 355B パラメータ、32B アクティブ。中核機能のすべてで GLM-4.5 を上回る。

  • コーディング:Claude Sonnet 4 に肩を並べ、中国で最高。
  • コンテキスト:128K から 200K に拡張。
  • 推論:改善され、推論中のツール呼び出しをサポート。
  • 検索:ツール呼び出しとエージェント性能が向上。
  • ライティング:スタイル、可読性、ロールプレイで人間の嗜好により適合。
  • 多言語:言語間翻訳が強化。

よくある質問

What are the context window and output limits for GLM-4-6?

GLM-4-6 supports a 200,000 token context window (extended from 128K in GLM-4.5) with up to 128,000 output tokens, enabling extensive document analysis and long-form generation.

How does GLM-4-6 compare to Claude Sonnet 4 in coding?

According to Zhipu, GLM-4-6's coding capabilities align with Claude Sonnet 4, making it the best coding model among Chinese domestic models.

Does GLM-4-6 support tool calling and agent workflows?

Yes, GLM-4-6 features improved inference capabilities with enhanced Tool calls support and an optimized agent framework for complex multi-step task automation.

What is the architecture of GLM-4-6?

GLM-4-6 is a Mixture-of-Experts model with 355B total parameters and 32B active parameters, balancing capability with efficiency.

What makes GLM-4-6 different from GLM-4.5?

GLM-4-6 offers extended context (200K vs 128K), improved reasoning and tool calling, enhanced writing aligned with human preferences, better multilingual translation, and optimized role-playing.

Is GLM-4-6 suitable for enterprise Chinese language applications?

Yes, GLM-4-6 is particularly strong for Chinese language tasks including translation, content writing, and conversational AI, with enhanced multilingual capabilities.

When should I choose GLM-4-6 over GPT-5.2 or Claude?

Choose GLM-4-6 for Chinese-first applications, cost-effective 200K context needs, or when you need a strong domestic AI alternative with coding capabilities comparable to frontier models.

GLM 4.6の機能

GLM 4.6のパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

GLM 4.6の料金

GLM 4.6の競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。GLM 4.6がコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$0.96/M
出力:$3.84/M
入力:$1.2/M
出力:$4.8/M
-20%

GLM 4.6のサンプルコードとAPI

GLM-4.6 は、Z.ai(旧称 Zhipu AI)の GLM ファミリーにおける最新のメジャーリリースであり、エージェント型ワークフロー、長文脈推論、実務的なコーディングに向けてチューニングされた第4世代の大規模言語 MoE(Mixture-of-Experts)モデルです。今回のリリースは、実用的なエージェント/ツール統合、非常に大きなコンテキストウィンドウ、ローカルデプロイ向けのオープンウェイト提供を重視しています。
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await openai.chat.completions.create({
  model: "glm-4.6",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" },
  ],
});

console.log(completion.choices[0].message.content);

Curl Code Example

curl https://api.cometapi.com/v1/chat/completions \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "glm-4.6",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
}'

その他のモデル

A

Claude Opus 4.6

入力:$4/M
出力:$20/M
Claude Opus 4.6 は、Anthropic の「Opus」クラスの大規模言語モデルで、2026年2月にリリースされた。ナレッジワークや研究ワークフローの主力として位置づけられており、長文脈での推論、多段階の計画立案、ツールの利用(エージェント型ソフトウェアワークフローを含む)、およびスライドやスプレッドシートの自動生成といったコンピュータ操作タスクを強化する。
A

Claude Sonnet 4.6

入力:$2.4/M
出力:$12/M
Claude Sonnet 4.6 は、これまでで最も高性能な Sonnet モデルです。コーディング、コンピューターの利用、長文脈推論、エージェントの計画立案、ナレッジワーク、デザインにわたってモデルのスキルを全面的にアップグレードしました。Sonnet 4.6 は、ベータ版で 1M トークンのコンテキストウィンドウも備えています。
O

GPT-5.4 nano

入力:$0.16/M
出力:$1/M
GPT-5.4 nano は、分類、データ抽出、ランキング、サブエージェントなど、速度とコストが最も重要となるタスク向けに設計されています。
O

GPT-5.4 mini

入力:$0.6/M
出力:$3.6/M
GPT-5.4 mini は、GPT-5.4 の強みを、高スループットのワークロード向けに設計された、より高速で効率的なモデルにもたらします。
A

Claude Mythos Preview

A

Claude Mythos Preview

近日公開
入力:$60/M
出力:$240/M
Claude Mythos Preview は、当社のこれまでで最も高性能なフロンティアモデルであり、 従来のフロンティアモデルである Claude Opus 4.6 と比べ、多くの評価ベンチマークでスコアが顕著に向上していることを示しています。
X

mimo-v2-pro

入力:$0.8/M
出力:$2.4/M
MiMo-V2-Pro は Xiaomi のフラッグシップ基盤モデルで、総パラメータ数は 1T 超、コンテキスト長は 1M で、エージェント志向のシナリオ向けに徹底的に最適化されています。OpenClaw のような汎用エージェントフレームワークに高い適応性を備えており、標準的な PinchBench および ClawBench ベンチマークで世界トップクラスに位置し、体感パフォーマンスは Opus 4.6 に迫ります。MiMo-V2-Pro はエージェントシステムの頭脳として、複雑なワークフローをオーケストレーションし、本番環境のエンジニアリングタスクを推進し、確実に成果を提供するよう設計されています。

関連ブログ

GLM-4.7がリリース:これはAIの知能にとって何を意味するのか?
Dec 23, 2025
glm-4-7

GLM-4.7がリリース:これはAIの知能にとって何を意味するのか?

2025年12月22日、Zhipu AI(Z.ai)はGeneral Language Model(GLM)ファミリーの最新イテレーションであるGLM-4.7を正式にリリースし、オープンソースAIモデルの分野で国際的な注目を集めた。このモデルはコード生成や推論タスクにおける能力を向上させただけでなく、主要なベンチマークでGPT-5.2やClaude Sonnet 4.5といったプロプライエタリモデルの支配的地位に挑戦している。