GLM-5 の技術仕様
| 項目 | GLM-5(公表値) |
|---|---|
| モデルファミリー | GLM(Z.ai / Zhipu AI)— フラッグシップ世代 |
| アーキテクチャ | Mixture-of-Experts(MoE)+スパース・アテンション(DeepSeek/DSA 最適化)。 |
| 総パラメータ数 | ≈744–745B(MoE プール)。 |
| アクティブ/ルーティング対象パラメータ(トークンごと) | ~40–44B アクティブ(ルーティング/エキスパートに依存)。 |
| 事前学習トークン | ~28.5T トークン(公表値)。 |
| コンテキストウィンドウ(入力) | 最大 200,000 トークン(ロングコンテキストモード)。 |
| 最大出力トークン数 | 128,000 トークン(1 回の呼び出し当たりの最大生成、報告値)。 |
| 入力モダリティ | テキストのみ(主要);リッチテキスト→出力(ツール経由の doc/xlsx 生成)向けに設計。 |
GLM-5 とは
GLM-5 は Zhipu AI の次世代基盤モデルで、MoE ルーティング設計とスパース・アテンション最適化により GLM 系列をスケールし、長文脈推論とエージェンティックなワークフロー(多段階プランニング、コード/システムのオーケストレーション)を実現する。API とセルフホスティングによるエンタープライズ向けアクセス性を備え、エージェント/エンジニアリングタスク向けのオープンウェイト有力候補として位置付けられている。
🚀 GLM-5 の主な特長
1. エージェンティック・インテリジェンスと推論
GLM-5 は、長く複雑なタスクを順序立てたステップに分解し、ハルシネーションを低減するワークフローに最適化されている。知識の信頼性とタスク生産性に関する一部のオープンウェイトモデルのベンチマークで先行する。
2. 長文脈サポート
200K トークンのコンテキストウィンドウにより、非常に長い会話や大規模ドキュメント、拡張された推論チェーンを、整合性を失わずに維持できる。
3. DeepSeek スパース・アテンション
スパース・アテンション機構の統合により、メモリ使用を効率的にスケールし、線形コストの増加なしに長いシーケンスを扱える。
4. ツール統合と出力フォーマット
構造化出力と外部ツール連携(JSON、API コール、動的ツール使用)をネイティブにサポートし、スプレッドシート、レポート、自動コーディングアシスタントなどのエンタープライズ用途に実用的。
5. コスト効率
GLM-5 はプロプライエタリ製品と比べてコスト競争力が高く、入出力価格が主要オファリングより大幅に低いため、大規模導入に適している。
GLM-5 のベンチマーク性能
複数の独立評価と業界初期ベンチマークで、GLM-5 はオープンウェイトモデルの中で強力な結果を示している。
- Artificial Analysis Intelligence Index(信頼性と真実性の指標)で記録的な低ハルシネーション率を達成し、従来モデルを大差で上回った。
- エージェント中心のベンチマークでは、GLM-4.7 および他のオープンモデルと比べ、複雑タスクの実行で大幅な向上を示す。
- コスト対性能メトリクスでは、速度は第4四分位だが、知性と価格はトップティア(最良)に位置付けられている。
定量スコア(ランキングプラットフォームの例):
- Intelligence Index: オープンウェイトモデル中で #1。
- Pricing Efficiency: 入出力コストの低さで高評価。
GLM-5 API の利用方法
手順 1: API キーを取得
cometapi.com にログインする。未登録の場合はまず登録する。CometAPI console にサインインする。インターフェースのアクセス認証 API キーを取得する。パーソナルセンターの API token で “Add Token” をクリックし、token key: sk-xxxxx を取得して送信する。
手順 2: glm-5 API にリクエストを送信
“glm-5” エンドポイントを選択して API リクエストを送信し、リクエストボディを設定する。リクエストメソッドとリクエストボディは当社サイトの API ドキュメントから取得できる。当社サイトは利便性のため Apifox テストも提供している。<YOUR_API_KEY> をアカウントの実際の CometAPI キーに置き換える。呼び出し先: Chat 形式。
質問や依頼内容を content フィールドに挿入する—これがモデルの応答対象となる。API レスポンスを処理して生成された回答を取得する。
手順 3: 結果の取得と検証
API レスポンスを処理して生成結果を取得する。処理後、API はタスクのステータスと出力データを返す。