ModelSokonganPerusahaanBlog
500+ API Model AI, Semua Dalam Satu API. Hanya Di CometAPI
API Model
Pembangun
Mula PantasDokumentasiPapan Pemuka API
Sumber
Model AIBlogPerusahaanLog PerubahanTentang
2025 CometAPI. Hak cipta terpelihara.Dasar PrivasiTerma Perkhidmatan
Home/Models/Zhipu AI/GLM 4.6
Z

GLM 4.6

Masukan:$0.96/M
Keluaran:$3.84/M
Konteks:200,000
Keluaran Maksimum:128,000
Model perdana terkini Zhipu, GLM-4.6, telah dilancarkan: jumlah parameter 355B, parameter aktif 32B. Keupayaan teras keseluruhan mengatasi GLM-4.5. Pengekodan: Setara dengan Claude Sonnet 4, terbaik di China. Konteks: Dipanjangkan kepada 200K (asalnya 128K). Inferens: Dipertingkat, menyokong panggilan alat. Carian: Rangka kerja alat dan ejen dioptimumkan. Penulisan: Lebih selaras dengan keutamaan manusia, gaya penulisan dan permainan peranan. Berbilang bahasa: Keupayaan terjemahan dipertingkat.
Baru
Penggunaan komersial
Playground
Gambaran Keseluruhan
Ciri-ciri
Harga
API

GLM-4.6 ialah keluaran utama terkini dalam keluarga GLM Z.ai (dahulu Zhipu AI): model MoE (Campuran Pakar) bahasa besar generasi ke-4 yang ditala untuk aliran kerja berasaskan agen, penaakulan konteks panjang dan pengkodan dunia sebenar. Keluaran ini menekankan integrasi agen/alat yang praktikal, tetingkap konteks yang sangat besar, dan ketersediaan pemberat terbuka untuk penggunaan setempat.

Ciri utama

  • Konteks panjang — tetingkap konteks asli 200K token (dikembangkan daripada 128K). (docs.z.ai)
  • Keupayaan pengkodan & agenik — penambahbaikan yang dipasarkan pada tugas pengkodan dunia sebenar dan pemanggilan alat yang lebih baik untuk agen.
  • Kecekapan — dilaporkan ~30% penggunaan token lebih rendah berbanding GLM-4.5 pada ujian Z.ai.
  • Penyebaran & kuantisasi — pengumuman pertama integrasi FP8 dan Int4 untuk cip Cambricon; sokongan FP8 asli pada Moore Threads melalui vLLM.
  • Saiz model & jenis tensor — artifak yang diterbitkan menunjukkan model ~357B parameter (tensor BF16 / F32) di Hugging Face.

Perincian teknikal

Modaliti & format. GLM-4.6 ialah LLM berasaskan teks sahaja (modaliti input dan output: teks). Panjang konteks = 200K token; output maksimum = 128K token.

Kuantisasi & sokongan perkakasan. Pasukan melaporkan kuantisasi FP8/Int4 pada cip Cambricon dan FP8 asli pada GPU Moore Threads menggunakan vLLM untuk inferens — penting untuk menurunkan kos inferens dan membolehkan penggunaan di premis dan awan domestik.

Alatan & integrasi. GLM-4.6 diagihkan melalui API Z.ai, rangkaian penyedia pihak ketiga (cth., CometAPI), dan diintegrasikan ke dalam agen pengkodan (Claude Code, Cline, Roo Code, Kilo Code).

Perincian teknikal

Modaliti & format. GLM-4.6 ialah LLM berasaskan teks sahaja (modaliti input dan output: teks). Panjang konteks = 200K token; output maksimum = 128K token.

Kuantisasi & sokongan perkakasan. Pasukan melaporkan kuantisasi FP8/Int4 pada cip Cambricon dan FP8 asli pada GPU Moore Threads menggunakan vLLM untuk inferens — penting untuk menurunkan kos inferens dan membolehkan penggunaan di premis dan awan domestik.

Alatan & integrasi. GLM-4.6 diagihkan melalui API Z.ai, rangkaian penyedia pihak ketiga (cth., CometAPI), dan diintegrasikan ke dalam agen pengkodan (Claude Code, Cline, Roo Code, Kilo Code).

Prestasi penanda aras

  • Penilaian diterbitkan: GLM-4.6 diuji pada lapan penanda aras awam meliputi agen, penaakulan dan pengkodan serta menunjukkan peningkatan jelas berbanding GLM-4.5. Pada ujian pengkodan dunia sebenar yang dinilai manusia (CC-Bench lanjutan), GLM-4.6 menggunakan ~15% token lebih sedikit berbanding GLM-4.5 dan mencatat kadar kemenangan ~48.6% berbanding Claude Sonnet 4 keluaran Anthropic (hampir setara pada banyak papan pendahulu).
  • Kedudukan: keputusan mendakwa GLM-4.6 kompetitif dengan model terkemuka domestik dan antarabangsa (contoh yang disebut termasuk DeepSeek-V3.1 dan Claude Sonnet 4).

imej

Batasan & risiko

  • Halusinasi & kesilapan: seperti semua LLM semasa, GLM-4.6 boleh dan memang membuat kesilapan fakta — dokumen Z.ai secara jelas memberi amaran bahawa output mungkin mengandungi kesilapan. Pengguna harus menggunakan pengesahan & pengambilan/RAG untuk kandungan kritikal.
  • Kerumitan model & kos penyajian: konteks 200K dan output yang sangat besar meningkatkan dengan ketara keperluan memori & kependaman dan boleh menaikkan kos inferens; kejuruteraan kuantisasi/inferens diperlukan untuk berjalan pada skala.
  • Jurang domain: walaupun GLM-4.6 melaporkan prestasi agen/pengkodan yang kukuh, beberapa laporan awam menyatakan ia masih ketinggalan versi tertentu model bersaing dalam mikropenanda aras tertentu (cth., beberapa metrik pengkodan berbanding Sonnet 4.5). Nilai mengikut tugas sebelum menggantikan model produksi.
  • Keselamatan & dasar: pemberat terbuka meningkatkan kebolehcapaian tetapi juga menimbulkan persoalan penjagaan (mitigasi, pagar pengaman, dan red-teaming kekal menjadi tanggungjawab pengguna).

Kes penggunaan

  • Sistem berasaskan agen & orkestrasi alat: jejak agen panjang, perancangan berbilang alat, pemanggilan alat dinamik; penalaan berorientasikan agen ialah titik jualan utama model.
  • Pembantu pengkodan dunia sebenar: penjanaan kod berbilang pusingan, semakan kod dan pembantu IDE interaktif (diintegrasikan dalam Claude Code, Cline, Roo Code — menurut Z.ai). Peningkatan kecekapan token menjadikannya menarik untuk pelan pembangun penggunaan berat.
  • Aliran kerja dokumen panjang: pemingkasan, sintesis berbilang dokumen, ulasan undang-undang/teknikal yang panjang berkat tetingkap 200K.
  • Penciptaan kandungan & watak maya: dialog lanjutan, penyelenggaraan persona yang konsisten dalam senario berbilang pusingan.

Cara GLM-4.6 dibandingkan dengan model lain

  • GLM-4.5 → GLM-4.6: perubahan besar dalam saiz konteks (128K → 200K) dan kecekapan token (~15% token lebih sedikit pada CC-Bench); penggunaan agen/alat yang dipertingkat.
  • GLM-4.6 vs Claude Sonnet 4 / Sonnet 4.5: Z.ai melaporkan hampir setara pada beberapa papan pendahulu dan kadar kemenangan ~48.6% pada tugas pengkodan dunia sebenar CC-Bench (iaitu persaingan rapat, dengan beberapa mikropenanda aras di mana Sonnet masih mendahului). Bagi banyak pasukan kejuruteraan, GLM-4.6 diposisikan sebagai alternatif berkecekapan kos.
  • GLM-4.6 vs model konteks panjang lain (DeepSeek, varian Gemini, keluarga GPT-4): GLM-4.6 menekankan konteks besar & aliran kerja pengkodan berasaskan agen; kekuatan relatif bergantung pada metrik (kecekapan token/integrasi agen vs ketepatan sintesis kod mentah atau saluran keselamatan). Pemilihan empirikal harus dipacu oleh tugas.

Model utama terkini Zhipu AI GLM-4.6 dilancarkan: 355B jumlah parameter, 32B aktif. Mengatasi GLM-4.5 dalam semua keupayaan teras.

  • Pengkodan: Sejajar dengan Claude Sonnet 4, terbaik di China.
  • Konteks: Dikembangkan kepada 200K (daripada 128K).
  • Penaakulan: Dipertingkat, menyokong pemanggilan alat semasa inferens.
  • Carian: Pemanggilan alat dan prestasi agen yang dipertingkat.
  • Penulisan: Lebih sejajar dengan keutamaan manusia dalam gaya, kebolehbacaan, dan lakon peranan.
  • Berbilang bahasa: Dipertingkat untuk terjemahan rentas bahasa.

Soalan Lazim

What are the context window and output limits for GLM-4-6?

GLM-4-6 supports a 200,000 token context window (extended from 128K in GLM-4.5) with up to 128,000 output tokens, enabling extensive document analysis and long-form generation.

How does GLM-4-6 compare to Claude Sonnet 4 in coding?

According to Zhipu, GLM-4-6's coding capabilities align with Claude Sonnet 4, making it the best coding model among Chinese domestic models.

Does GLM-4-6 support tool calling and agent workflows?

Yes, GLM-4-6 features improved inference capabilities with enhanced Tool calls support and an optimized agent framework for complex multi-step task automation.

What is the architecture of GLM-4-6?

GLM-4-6 is a Mixture-of-Experts model with 355B total parameters and 32B active parameters, balancing capability with efficiency.

What makes GLM-4-6 different from GLM-4.5?

GLM-4-6 offers extended context (200K vs 128K), improved reasoning and tool calling, enhanced writing aligned with human preferences, better multilingual translation, and optimized role-playing.

Is GLM-4-6 suitable for enterprise Chinese language applications?

Yes, GLM-4-6 is particularly strong for Chinese language tasks including translation, content writing, and conversational AI, with enhanced multilingual capabilities.

When should I choose GLM-4-6 over GPT-5.2 or Claude?

Choose GLM-4-6 for Chinese-first applications, cost-effective 200K context needs, or when you need a strong domestic AI alternative with coding capabilities comparable to frontier models.

Ciri-ciri untuk GLM 4.6

Terokai ciri-ciri utama GLM 4.6, yang direka untuk meningkatkan prestasi dan kebolehgunaan. Temui bagaimana keupayaan ini boleh memberi manfaat kepada projek anda dan meningkatkan pengalaman pengguna.

Harga untuk GLM 4.6

Terokai harga yang kompetitif untuk GLM 4.6, direka bentuk untuk memenuhi pelbagai bajet dan keperluan penggunaan. Pelan fleksibel kami memastikan anda hanya membayar untuk apa yang anda gunakan, menjadikannya mudah untuk meningkatkan skala apabila keperluan anda berkembang. Temui bagaimana GLM 4.6 boleh meningkatkan projek anda sambil mengekalkan kos yang terurus.
Harga Comet (USD / M Tokens)Harga Rasmi (USD / M Tokens)Diskaun
Masukan:$0.96/M
Keluaran:$3.84/M
Masukan:$1.2/M
Keluaran:$4.8/M
-20%

Kod contoh dan API untuk GLM 4.6

GLM-4.6 ialah keluaran utama terkini dalam keluarga GLM Z.ai (dahulunya Zhipu AI): model MoE (Campuran Pakar) bahasa besar generasi ke-4 yang ditala untuk aliran kerja berasaskan agen, penaakulan konteks panjang dan pengekodan dunia sebenar. Keluaran ini menekankan integrasi agen/alatan yang praktikal, tetingkap konteks yang sangat besar, serta ketersediaan berat model terbuka untuk penggelaran tempatan.
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await openai.chat.completions.create({
  model: "glm-4.6",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" },
  ],
});

console.log(completion.choices[0].message.content);

Curl Code Example

curl https://api.cometapi.com/v1/chat/completions \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "glm-4.6",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
}'

Lebih Banyak Model

A

Claude Opus 4.6

Masukan:$4/M
Keluaran:$20/M
Claude Opus 4.6 ialah model bahasa besar kelas “Opus” oleh Anthropic, dikeluarkan pada Februari 2026. Ia diposisikan sebagai tulang belakang untuk kerja berpengetahuan dan aliran kerja penyelidikan — menambah baik penaakulan berkonteks panjang, perancangan berbilang langkah, penggunaan alat (termasuk aliran kerja perisian berasaskan ejen), dan tugas penggunaan komputer seperti penjanaan slaid dan hamparan automatik.
A

Claude Sonnet 4.6

Masukan:$2.4/M
Keluaran:$12/M
Claude Sonnet 4.6 ialah model Sonnet kami yang paling berkeupayaan setakat ini. Ia merupakan peningkatan menyeluruh terhadap kemahiran model yang meliputi pengaturcaraan, penggunaan komputer, penaakulan konteks panjang, perancangan agen, kerja berasaskan pengetahuan, dan reka bentuk. Sonnet 4.6 turut menampilkan tetingkap konteks 1M token dalam beta.
O

GPT-5.4 nano

Masukan:$0.16/M
Keluaran:$1/M
GPT-5.4 nano direka untuk tugasan yang amat mengutamakan kelajuan dan kos, seperti pengelasan, pengekstrakan data, pemeringkatan dan sub-agen.
O

GPT-5.4 mini

Masukan:$0.6/M
Keluaran:$3.6/M
GPT-5.4 mini membawa kekuatan GPT-5.4 ke dalam model yang lebih pantas dan lebih cekap, direka untuk beban kerja berskala besar.
A

Claude Mythos Preview

A

Claude Mythos Preview

Akan datang
Masukan:$60/M
Keluaran:$240/M
Claude Mythos Preview ialah model terdepan kami yang paling berkemampuan setakat ini, dan menunjukkan lonjakan yang ketara dalam skor pada banyak penanda aras penilaian berbanding model terdepan kami sebelum ini, Claude Opus 4.6.
X

mimo-v2-pro

Masukan:$0.8/M
Keluaran:$2.4/M
MiMo-V2-Pro ialah model asas perdana daripada Xiaomi, menampilkan lebih daripada 1T jumlah parameter dan panjang konteks 1M, yang dioptimumkan secara mendalam untuk senario berasaskan agen. Ia sangat mudah disesuaikan dengan rangka kerja agen umum seperti OpenClaw. Ia berada pada peringkat teratas global dalam penanda aras standard PinchBench dan ClawBench, dengan prestasi yang diperhatikan menghampiri Opus 4.6. MiMo-V2-Pro direka untuk berperanan sebagai otak sistem agen, menyelaras aliran kerja yang kompleks, memacu tugasan kejuruteraan pengeluaran, dan menyampaikan hasil secara boleh dipercayai.

Blog Berkaitan

GLM-4.7 Dilancarkan: Apa Maksudnya untuk Kecerdasan AI?
Dec 23, 2025
glm-4-7

GLM-4.7 Dilancarkan: Apa Maksudnya untuk Kecerdasan AI?

Pada 22 Disember 2025, Zhipu AI (Z.ai) secara rasmi melancarkan GLM-4.7, lelaran terbaharu dalam keluarga General Language Model (GLM) miliknya — sekaligus menarik perhatian global dalam dunia model AI sumber terbuka. Model ini bukan sahaja meningkatkan keupayaan dalam tugas pengekodan dan penaakulan, malah turut mencabar dominasi model proprietari seperti GPT-5.2 dan Claude Sonnet 4.5 dalam penanda aras utama.