ModelDukunganPerusahaanBlog
500+ API Model AI, Semua Dalam Satu API. Hanya Di CometAPI
API Model
Pengembang
Mulai CepatDokumentasiDasbor API
Sumber Daya
Model AIBlogPerusahaanCatatan PerubahanTentang
2025 CometAPI. Semua hak dilindungi undang-undang.Kebijakan PrivasiSyarat dan Ketentuan Layanan
Home/Models/Zhipu AI/GLM 4.6
Z

GLM 4.6

Masukan:$0.96/M
Keluaran:$3.84/M
Konteks:200,000
Keluaran Maksimum:128,000
Model flagship terbaru Zhipu, GLM-4.6, dirilis: total parameter 355B, parameter aktif 32B. Kemampuan inti secara keseluruhan melampaui GLM-4.5. Pemrograman: Setara dengan Claude Sonnet 4, terbaik di Tiongkok. Konteks: Diperluas menjadi 200K (awalnya 128K). Inferensi: Ditingkatkan, mendukung pemanggilan Tool. Pencarian: Tool dan kerangka kerja agen dioptimalkan. Penulisan: Lebih selaras dengan preferensi manusia, gaya penulisan, dan permainan peran. Multibahasa: Kualitas terjemahan meningkat.
Baru
Penggunaan komersial
Playground
Ikhtisar
Fitur
Harga
API

GLM-4.6 adalah rilis utama terbaru dalam keluarga GLM milik Z.ai (sebelumnya Zhipu AI): model MoE (Mixture-of-Experts) model generasi ke-4 berbahasa besar yang disetel untuk alur kerja berbasis agen, penalaran konteks panjang, dan pengodean dunia nyata. Rilis ini menekankan integrasi agen/alat yang praktis, jendela konteks yang sangat besar, serta ketersediaan bobot terbuka untuk penerapan lokal.

Fitur utama

  • Konteks panjang — jendela konteks native 200K token (diperluas dari 128K). (docs.z.ai)
  • Kemampuan pengodean & berbasis agen — peningkatan yang dipasarkan pada tugas pengodean dunia nyata dan pemanggilan alat yang lebih baik untuk agen.
  • Efisiensi — dilaporkan ~30% konsumsi token lebih rendah dibanding GLM-4.5 pada pengujian Z.ai.
  • Penerapan & kuantisasi — integrasi FP8 dan Int4 pertama kali diumumkan untuk chip Cambricon; dukungan FP8 native di Moore Threads melalui vLLM.
  • Ukuran model & jenis tensor — artefak yang dipublikasikan mengindikasikan model ~357B-parameter (tensor BF16 / F32) di Hugging Face.

Rincian teknis

Modalitas & format. GLM-4.6 adalah LLM khusus teks (modalitas masukan dan keluaran: teks). Panjang konteks = 200K token; keluaran maksimum = 128K token.

Kuantisasi & dukungan perangkat keras. Tim melaporkan kuantisasi FP8/Int4 pada chip Cambricon dan eksekusi FP8 native pada GPU Moore Threads menggunakan vLLM untuk inferensi — penting untuk menurunkan biaya inferensi dan memungkinkan penerapan di lokasi dan cloud domestik.

Perkakas & integrasi. GLM-4.6 didistribusikan melalui API Z.ai, jaringan penyedia pihak ketiga (mis., CometAPI), dan diintegrasikan ke agen pengodean (Claude Code, Cline, Roo Code, Kilo Code).

Rincian teknis

Modalitas & format. GLM-4.6 adalah LLM khusus teks (modalitas masukan dan keluaran: teks). Panjang konteks = 200K token; keluaran maksimum = 128K token.

Kuantisasi & dukungan perangkat keras. Tim melaporkan kuantisasi FP8/Int4 pada chip Cambricon dan eksekusi FP8 native pada GPU Moore Threads menggunakan vLLM untuk inferensi — penting untuk menurunkan biaya inferensi dan memungkinkan penerapan di lokasi dan cloud domestik.

Perkakas & integrasi. GLM-4.6 didistribusikan melalui API Z.ai, jaringan penyedia pihak ketiga (mis., CometAPI), dan diintegrasikan ke agen pengodean (Claude Code, Cline, Roo Code, Kilo Code).

Performa benchmark

  • Evaluasi yang dipublikasikan: GLM-4.6 diuji pada delapan benchmark publik yang mencakup agen, penalaran, dan pengodean dan menunjukkan kenaikan yang jelas dibanding GLM-4.5. Pada uji pengodean dunia nyata yang dievaluasi manusia (CC-Bench yang diperluas), GLM-4.6 menggunakan ~15% lebih sedikit token dibanding GLM-4.5 dan mencatat ~48.6% tingkat kemenangan versus Claude Sonnet 4 dari Anthropic (hampir setara di banyak leaderboard).
  • Pemosisian: hasil mengklaim GLM-4.6 kompetitif dengan model domestik dan internasional terdepan (contoh yang dikutip mencakup DeepSeek-V3.1 dan Claude Sonnet 4).

gambar

Keterbatasan & risiko

  • Halusinasi & kesalahan: seperti semua LLM saat ini, GLM-4.6 dapat dan memang membuat kesalahan faktual — dokumen Z.ai secara eksplisit memperingatkan keluaran dapat berisi kesalahan. Pengguna sebaiknya menerapkan verifikasi & retrieval/RAG untuk konten kritis.
  • Kompleksitas model & biaya penyajian: konteks 200K dan keluaran yang sangat besar secara drastis meningkatkan kebutuhan memori & latensi dan dapat menaikkan biaya inferensi; rekayasa kuantisasi/inferensi diperlukan untuk berjalan dalam skala besar.
  • Kesenjangan domain: meskipun GLM-4.6 melaporkan performa agen/pengodean yang kuat, beberapa laporan publik mencatat model ini masih tertinggal dari versi tertentu model pesaing pada mikrobenchmark spesifik (mis., beberapa metrik pengodean vs Sonnet 4.5). Nilai per tugas sebelum mengganti model produksi.
  • Keamanan & kebijakan: bobot terbuka meningkatkan aksesibilitas namun juga menimbulkan pertanyaan tata kelola (mitigasi, guardrails, dan red-teaming tetap menjadi tanggung jawab pengguna).

Kasus penggunaan

  • Sistem berbasis agen & orkestrasi alat: jejak agen panjang, perencanaan multi-alat, pemanggilan alat dinamis; penyesuaian berbasis agen model adalah nilai jual utama.
  • Asisten pengodean dunia nyata: pembuatan kode multi-putaran, tinjauan kode, dan asisten IDE interaktif (terintegrasi di Claude Code, Cline, Roo Code—sesuai Z.ai). Peningkatan efisiensi token membuatnya menarik untuk paket pengembang dengan penggunaan berat.
  • Alur kerja dokumen panjang: peringkasan, sintesis multi-dokumen, tinjauan hukum/teknis yang panjang berkat jendela 200K.
  • Pembuatan konten & karakter virtual: dialog berkepanjangan, pemeliharaan persona yang konsisten dalam skenario multi-putaran.

Bagaimana GLM-4.6 dibandingkan dengan model lain

  • GLM-4.5 → GLM-4.6: perubahan langkah dalam ukuran konteks (128K → 200K) dan efisiensi token (~15% lebih sedikit token pada CC-Bench); penggunaan agen/alat yang ditingkatkan.
  • GLM-4.6 vs Claude Sonnet 4 / Sonnet 4.5: Z.ai melaporkan hampir setara pada beberapa leaderboard dan tingkat kemenangan sekitar ~48.6% pada tugas pengodean dunia nyata CC-Bench (kompetisi ketat, dengan beberapa mikrobenchmark di mana Sonnet masih memimpin). Bagi banyak tim rekayasa, GLM-4.6 diposisikan sebagai alternatif hemat biaya.
  • GLM-4.6 vs model konteks panjang lainnya (DeepSeek, varian Gemini, keluarga GPT-4): GLM-4.6 menekankan konteks besar & alur kerja pengodean berbasis agen; kekuatan relatif bergantung pada metrik (efisiensi token/integrasi agen vs akurasi sintesis kode mentah atau pipeline keamanan). Pemilihan empiris sebaiknya didorong oleh tugas.

Model andalan terbaru Zhipu AI GLM-4.6 dirilis: 355B total parameter, 32B aktif. Melampaui GLM-4.5 di semua kapabilitas inti.

  • Pemrograman: Sejajar dengan Claude Sonnet 4, terbaik di China.
  • Konteks: Diperluas menjadi 200K (dari 128K).
  • Penalaran: Meningkat, mendukung pemanggilan alat selama inferensi.
  • Pencarian: Peningkatan pemanggilan alat dan performa agen.
  • Penulisan: Lebih selaras dengan preferensi manusia dalam gaya, keterbacaan, dan role-playing.
  • Multibahasa: Peningkatan penerjemahan lintas bahasa.

FAQ

What are the context window and output limits for GLM-4-6?

GLM-4-6 supports a 200,000 token context window (extended from 128K in GLM-4.5) with up to 128,000 output tokens, enabling extensive document analysis and long-form generation.

How does GLM-4-6 compare to Claude Sonnet 4 in coding?

According to Zhipu, GLM-4-6's coding capabilities align with Claude Sonnet 4, making it the best coding model among Chinese domestic models.

Does GLM-4-6 support tool calling and agent workflows?

Yes, GLM-4-6 features improved inference capabilities with enhanced Tool calls support and an optimized agent framework for complex multi-step task automation.

What is the architecture of GLM-4-6?

GLM-4-6 is a Mixture-of-Experts model with 355B total parameters and 32B active parameters, balancing capability with efficiency.

What makes GLM-4-6 different from GLM-4.5?

GLM-4-6 offers extended context (200K vs 128K), improved reasoning and tool calling, enhanced writing aligned with human preferences, better multilingual translation, and optimized role-playing.

Is GLM-4-6 suitable for enterprise Chinese language applications?

Yes, GLM-4-6 is particularly strong for Chinese language tasks including translation, content writing, and conversational AI, with enhanced multilingual capabilities.

When should I choose GLM-4-6 over GPT-5.2 or Claude?

Choose GLM-4-6 for Chinese-first applications, cost-effective 200K context needs, or when you need a strong domestic AI alternative with coding capabilities comparable to frontier models.

Fitur untuk GLM 4.6

Jelajahi fitur-fitur utama dari GLM 4.6, yang dirancang untuk meningkatkan performa dan kegunaan. Temukan bagaimana kemampuan-kemampuan ini dapat menguntungkan proyek Anda dan meningkatkan pengalaman pengguna.

Harga untuk GLM 4.6

Jelajahi harga kompetitif untuk GLM 4.6, dirancang untuk berbagai anggaran dan kebutuhan penggunaan. Paket fleksibel kami memastikan Anda hanya membayar untuk apa yang Anda gunakan, memudahkan untuk meningkatkan skala seiring berkembangnya kebutuhan Anda. Temukan bagaimana GLM 4.6 dapat meningkatkan proyek Anda sambil menjaga biaya tetap terkendali.
Harga Comet (USD / M Tokens)Harga Resmi (USD / M Tokens)Diskon
Masukan:$0.96/M
Keluaran:$3.84/M
Masukan:$1.2/M
Keluaran:$4.8/M
-20%

Kode contoh dan API untuk GLM 4.6

GLM-4.6 adalah rilis utama terbaru dalam keluarga GLM milik Z.ai (sebelumnya Zhipu AI): model bahasa besar MoE (Mixture-of-Experts) generasi ke-4 yang dioptimalkan untuk alur kerja berbasis agen, penalaran dengan konteks panjang, dan pengodean di dunia nyata. Rilis ini menekankan integrasi agen/alat yang praktis, jendela konteks yang sangat besar, serta ketersediaan bobot terbuka untuk penyebaran lokal.
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await openai.chat.completions.create({
  model: "glm-4.6",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" },
  ],
});

console.log(completion.choices[0].message.content);

Curl Code Example

curl https://api.cometapi.com/v1/chat/completions \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "glm-4.6",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
}'

Model Lainnya

A

Claude Opus 4.6

Masukan:$4/M
Keluaran:$20/M
Claude Opus 4.6 adalah model bahasa besar kelas “Opus” dari Anthropic, dirilis pada Februari 2026. Model ini diposisikan sebagai andalan untuk pekerjaan berbasis pengetahuan dan alur kerja riset — meningkatkan penalaran dalam konteks panjang, perencanaan multi-langkah, penggunaan alat (termasuk alur kerja perangkat lunak berbasis agen), serta tugas penggunaan komputer seperti pembuatan slide dan spreadsheet secara otomatis.
A

Claude Sonnet 4.6

Masukan:$2.4/M
Keluaran:$12/M
Claude Sonnet 4.6 adalah model Sonnet kami yang paling mumpuni sejauh ini. Ini merupakan peningkatan menyeluruh atas keahlian model di bidang pemrograman, penggunaan komputer, penalaran konteks panjang, perencanaan agen, pekerjaan berbasis pengetahuan, dan desain. Sonnet 4.6 juga menyertakan jendela konteks 1M token dalam tahap beta.
O

GPT-5.4 nano

Masukan:$0.16/M
Keluaran:$1/M
GPT-5.4 nano dirancang untuk tugas-tugas di mana kecepatan dan biaya paling penting, seperti klasifikasi, ekstraksi data, pemeringkatan, dan sub-agen.
O

GPT-5.4 mini

Masukan:$0.6/M
Keluaran:$3.6/M
GPT-5.4 mini menghadirkan keunggulan GPT-5.4 ke model yang lebih cepat dan lebih efisien, dirancang untuk beban kerja bervolume tinggi.
A

Claude Mythos Preview

A

Claude Mythos Preview

Segera hadir
Masukan:$60/M
Keluaran:$240/M
Claude Mythos Preview adalah model frontier kami yang paling mumpuni hingga saat ini, dan menunjukkan lompatan skor yang mencolok pada banyak tolok ukur evaluasi dibandingkan dengan model frontier kami sebelumnya, Claude Opus 4.6.
X

mimo-v2-pro

Masukan:$0.8/M
Keluaran:$2.4/M
MiMo-V2-Pro adalah model fondasi unggulan Xiaomi, dengan total lebih dari 1T parameter dan panjang konteks 1M, yang dioptimalkan secara mendalam untuk skenario agentic. Model ini sangat mudah beradaptasi dengan kerangka agent umum seperti OpenClaw. Model ini berada di jajaran teratas global dalam tolok ukur standar PinchBench dan ClawBench, dengan performa yang dirasakan mendekati Opus 4.6. MiMo-V2-Pro dirancang untuk berfungsi sebagai otak sistem agent, mengorkestrasi alur kerja yang kompleks, mendorong tugas rekayasa produksi, dan memberikan hasil secara andal.

Blog Terkait

GLM-4.7 Dirilis: Apa Artinya Ini bagi Kecerdasan AI?
Dec 23, 2025
glm-4-7

GLM-4.7 Dirilis: Apa Artinya Ini bagi Kecerdasan AI?

Pada 22 Desember 2025, Zhipu AI (Z.ai) secara resmi merilis GLM-4.7, iterasi terbaru dalam keluarga General Language Model (GLM) — menarik perhatian global di dunia model AI sumber terbuka. Model ini tidak hanya meningkatkan kemampuan dalam tugas pemrograman dan penalaran, tetapi juga menantang dominasi model berpemilik seperti GPT-5.2 dan Claude Sonnet 4.5 dalam tolok ukur kunci.