Home/Models/Zhipu AI/GLM 5
Z

GLM 5

Masukan:$0.672/M
Keluaran:$2.688/M
GLM-5 adalah model fondasi sumber terbuka andalan dari Z.ai yang direkayasa untuk perancangan sistem kompleks dan alur kerja agen jangka panjang. Dibangun untuk pengembang ahli, model ini menghadirkan kinerja tingkat produksi pada tugas pemrograman berskala besar, menyaingi model sumber tertutup terdepan. Dengan perencanaan agen tingkat lanjut, penalaran backend yang mendalam, dan koreksi diri iteratif, GLM-5 melampaui generasi kode menuju konstruksi sistem menyeluruh dan eksekusi otonom.
Baru
Penggunaan komersial
Playground
Ikhtisar
Fitur
Harga
API

Spesifikasi teknis GLM-5

ItemGLM-5 (dilaporkan)
Keluarga modelGLM (Z.ai / Zhipu AI) — generasi unggulan
ArsitekturMixture-of-Experts (MoE) + sparse attention (optimisasi DeepSeek/DSA).
Total parameter≈744–745B (pool MoE).
Parameter aktif / terarahkan (per token)~40–44B aktif (bergantung pada perutean/pakar).
Token prapelatihan~28.5T token (dilaporkan).
Jendela konteks (input)Hingga 200,000 token (mode konteks panjang).
Token keluaran maksimum128,000 token (generasi maksimum per panggilan yang dilaporkan).
Modalitas inputHanya teks (utama); direkayasa untuk rich text → keluaran (pembuatan doc/xlsx melalui alat).

Apa itu GLM-5

GLM-5 adalah model fondasi generasi berikutnya dari Zhipu AI yang meningkatkan skala lini GLM dengan desain perutean MoE dan optimisasi sparse attention untuk menghadirkan penalaran konteks panjang dan alur kerja agentic (perencanaan multi-langkah, orkestrasi kode & sistem). Model ini secara eksplisit diposisikan sebagai pesaing open-weights untuk tugas-tugas agentic dan rekayasa, dengan aksesibilitas tingkat enterprise melalui API dan self-hosting.

🚀 Fitur Utama GLM-5

1. Kecerdasan & Penalaran Agentic

GLM-5 dioptimalkan untuk alur kerja di mana model menguraikan tugas yang panjang dan kompleks menjadi langkah-langkah berurutan dengan halusinasi yang berkurang — peningkatan besar dibandingkan versi GLM sebelumnya. Model ini memimpin sejumlah tolok ukur model open-weight dalam keandalan pengetahuan dan produktivitas tugas.

2. Dukungan Konteks Panjang

Dengan jendela konteks 200K token, GLM-5 dapat mempertahankan percakapan yang sangat panjang, dokumen besar, dan rantai penalaran yang diperluas tanpa kehilangan koherensi — kemampuan yang semakin krusial untuk aplikasi profesional dunia nyata.

3. DeepSeek Sparse Attention

Dengan mengintegrasikan mekanisme sparse attention, GLM-5 secara efisien menskalakan jejak memorinya, memungkinkan urutan yang lebih panjang tanpa peningkatan biaya linear.

4. Integrasi Alat & Format Keluaran

Dukungan native untuk keluaran terstruktur dan integrasi alat eksternal (JSON, panggilan API, penggunaan alat dinamis) membuat GLM-5 praktis untuk aplikasi enterprise seperti spreadsheet, laporan, dan asisten pengodean otomatis.

5. Efisiensi Biaya

GLM-5 diposisikan sebagai kompetitif dari sisi biaya dibandingkan rekan proprietari, dengan harga input/output yang secara substansial lebih rendah daripada penawaran utama, sehingga menarik untuk penerapan skala besar.

Kinerja Benchmark GLM-5

Berbagai evaluasi independen dan benchmark industri awal menunjukkan GLM-5 berkinerja kuat di antara model open-weight:

  • Model ini mencapai tingkat halusinasi terendah yang pernah dicatat pada Artificial Analysis Intelligence Index — ukuran keandalan dan kebenaran — melampaui model sebelumnya dengan margin yang lebar.
  • Benchmark berpusat pada agen menunjukkan peningkatan substansial dalam eksekusi tugas kompleks dibandingkan GLM-4.7 dan model open lainnya.
  • Metrik biaya-terhadap-kinerja menempatkan GLM-5 pada kuartil ke-4 untuk kecepatan namun tingkat teratas (terbaik) pada kecerdasan dan harga di antara model open-weight.

Skor Kuantitatif (Contoh dari platform pemeringkatan):

  • Indeks Kecerdasan: #1 di antara model open-weight.
  • Efisiensi Harga: Peringkat tinggi untuk biaya input/output rendah.

Cara mengakses dan menggunakan API GLM-5

Langkah 1: Daftar untuk Kunci API

Masuk ke cometapi.com. Jika Anda belum menjadi pengguna kami, silakan daftar terlebih dahulu. Masuk ke konsol CometAPI. Dapatkan kunci API kredensial akses untuk antarmuka tersebut. Klik “Add Token” pada token API di pusat pribadi, dapatkan kunci token: sk-xxxxx dan kirimkan.

Langkah 2: Kirim Permintaan ke API glm-5

Pilih endpoint “glm-5” untuk mengirim permintaan API dan setel badan permintaan. Metode permintaan dan badan permintaan diperoleh dari dokumen API situs web kami. Situs kami juga menyediakan pengujian Apifox untuk kenyamanan Anda. Ganti <YOUR_API_KEY> dengan kunci CometAPI aktual dari akun Anda. Tempat memanggilnya: format Chat.

Masukkan pertanyaan atau permintaan Anda ke dalam field content—itulah yang akan direspons oleh model. Proses respons API untuk mendapatkan jawaban yang dihasilkan.

Langkah 3: Ambil dan Verifikasi Hasil

Proses respons API untuk mendapatkan jawaban yang dihasilkan. Setelah pemrosesan, API merespons dengan status tugas dan data keluaran.

FAQ

What distinguishes GLM-5’s architecture from earlier GLM models?

GLM-5 uses a Mixture of Experts (MoE) architecture with ~745B total parameters and 8 active experts per token (~44B active), enabling efficient large-scale reasoning and agentic workflows compared to previous GLM series.

How long of a context window does GLM-5 support via its API?

GLM-5 supports a 200K token context window with up to 128K output tokens, making it suitable for extended reasoning and document tasks.

Can GLM-5 handle complex agentic and engineering tasks?

Yes — GLM-5 is explicitly optimized for long-horizon agent tasks and complex systems engineering workflows, with deep reasoning and planning capabilities beyond standard chat models.

Does GLM-5 support tool calling and structured output?

Yes — GLM-5 supports function calling, structured JSON outputs, context caching, and real-time streaming to integrate with external tools and systems.

How does GLM-5 compare to proprietary models like GPT and Claude?

GLM-5 is competitive with top proprietary models in benchmarks, performing close to Claude Opus 4.5 and offering significantly lower per-token costs and open-weight availability, though closed-source models may still lead in some fine-grained benchmarks.

Is GLM-5 open source and what license does it use?

Yes — GLM-5 is released under a permissive MIT license, enabling open-weight access and community development.

What are typical use cases where GLM-5 excels?

GLM-5 is well suited for long-sequence reasoning, agentic automation, coding assistance, creative writing at scale, and backend system design tasks that demand coherent multi-step outputs.

What are known limitations of GLM-5?

While powerful, GLM-5 is primarily text-only (no native multimodal support) and may be slower or more resource-intensive than smaller models, especially for shorter tasks.

Fitur untuk GLM 5

Jelajahi fitur-fitur utama dari GLM 5, yang dirancang untuk meningkatkan performa dan kegunaan. Temukan bagaimana kemampuan-kemampuan ini dapat menguntungkan proyek Anda dan meningkatkan pengalaman pengguna.

Harga untuk GLM 5

Jelajahi harga kompetitif untuk GLM 5, dirancang untuk berbagai anggaran dan kebutuhan penggunaan. Paket fleksibel kami memastikan Anda hanya membayar untuk apa yang Anda gunakan, memudahkan untuk meningkatkan skala seiring berkembangnya kebutuhan Anda. Temukan bagaimana GLM 5 dapat meningkatkan proyek Anda sambil menjaga biaya tetap terkendali.
Harga Comet (USD / M Tokens)Harga Resmi (USD / M Tokens)ModelDetail.discount
Masukan:$0.672/M
Keluaran:$2.688/M
Masukan:$0.84/M
Keluaran:$3.36/M
-20%

Kode contoh dan API untuk GLM 5

Akses kode sampel komprehensif dan sumber daya API untuk GLM 5 guna mempermudah proses integrasi Anda. Dokumentasi terperinci kami menyediakan panduan langkah demi langkah, membantu Anda memanfaatkan potensi penuh GLM 5 dalam proyek Anda.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
    model="glm-5",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

Model Lainnya