Spesifikasi teknis GLM-5
| Item | GLM-5 (dilaporkan) |
|---|---|
| Model family | GLM (Z.ai / Zhipu AI) — generasi andalan |
| Architecture | Mixture-of-Experts (MoE) + atensi jarang (optimisasi DeepSeek/DSA). |
| Total parameters | ≈744–745B (kumpulan MoE). |
| Active / routed params (per token) | ~40–44B aktif (tergantung pada perutean/pakar). |
| Pre-training tokens | ~28.5T token (dilaporkan). |
| Context window (input) | Hingga 200,000 token (mode konteks panjang). |
| Max output tokens | 128,000 token (maksimal generasi per panggilan, dilaporkan). |
| Input modalities | Hanya teks (utama); dioptimalkan untuk teks kaya → keluaran (pembuatan doc/xlsx melalui alat). |
Apa itu GLM-5
GLM-5 adalah model fondasi generasi berikutnya dari Zhipu AI yang menskalakan lini GLM dengan desain perutean MoE dan optimisasi atensi jarang untuk menghadirkan penalaran konteks panjang dan aliran kerja berbasis agen (perencanaan multi-langkah, orkestrasi kode & sistem). Model ini secara eksplisit diposisikan sebagai penantang bobot terbuka untuk tugas-tugas berbasis agen dan rekayasa, dengan akses tingkat perusahaan melalui API dan self-hosting.
🚀 Fitur Utama GLM-5
1. Kecerdasan Berbasis Agen & Penalaran
GLM-5 dioptimalkan untuk alur kerja di mana model menguraikan tugas panjang dan kompleks menjadi langkah-langkah terurut dengan halusinasi yang berkurang — sebuah peningkatan besar dibanding versi GLM sebelumnya. Model ini memimpin beberapa tolok ukur model bobot terbuka dalam hal reliabilitas pengetahuan dan produktivitas tugas.
2. Dukungan Konteks Panjang
Dengan jendela konteks 200K token, GLM-5 dapat mempertahankan percakapan yang sangat panjang, dokumen besar, dan rantai penalaran yang diperluas tanpa kehilangan koherensi — kemampuan yang semakin krusial untuk aplikasi profesional di dunia nyata.
3. DeepSeek Sparse Attention
Dengan mengintegrasikan mekanisme atensi jarang, GLM-5 menskalakan jejak memori secara efisien, memungkinkan urutan lebih panjang tanpa peningkatan biaya yang linear.
4. Integrasi Alat & Format Keluaran
Dukungan bawaan untuk keluaran terstruktur dan integrasi alat eksternal (JSON, panggilan API, penggunaan alat dinamis) menjadikan GLM-5 praktis untuk aplikasi perusahaan seperti spreadsheet, laporan, dan asisten pengodean otomatis.
5. Efisiensi Biaya
GLM-5 diposisikan sebagai kompetitif dari sisi biaya dibandingkan mitra proprietari, dengan harga input/output yang secara signifikan lebih rendah daripada penawaran utama, membuatnya menarik untuk penerapan skala besar.
Kinerja Benchmark GLM-5
Berbagai evaluasi independen dan tolok ukur industri awal menunjukkan GLM-5 berkinerja kuat di antara model bobot terbuka:
- Model ini mencapai tingkat halusinasi terendah yang tercatat pada Artificial Analysis Intelligence Index — ukuran reliabilitas dan kebenaran — melampaui model-model sebelumnya dengan selisih besar.
- Tolok ukur berpusat pada agen menunjukkan peningkatan substansial dalam eksekusi tugas kompleks dibandingkan GLM-4.7 dan model terbuka lainnya.
- Metrik biaya-terhadap-kinerja menempatkan GLM-5 pada kuartil ke-4 untuk kecepatan namun kelas teratas (terbaik) pada kecerdasan dan harga di antara model bobot terbuka.
Skor Kuantitatif (Contoh dari platform pemeringkatan):
- Indeks Kecerdasan: #1 di antara model bobot terbuka.
- Efisiensi Harga: Peringkat tinggi untuk biaya input/output yang rendah.
Cara mengakses dan menggunakan API GLM-5
Langkah 1: Daftar untuk Kunci API
Masuk ke cometapi.com. Jika Anda belum menjadi pengguna kami, harap daftar terlebih dahulu. Masuk ke CometAPI console. Dapatkan kunci API kredensial akses untuk antarmuka. Klik “Add Token” pada API token di pusat pribadi, dapatkan kunci token: sk-xxxxx lalu kirim.
Langkah 2: Kirim Permintaan ke API glm-5
Pilih endpoint “glm-5” untuk mengirim permintaan API dan atur badan permintaan. Metode permintaan dan badan permintaan diperoleh dari dokumen API di situs kami. Situs kami juga menyediakan pengujian Apifox untuk kenyamanan Anda. Ganti <YOUR_API_KEY> dengan kunci CometAPI Anda yang sebenarnya dari akun Anda. Di mana memanggilnya: Chat format.
Masukkan pertanyaan atau permintaan Anda ke dalam kolom konten—itulah yang akan direspons oleh model . Proses respons API untuk mendapatkan jawaban yang dihasilkan.
Langkah 3: Ambil dan Verifikasi Hasil
Proses respons API untuk mendapatkan jawaban yang dihasilkan. Setelah diproses, API merespons dengan status tugas dan data keluaran.