Spesifikasi teknikal GLM-5
| Perkara | GLM-5 (dilaporkan) |
|---|---|
| Keluarga model | GLM (Z.ai / Zhipu AI) — generasi perdana |
| Seni bina | Mixture-of-Experts (MoE) + perhatian jarang (pengoptimuman DeepSeek/DSA). |
| Jumlah parameter | ≈744–745B (kumpulan MoE). |
| Parameter aktif/dirutekan (setiap token) | ~40–44B aktif (bergantung pada perutean/pakar). |
| Token pra-latihan | ~28.5T token (dilaporkan). |
| Tetingkap konteks (input) | Sehingga 200,000 token (mod konteks panjang). |
| Token output maksimum | 128,000 token (penjanaan maksimum per panggilan yang dilaporkan). |
| Modaliti input | Teks sahaja (utama); direkayasa untuk teks kaya → keluaran (penjanaan doc/xlsx melalui alat). |
Apakah GLM-5
GLM-5 ialah model asas generasi seterusnya daripada Zhipu AI yang menskalakan siri GLM dengan reka bentuk perutean MoE dan pengoptimuman perhatian jarang untuk menyampaikan penaakulan konteks panjang dan alur kerja agenik (perancangan berbilang langkah, orkestrasi kod & sistem). Ia dengan jelas diposisikan sebagai pesaing open-weights untuk tugas agenik dan kejuruteraan, dengan kebolehcapaian perusahaan melalui API dan hos kendiri.
🚀 Ciri Utama GLM-5
1. Kecerdasan Agenik & Penaakulan
GLM-5 dioptimumkan untuk alur kerja di mana model menguraikan tugas panjang dan kompleks kepada langkah bertertib dengan halusinasi yang dikurangkan — satu penambahbaikan besar berbanding versi GLM terdahulu. Ia mendahului open weights model benchmarks tertentu dalam kebolehpercayaan pengetahuan dan produktiviti tugas.
2. Sokongan Konteks Panjang
Dengan tetingkap konteks 200K token, GLM-5 boleh mengekalkan perbualan yang sangat panjang, dokumen besar, dan rantaian penaakulan lanjutan tanpa kehilangan koherensi — keupayaan yang semakin kritikal untuk aplikasi profesional dunia sebenar.
3. Perhatian Jarang DeepSeek
Dengan mengintegrasikan mekanisme perhatian jarang, GLM-5 menskala jejak memori dengan cekap, membolehkan jujukan lebih panjang tanpa peningkatan kos secara linear.
4. Integrasi Alat & Format Keluaran
Sokongan asli untuk keluaran berstruktur dan integrasi alat luaran (JSON, panggilan API, penggunaan alat dinamik) menjadikan GLM-5 praktikal untuk aplikasi perusahaan seperti lembaran hampar, laporan, dan pembantu pengkodan automatik.
5. Kecekapan Kos
GLM-5 diposisikan sebagai berdaya saing kos berbanding setara proprietari, dengan harga input/output yang jauh lebih rendah daripada penawaran utama, menjadikannya menarik untuk penggunaan berskala besar.
Prestasi Penanda Aras GLM-5
Pelbagai penilaian bebas dan penanda aras industri awal menunjukkan GLM-5 berprestasi kukuh dalam kalangan model open-weight:
- Ia mencapai kadar halusinasi serendah rekod pada Artificial Analysis Intelligence Index — ukuran kebolehpercayaan dan ketepatan — mengatasi model terdahulu dengan jurang yang besar.
- Penanda aras berpusatkan agen menunjukkan peningkatan ketara dalam pelaksanaan tugas kompleks berbanding GLM-4.7 dan model terbuka lain.
- Metrik kos-kepada-prestasi memposisikan GLM-5 dalam kuartil ke-4 untuk kelajuan tetapi peringkat teratas (terbaik) bagi kecerdasan dan harga dalam kalangan model open-weight.
Skor Kuantitatif (Contoh daripada platform pemeringkatan):
- Indeks Kecerdasan: #1 dalam kalangan model open weights.
- Kecekapan Harga: Penarafan tinggi untuk kos input/output yang rendah.
Cara mengakses dan menggunakan API GLM-5
Langkah 1: Daftar untuk Kunci API
Log masuk ke cometapi.com. Jika anda belum menjadi pengguna kami, sila daftar terlebih dahulu. Log masuk ke konsol CometAPI. Dapatkan kunci API kelayakan akses antara muka. Klik “Add Token” pada token API di pusat peribadi, dapatkan kunci token: sk-xxxxx dan hantar.
Langkah 2: Hantar Permintaan kepada glm-5 API
Pilih titik akhir “glm-5” untuk menghantar permintaan API dan tetapkan badan permintaan. Kaedah permintaan dan badan permintaan diperoleh daripada dokumen API laman web kami. Laman web kami juga menyediakan ujian Apifox untuk kemudahan anda. Gantikan <YOUR_API_KEY> dengan kunci CometAPI sebenar daripada akaun anda. Tempat untuk memanggilnya: format Chat.
Masukkan soalan atau permintaan anda ke dalam medan content—inilah yang akan dibalas oleh model. Proses respons API untuk mendapatkan jawapan yang dijana.
Langkah 3: Dapatkan dan Sahkan Keputusan
Proses respons API untuk mendapatkan jawapan yang dijana. Selepas pemprosesan, API membalas dengan status tugas dan data output.