Apa itu GLM-4.7
GLM-4.7 adalah model bahasa besar open-foundation andalan terbaru dari Z.ai / Zhipu AI (nama model glm-4.7). Model ini diposisikan sebagai model “thinking” yang berorientasi pada pengembang dengan peningkatan khusus pada coding/eksekusi tugas agentic, penalaran multi-langkah, pemanggilan tool, dan alur kerja konteks panjang. Rilis ini menekankan kemampuan menangani konteks besar (hingga 200K konteks), output maksimum tinggi (hingga 128K token), dan mode “thinking” khusus untuk pipeline agentic.
Fitur utama
- Peningkatan agentic / penggunaan tool: Mode thinking bawaan (“Interleaved Thinking”, “Preserved Thinking”, kontrol tingkat giliran) memungkinkan model untuk “berpikir sebelum bertindak”, mempertahankan penalaran antar giliran, dan lebih stabil saat memanggil tool atau mengeksekusi tugas multi-langkah. Ini ditujukan untuk alur kerja agent yang tangguh (terminal, rantai tool, penelusuran web).
- Kemampuan coding & terminal: Peningkatan signifikan pada benchmark coding dan tugas otomasi terminal — benchmark vendor menunjukkan peningkatan yang jelas dibanding GLM-4.6 pada metrik SWE-bench dan Terminal Bench. Ini berarti generasi kode multi-giliran, pengurutan perintah, dan pemulihan yang lebih baik di lingkungan agent.
- “Vibe coding” / kualitas output frontend: Kualitas UI/tata letak default yang lebih baik untuk HTML, slide, dan presentasi yang dihasilkan (tata letak lebih rapi, ukuran lebih baik, default visual lebih bagus).
- Alur kerja konteks panjang: Jendela konteks 200K token dan tool untuk caching konteks; praktis untuk codebase multi-file, dokumen panjang, dan sesi agent multi-putaran.
Performa benchmark
Penerbit/pemelihara GLM-4.7 dan tabel benchmark komunitas melaporkan peningkatan besar dibanding GLM-4.6 serta hasil yang kompetitif terhadap model kontemporer lainnya pada tugas coding, agentic, dan penggunaan tool. Beberapa angka terpilih (sumber: tabel resmi yang dipublikasikan di Hugging Face / Z.AI):
- LiveCodeBench-v6 (benchmark agent coding): 84.9 (diklaim sebagai open-source SOTA).
- SWE-bench Verified (coding): 73.8% (naik dari 68.0% pada GLM-4.6).
- SWE-bench Multilingual: 66.7% (+12.9% dibanding GLM-4.6).
- Terminal Bench 2.0 (aksi terminal agentic): 41.0% (peningkatan signifikan +16.5% dibanding 4.6).
- HLE (penalaran kompleks dengan tool): 42.8% saat digunakan dengan tool (dilaporkan meningkat besar dibanding versi sebelumnya).
- τ²-Bench (pemanggilan tool interaktif): 87.4 (dilaporkan sebagai open-source SOTA).
Kasus penggunaan umum & contoh skenario
- Asisten coding agentic: Pembuatan kode otonom atau semi-otonom, perbaikan kode multi-giliran, otomasi terminal, dan scripting CI/CD.
- Agent berbasis tool: Penelusuran web, orkestrasi API, alur kerja multi-langkah (didukung oleh preserved thinking & function calling).
- Pembuatan front-end dan UI: Pembuatan kerangka website otomatis, deck slide, poster dengan estetika dan tata letak yang lebih baik.
- Riset & tugas konteks panjang: Ringkasan dokumen, sintesis literatur, dan retrieval-augmented generation pada dokumen panjang (jendela 200k token sangat membantu di sini).
- Agent edukasi interaktif / tutor coding: Bimbingan multi-giliran dengan penalaran yang dipertahankan, yang mengingat blok penalaran sebelumnya sepanjang sesi.
Cara mengakses dan menggunakan API GLM 4.7
Langkah 1: Daftar untuk Mendapatkan API Key
Masuk ke cometapi.com. Jika Anda belum menjadi pengguna kami, silakan daftar terlebih dahulu. Masuk ke konsol CometAPI Anda. Dapatkan kredensial akses berupa API key untuk antarmuka tersebut. Klik “Add Token” pada bagian API token di pusat personal, dapatkan token key: sk-xxxxx lalu kirimkan.
Langkah 2: Kirim Request ke API MiniMax M2.1
Pilih endpoint “glm-4.7” untuk mengirim request API dan atur body request. Metode request dan body request dapat diperoleh dari dokumentasi API di website kami. Website kami juga menyediakan pengujian Apifox untuk kenyamanan Anda. Ganti <YOUR_API_KEY> dengan CometAPI key aktual dari akun Anda. Tempat memanggilnya: API bergaya Chat.
Masukkan pertanyaan atau permintaan Anda ke dalam field content—itulah yang akan dijawab oleh model. Proses respons API untuk mendapatkan jawaban yang dihasilkan.
Langkah 3: Ambil dan Verifikasi Hasil
Proses respons API untuk mendapatkan jawaban yang dihasilkan. Setelah diproses, API merespons dengan status tugas dan


