Apa itu GLM-4.7
GLM-4.7 adalah model bahasa besar open‑foundation andalan terbaru dari Z.ai / Zhipu AI (nama model glm-4.7). Diposisikan sebagai model “berpikir” yang berorientasi pengembang dengan peningkatan khusus pada eksekusi tugas pengodean/berbasis agen, penalaran multi-langkah, pemanggilan tool, dan alur kerja konteks panjang. Rilis ini menekankan penanganan konteks besar (hingga 200K konteks), output maksimum tinggi (hingga 128K token), dan mode “berpikir” khusus untuk pipeline berbasis agen.
Fitur utama
- Peningkatan berbasis agen / penggunaan tool: Mode berpikir bawaan (“Interleaved Thinking”, “Preserved Thinking”, kontrol per-giliran) untuk membuat model “berpikir sebelum bertindak”, mempertahankan penalaran lintas giliran, dan lebih stabil saat memanggil tool atau mengeksekusi tugas multi-langkah. Ini ditujukan untuk alur kerja agen yang andal (terminal, rantai tool, penjelajahan web).
- Kompetensi pengodean & terminal: Peningkatan signifikan pada tolok ukur pengodean dan tugas otomatisasi terminal — tolok ukur vendor menunjukkan kenaikan jelas vs GLM-4.6 pada metrik SWE-bench dan Terminal Bench. Ini diterjemahkan menjadi generasi kode multi-giliran yang lebih baik, penyusunan urutan perintah dan pemulihan di lingkungan agen.
- “Vibe coding” / kualitas output frontend: Kualitas UI/tata letak bawaan untuk HTML, slide, dan presentasi yang dihasilkan lebih baik (tata letak lebih bersih, pengaturan ukuran, default visual lebih baik).
- Alur kerja konteks panjang: Jendela konteks 200K token dan alat untuk cache konteks; praktis untuk basis kode multi-berkas, dokumen panjang, dan sesi agen multi-putaran.
Performa tolok ukur
Penerbit/pemelihara GLM-4.7 dan tabel tolok ukur komunitas melaporkan peningkatan besar vs GLM-4.6 dan hasil yang kompetitif dibanding model terkini lainnya pada tugas pengodean, berbasis agen, dan penggunaan tool. Angka terpilih (sumber: tabel yang diterbitkan resmi oleh Hugging Face / Z.AI):
- LiveCodeBench-v6 (tolok ukur agen pengodean): 84.9 (SOTA open-source dirujuk).
- SWE-bench Verified (pengodean): 73.8% (naik dari 68.0% di GLM-4.6).
- SWE-bench Multilingual: 66.7% (+12.9% vs GLM-4.6).
- Terminal Bench 2.0 (aksi terminal berbasis agen): 41.0% (peningkatan signifikan +16.5% dibanding 4.6).
- HLE (penalaran kompleks dengan tool): 42.8% saat digunakan dengan tool (peningkatan besar dilaporkan dibanding versi sebelumnya).
- τ²-Bench (pemanggilan tool interaktif): 87.4 (SOTA open-source dilaporkan).
Kasus penggunaan umum & skenario contoh
- Asisten pengodean berbasis agen: Generasi kode otonom atau semi-otonom, perbaikan kode multi-giliran, otomatisasi terminal dan skrip CI/CD.
- Agen yang didorong tool: Penjelajahan web, orkestrasi API, alur kerja multi-langkah (didukung oleh preserved thinking & pemanggilan fungsi).
- Pembuatan front-end dan UI: Pembuatan kerangka situs web otomatis, deck slide, poster dengan estetika dan tata letak yang lebih baik.
- Riset & tugas berkonteks panjang: Perangkuman dokumen, sintesis literatur, dan generasi yang ditingkatkan oleh pengambilan pada dokumen panjang (jendela 200K token membantu di sini).
- Agen edukasi interaktif / tutor pengodean: Bimbingan multi-giliran dengan penalaran yang dipertahankan yang mengingat blok penalaran sebelumnya sepanjang sesi.
Cara mengakses dan menggunakan API GLM 4.7
Langkah 1: Daftar untuk Kunci API
Masuk ke cometapi.com. Jika Anda belum menjadi pengguna kami, silakan daftar terlebih dahulu. Masuk ke CometAPI console. Dapatkan kunci API kredensial akses untuk antarmuka. Klik “Add Token” pada token API di pusat pribadi, dapatkan kunci token: sk-xxxxx dan kirim.
Langkah 2: Kirim permintaan ke API MiniMax M2.1
Pilih endpoint “glm-4.7” untuk mengirim permintaan API dan atur badan permintaan. Metode permintaan dan badan permintaan diperoleh dari dokumen API situs web kami. Situs kami juga menyediakan pengujian Apifox untuk kemudahan Anda. Ganti <YOUR_API_KEY> dengan kunci CometAPI Anda yang sebenarnya dari akun Anda. Tempat memanggilnya: Chat-style API.
Masukkan pertanyaan atau permintaan Anda ke dalam bidang konten—itulah yang akan direspons oleh model. Proses respons API untuk mendapatkan jawaban yang dihasilkan.
Langkah 3: Ambil dan Verifikasi Hasil
Proses respons API untuk mendapatkan jawaban yang dihasilkan. Setelah diproses, API merespons dengan status tugas dan