GLM-4.7 nedir
GLM-4.7, Z.ai / Zhipu AI’nin en yeni amiral gemisi açık tabanlı büyük dil modelidir (model adı glm-4.7). Kodlama/ajan görev yürütme, çok adımlı akıl yürütme, araç çağırma ve uzun bağlamlı iş akışlarında özel iyileştirmelerle geliştirici odaklı bir “düşünen” model olarak konumlandırılmıştır. Sürüm, geniş bağlam işlemede (200K bağlam), yüksek maksimum çıktı (128K tokene kadar) ve ajan tabanlı iş hatları için uzmanlaşmış “düşünme” kiplerini vurgular.
Başlıca özellikler
- Ajan ve araç kullanımı iyileştirmeleri: Yerleşik düşünme kipleri (“Interleaved Thinking”, “Preserved Thinking”, tur düzeyi kontrol) modelin “eylemden önce düşünmesini” sağlar, turlar arasında akıl yürütmeyi korur ve araç çağırma ya da çok adımlı görevleri yürütürken daha istikrarlı olmasına yardımcı olur. Bu, sağlam ajan iş akışlarını (terminaller, araç zincirleri, web taraması) hedefler.
- Kodlama ve terminal yetkinliği: Kodlama kıyaslarında ve terminal otomasyon görevlerinde önemli iyileştirmeler — sağlayıcı kıyasları, SWE-bench ve Terminal Bench metriklerinde GLM-4.6’ya kıyasla net kazanımlar gösterir. Bu, ajan ortamlarında daha iyi çok turlu kod üretimi, komut sıralama ve toparlanmaya dönüşür.
- “Vibe coding” / ön uç çıktı kalitesi: Üretilen HTML, slaytlar ve sunumlar için daha iyi varsayılan UI/düzen kalitesi (daha temiz düzenler, boyutlandırma, daha iyi görsel varsayılanlar).
- Uzun bağlamlı iş akışları: 200K token bağlam penceresi ve bağlam önbellekleme araçları; çok dosyalı kod tabanları, uzun belgeler ve çok turlu ajan oturumları için pratiktir.
Kıyaslama performansı
GLM-4.7’nin yayıncısı/bakımcıları ve topluluk kıyas tabloları, GLM-4.6’ya kıyasla kayda değer kazanımlar ve kodlama, ajan ve araç kullanımı görevlerinde diğer çağdaş modellere karşı rekabetçi sonuçlar bildirmektedir. Seçilmiş rakamlar (kaynak: resmi Hugging Face / Z.AI yayımlanan tablolar):
- LiveCodeBench-v6 (kodlayıcı ajan kıyaslaması): 84.9 (açık kaynak SOTA bildirildi).
- SWE-bench Verified (kodlama): 73.8% (GLM-4.6’daki 68.0%’ten artış).
- SWE-bench Multilingual: 66.7% (GLM-4.6’ya kıyasla +12.9%).
- Terminal Bench 2.0 (ajanik terminal eylemleri): 41.0% (4.6’ya göre kayda değer +16.5% iyileşme).
- HLE (araçlarla karmaşık akıl yürütme): 42.8% araçlarla kullanıldığında (önceki sürümlere göre büyük iyileşme bildirildi).
- τ²-Bench (etkileşimli araç çağırma): 87.4 (açık kaynak SOTA bildirildi).
Tipik kullanım durumları ve örnek senaryolar
- Ajan tabanlı kodlama asistanları: Otonom veya yarı otonom kod üretimi, çok turlu kod düzeltmeleri, terminal otomasyonu ve CI/CD betikleme.
- Araç güdümlü ajanlar: Web taraması, API orkestrasyonu, çok adımlı iş akışları (korunan düşünme ve işlev çağırma ile desteklenir).
- Ön uç ve UI üretimi: Geliştirilmiş estetik ve yerleşimle otomatik web sitesi iskeletleme, slayt desteleri, posterler.
- Araştırma ve uzun bağlamlı görevler: Belge özetleme, literatür sentezi ve uzun belgeler boyunca geri getirme ile artırılmış üretim (burada 200k token penceresi yardımcıdır).
- Etkileşimli eğitim ajanları / kodlama eğitmenleri: Oturum boyunca önceki akıl yürütme bloklarını hatırlayan korunan akıl yürütme ile çok turlu öğretim.
GLM 4.7 API’sine nasıl erişilir ve kullanılır
Adım 1: API Anahtarı için Kaydolun
cometapi.com’a giriş yapın. Henüz kullanıcımız değilseniz lütfen önce kaydolun. CometAPI konsolu’na giriş yapın. Arayüzün erişim kimlik bilgisi olan API anahtarını alın. Kişisel merkezde API jetonunda “Add Token”a tıklayın, belirteç anahtarını alın: sk-xxxxx ve gönderin.
Adım 2: MiniMax M2.1 API’sine İstek Gönderin
API isteğini göndermek için “glm-4.7” uç noktasını seçin ve istek gövdesini ayarlayın. İstek yöntemi ve istek gövdesi web sitemizdeki API dokümanından elde edilir. Kolaylığınız için web sitemiz Apifox testi de sunar. Hesabınızdaki gerçek CometAPI anahtarınızla <YOUR_API_KEY> öğesini değiştirin. Nereden çağrılır: Chat-tarzı API’ler.
Sorunuzu veya isteğinizi content alanına ekleyin — modele yanıtlayacağı şey budur. Oluşturulan yanıtı almak için API yanıtını işleyin.
Adım 3: Sonuçları Alın ve Doğrulayın
Oluşturulan yanıtı almak için API yanıtını işleyin. İşlemenin ardından, API görev durumunu ve


