GLM-4.7 nedir
GLM-4.7, Z.ai / Zhipu AI’nin en yeni açık temelli amiral gemisi büyük dil modelidir (model adı glm-4.7). Geliştirici odaklı bir “düşünme” modeli olarak konumlandırılmıştır ve özellikle kodlama/ajan görev yürütme, çok adımlı akıl yürütme, araç çağırma ve uzun bağlam iş akışları alanlarında iyileştirmeler sunar. Bu sürüm, büyük bağlam yönetimine (200K bağlam), yüksek maksimum çıktıya (128K tokena kadar) ve ajan iş hatları için özel “düşünme” kiplerine vurgu yapar.
Başlıca özellikler
- Ajan/araç kullanımı iyileştirmeleri: Modelin “eyleme geçmeden önce düşünmesini” sağlayan yerleşik düşünme kipleri (“Interleaved Thinking”, “Preserved Thinking”, tur düzeyinde kontrol) ile turlar arasında akıl yürütmeyi korur ve araç çağırma veya çok adımlı görevleri yürütmede daha kararlı hale gelir. Bu, sağlam ajan iş akışlarını (terminaller, araç zincirleri, web tarama) hedefler.
- Kodlama ve terminal yetkinliği: Kodlama kıyasları ve terminal otomasyon görevlerinde önemli iyileştirmeler — sağlayıcı kıyasları, SWE-bench ve Terminal Bench metriklerinde GLM-4.6’ya göre net kazanımlar gösteriyor. Bu, ajan ortamlarında daha iyi çok turlu kod üretimi, komut sıralama ve kurtarmaya dönüşür.
- “Vibe coding” / ön yüz çıktı kalitesi: Üretilen HTML, slaytlar ve sunumlar için varsayılan UI/yerleşim kalitesi iyileştirildi (daha temiz yerleşimler, boyutlandırma, daha iyi görsel varsayılanlar).
- Uzun bağlam iş akışları: 200K token bağlam penceresi ve bağlam önbellekleme araçları; çok dosyalı kod tabanları, uzun belgeler ve çok turlu ajan oturumları için pratiktir.
Kıyas performansı
GLM-4.7’nin yayıncısı/bakımcıları ve topluluk kıyas tabloları, GLM-4.6’ya kıyasla ciddi kazanımlar ve kodlama, ajan ve araç kullanımı görevlerinde diğer çağdaş modellere karşı rekabetçi sonuçlar bildiriyor. Seçilmiş sayılar (kaynak: resmi Hugging Face / Z.AI yayımlanan tablolar):
- LiveCodeBench-v6 (kodlayıcı ajan kıyası): 84.9 (açık kaynak SOTA olarak belirtiliyor).
- SWE-bench Verified (kodlama): 73.8% (GLM-4.6’daki 68.0%’ten yükseldi).
- SWE-bench Multilingual: 66.7% (GLM-4.6’ya göre +12.9%).
- Terminal Bench 2.0 (ajanik terminal eylemleri): 41.0% (4.6’ya kıyasla kayda değer +16.5% iyileşme).
- HLE (araçlarla karmaşık akıl yürütme): araçlarla kullanıldığında 42.8% (önceki sürümlere göre büyük iyileşme rapor edildi).
- τ²-Bench (etkileşimli araç çağırma): 87.4 (açık kaynak SOTA rapor ediliyor).
Tipik kullanım örnekleri & senaryolar
- Ajan kodlama asistanları: Otonom veya yarı otonom kod üretimi, çok turlu kod düzeltmeleri, terminal otomasyonu ve CI/CD betik yazımı.
- Araç güdümlü ajanlar: Web tarama, API orkestrasyonu, çok adımlı iş akışları (korunmuş düşünme ve fonksiyon çağırma ile desteklenir).
- Ön uç ve kullanıcı arayüzü üretimi: Geliştirilmiş estetik ve yerleşimle otomatik web sitesi iskeleti, slayt desteleri, afişler.
- Araştırma ve uzun bağlamlı görevler: Belge özetleme, literatür sentezi ve uzun belgeler boyunca geri getirme ile artırılmış üretim (200K token penceresi burada faydalıdır).
- Etkileşimli eğitim ajanları / kodlama eğitmenleri: Bir oturum boyunca önceki akıl yürütme bloklarını hatırlayan korunmuş muhakeme ile çok turlu öğretim.
GLM 4.7 API’sine nasıl erişilir ve kullanılır
Adım 1: API Anahtarı için Kaydolun
cometapi.com adresine giriş yapın. Henüz kullanıcımız değilseniz, lütfen önce kayıt olun. CometAPI console hesabınıza giriş yapın. Arayüzün erişim kimlik bilgisi API anahtarını alın. Kişisel merkezde API token bölümünde “Add Token”a tıklayın, token anahtarını alın: sk-xxxxx ve gönderin.
Adım 2: MiniMax M2.1 API’ye İstek Gönderin
API isteğini göndermek için “glm-4.7” uç noktasını seçin ve istek gövdesini ayarlayın. İstek yöntemi ve istek gövdesi, web sitemizdeki API dokümanından elde edilir. Web sitemiz ayrıca kolaylığınız için Apifox testi sağlar. Hesabınızdaki gerçek CometAPI anahtarınızla <YOUR_API_KEY> değerini değiştirin. Çağrılacağı yer: Chat-tarzı API’ler.
Sorunuzu veya isteğinizi content alanına ekleyin — modelin yanıtlayacağı kısım budur. Oluşturulan yanıtı almak için API yanıtını işleyin.
Adım 3: Sonuçları Alın ve Doğrulayın
Oluşturulan yanıtı almak için API yanıtını işleyin. İşlemeden sonra, API görev durumu ve