ModellerDestekKurumsalBlog
500+ Yapay Zeka Modeli API'si, Hepsi Tek Bir API'de. Sadece CometAPI'de
Modeller API
Geliştirici
Hızlı BaşlangıçDokümantasyonAPI Kontrol Paneli
Kaynaklar
Yapay Zeka ModelleriBlogKurumsalDeğişiklik GünlüğüHakkında
2025 CometAPI. Tüm hakları saklıdır.Gizlilik PolitikasıHizmet Şartları
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Giriş:$0.96/M
Çıktı:$3.84/M
Bağlam:200K
Maksimum Çıktı:128K
GLM-4.7, Z.AI’nin en yeni amiral gemisi modelidir; iki kilit alanda iyileştirmeler sunar: geliştirilmiş programlama yetenekleri ve daha istikrarlı çok adımlı akıl yürütme/uygulama. Karmaşık ajan görevlerini yürütmede önemli iyileştirmeler sergilerken, daha doğal sohbet deneyimleri ve üstün ön uç estetiği sağlar.
Yeni
Ticari kullanım
Playground
Genel Bakış
Özellikler
Fiyatlandırma
API

GLM-4.7 nedir

GLM-4.7, Z.ai / Zhipu AI’nin en yeni amiral gemisi açık tabanlı büyük dil modelidir (model adı glm-4.7). Kodlama/ajan görev yürütme, çok adımlı akıl yürütme, araç çağırma ve uzun bağlamlı iş akışlarında özel iyileştirmelerle geliştirici odaklı bir “düşünen” model olarak konumlandırılmıştır. Sürüm, geniş bağlam işlemede (200K bağlam), yüksek maksimum çıktı (128K tokene kadar) ve ajan tabanlı iş hatları için uzmanlaşmış “düşünme” kiplerini vurgular.

Başlıca özellikler

  • Ajan ve araç kullanımı iyileştirmeleri: Yerleşik düşünme kipleri (“Interleaved Thinking”, “Preserved Thinking”, tur düzeyi kontrol) modelin “eylemden önce düşünmesini” sağlar, turlar arasında akıl yürütmeyi korur ve araç çağırma ya da çok adımlı görevleri yürütürken daha istikrarlı olmasına yardımcı olur. Bu, sağlam ajan iş akışlarını (terminaller, araç zincirleri, web taraması) hedefler.
  • Kodlama ve terminal yetkinliği: Kodlama kıyaslarında ve terminal otomasyon görevlerinde önemli iyileştirmeler — sağlayıcı kıyasları, SWE-bench ve Terminal Bench metriklerinde GLM-4.6’ya kıyasla net kazanımlar gösterir. Bu, ajan ortamlarında daha iyi çok turlu kod üretimi, komut sıralama ve toparlanmaya dönüşür.
  • “Vibe coding” / ön uç çıktı kalitesi: Üretilen HTML, slaytlar ve sunumlar için daha iyi varsayılan UI/düzen kalitesi (daha temiz düzenler, boyutlandırma, daha iyi görsel varsayılanlar).
  • Uzun bağlamlı iş akışları: 200K token bağlam penceresi ve bağlam önbellekleme araçları; çok dosyalı kod tabanları, uzun belgeler ve çok turlu ajan oturumları için pratiktir.

Kıyaslama performansı

GLM-4.7’nin yayıncısı/bakımcıları ve topluluk kıyas tabloları, GLM-4.6’ya kıyasla kayda değer kazanımlar ve kodlama, ajan ve araç kullanımı görevlerinde diğer çağdaş modellere karşı rekabetçi sonuçlar bildirmektedir. Seçilmiş rakamlar (kaynak: resmi Hugging Face / Z.AI yayımlanan tablolar):

  • LiveCodeBench-v6 (kodlayıcı ajan kıyaslaması): 84.9 (açık kaynak SOTA bildirildi).
  • SWE-bench Verified (kodlama): 73.8% (GLM-4.6’daki 68.0%’ten artış).
  • SWE-bench Multilingual: 66.7% (GLM-4.6’ya kıyasla +12.9%).
  • Terminal Bench 2.0 (ajanik terminal eylemleri): 41.0% (4.6’ya göre kayda değer +16.5% iyileşme).
  • HLE (araçlarla karmaşık akıl yürütme): 42.8% araçlarla kullanıldığında (önceki sürümlere göre büyük iyileşme bildirildi).
  • τ²-Bench (etkileşimli araç çağırma): 87.4 (açık kaynak SOTA bildirildi).

Tipik kullanım durumları ve örnek senaryolar

  • Ajan tabanlı kodlama asistanları: Otonom veya yarı otonom kod üretimi, çok turlu kod düzeltmeleri, terminal otomasyonu ve CI/CD betikleme.
  • Araç güdümlü ajanlar: Web taraması, API orkestrasyonu, çok adımlı iş akışları (korunan düşünme ve işlev çağırma ile desteklenir).
  • Ön uç ve UI üretimi: Geliştirilmiş estetik ve yerleşimle otomatik web sitesi iskeletleme, slayt desteleri, posterler.
  • Araştırma ve uzun bağlamlı görevler: Belge özetleme, literatür sentezi ve uzun belgeler boyunca geri getirme ile artırılmış üretim (burada 200k token penceresi yardımcıdır).
  • Etkileşimli eğitim ajanları / kodlama eğitmenleri: Oturum boyunca önceki akıl yürütme bloklarını hatırlayan korunan akıl yürütme ile çok turlu öğretim.

GLM 4.7 API’sine nasıl erişilir ve kullanılır

Adım 1: API Anahtarı için Kaydolun

cometapi.com’a giriş yapın. Henüz kullanıcımız değilseniz lütfen önce kaydolun. CometAPI konsolu’na giriş yapın. Arayüzün erişim kimlik bilgisi olan API anahtarını alın. Kişisel merkezde API jetonunda “Add Token”a tıklayın, belirteç anahtarını alın: sk-xxxxx ve gönderin.

Adım 2: MiniMax M2.1 API’sine İstek Gönderin

API isteğini göndermek için “glm-4.7” uç noktasını seçin ve istek gövdesini ayarlayın. İstek yöntemi ve istek gövdesi web sitemizdeki API dokümanından elde edilir. Kolaylığınız için web sitemiz Apifox testi de sunar. Hesabınızdaki gerçek CometAPI anahtarınızla <YOUR_API_KEY> öğesini değiştirin. Nereden çağrılır: Chat-tarzı API’ler.

Sorunuzu veya isteğinizi content alanına ekleyin — modele yanıtlayacağı şey budur. Oluşturulan yanıtı almak için API yanıtını işleyin.

Adım 3: Sonuçları Alın ve Doğrulayın

Oluşturulan yanıtı almak için API yanıtını işleyin. İşlemenin ardından, API görev durumunu ve

GLM-4.7 için Özellikler

GLM-4.7'in performansı ve kullanılabilirliği artırmak için tasarlanmış temel özelliklerini keşfedin. Bu yeteneklerin projelerinize nasıl fayda sağlayabileceğini ve kullanıcı deneyimini nasıl geliştirebileceğini öğrenin.

GLM-4.7 için Fiyatlandırma

GLM-4.7 için çeşitli bütçelere ve kullanım ihtiyaçlarına uygun rekabetçi fiyatlandırmayı keşfedin. Esnek planlarımız sadece kullandığınız kadar ödeme yapmanızı sağlar ve ihtiyaçlarınız büyüdükçe kolayca ölçeklendirme imkanı sunar. GLM-4.7'in maliyetleri yönetilebilir tutarken projelerinizi nasıl geliştirebileceğini keşfedin.
Comet Fiyatı (USD / M Tokens)Resmi Fiyat (USD / M Tokens)İndirim
Giriş:$0.96/M
Çıktı:$3.84/M
Giriş:$1.2/M
Çıktı:$4.8/M
-20%

GLM-4.7 için örnek kod ve API

GLM-4.7 için kapsamlı örnek kodlara ve API kaynaklarına erişerek entegrasyon sürecinizi kolaylaştırın. Ayrıntılı dokümantasyonumuz adım adım rehberlik sağlayarak projelerinizde GLM-4.7'in tüm potansiyelinden yararlanmanıza yardımcı olur.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Daha Fazla Model

A

Claude Opus 4.6

Giriş:$4/M
Çıktı:$20/M
Claude Opus 4.6, Anthropic’in “Opus” sınıfı büyük dil modelidir; Şubat 2026’da yayımlandı. Bilgi odaklı çalışma ve araştırma iş akışları için bir temel araç olarak konumlandırılmıştır — uzun bağlamlarda akıl yürütmeyi, çok adımlı planlamayı, araç kullanımını (ajan tabanlı yazılım iş akışları dahil) ve otomatik slayt ve e-tablo oluşturma gibi bilgisayar kullanımına yönelik görevleri geliştirir.
A

Claude Sonnet 4.6

Giriş:$2.4/M
Çıktı:$12/M
Claude Sonnet 4.6, şimdiye kadarki en yetenekli Sonnet modelimiz. Modelin kodlama, bilgisayar kullanımı, uzun bağlamlı akıl yürütme, ajan planlama, bilgi çalışması ve tasarım alanlarındaki becerilerine tam kapsamlı bir yükseltme sunar. Sonnet 4.6 ayrıca beta aşamasında 1M token bağlam penceresi sunar.
O

GPT-5.4 nano

Giriş:$0.16/M
Çıktı:$1/M
GPT-5.4 nano, hız ve maliyetin en çok önem taşıdığı sınıflandırma, veri çıkarımı, sıralama ve alt ajanlar gibi görevler için tasarlanmıştır.
O

GPT-5.4 mini

Giriş:$0.6/M
Çıktı:$3.6/M
GPT-5.4 mini, GPT-5.4'ün güçlü yönlerini yüksek hacimli iş yükleri için tasarlanmış daha hızlı ve daha verimli bir modele taşır.
A

Claude Mythos Preview

A

Claude Mythos Preview

Yakında
Giriş:$60/M
Çıktı:$240/M
Claude Mythos Preview, bugüne kadarki en güçlü öncü modelimizdir ve önceki öncü modelimiz Claude Opus 4.6 ile karşılaştırıldığında birçok değerlendirme ölçütündeki puanlarda çarpıcı bir sıçrama göstermektedir.
X

mimo-v2-pro

Giriş:$0.8/M
Çıktı:$2.4/M
MiMo-V2-Pro, Xiaomi'nin amiral gemisi temel modeli olup, 1T'den fazla toplam parametreye ve 1M bağlam uzunluğuna sahiptir; ajan odaklı senaryolar için derinlemesine optimize edilmiştir. OpenClaw gibi genel amaçlı ajan çerçevelerine son derece uyum sağlar. Standart PinchBench ve ClawBench kıyaslama testlerinde dünya çapında en üst sıralarda yer alır; algılanan performansı Opus 4.6 seviyesine yaklaşır. MiMo-V2-Pro, ajan sistemlerinin beyni olarak hizmet vermek üzere tasarlanmış olup karmaşık iş akışlarını orkestre eder, üretim mühendisliği görevlerini yürütür ve sonuçları güvenilir biçimde sunar.

İlgili Blog

GLM-5 ve GLM-4.7: Neler değişti, neler önemli ve yükseltmeli misiniz?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 ve GLM-4.7: Neler değişti, neler önemli ve yükseltmeli misiniz?

Zhipu AI (Z.ai) tarafından 11 Şubat 2026'da yayımlanan GLM-5, GLM-4.7'ye kıyasla büyük bir mimari sıçramayı temsil eder: daha büyük MoE ölçeği (≈744B vs ~355B toplam parametre), daha yüksek aktif parametre kapasitesi, daha düşük ölçülen halüsinasyon ve ajan-odaklı ile kodlama kıyaslamalarında net kazanımlar — çıkarım karmaşıklığı ve (bazı durumlarda) gecikme pahasına.
GLM-4.7-Flash yerel olarak nasıl kullanılır?
Jan 21, 2026
glm-4-7
glm-4-7

GLM-4.7-Flash yerel olarak nasıl kullanılır?

GLM-4.7-Flash, GLM-4.7 ailesinin hafif, yüksek performanslı 30B A3B MoE üyesi olup, kodlama, ajan tabanlı iş akışları ve genel akıl yürütme için yerel ve düşük maliyetli dağıtımı mümkün kılacak şekilde tasarlanmıştır. Bunu yerelde üç pratik yolla çalıştırabilirsiniz: (1) Ollama aracılığıyla (kolay, yönetilen yerel çalışma zamanı), (2) Hugging Face / Transformers / vLLM / SGLang aracılığıyla (GPU-öncelikli sunucu dağıtımı) veya (3) GGUF + llama.cpp / llama-cpp-python aracılığıyla (CPU/edge dostu).
GLM-4.7 Yayımlandı: Bu, Yapay Zekânın Zekâ Düzeyi İçin Ne Anlama Geliyor?
Dec 23, 2025
glm-4-7

GLM-4.7 Yayımlandı: Bu, Yapay Zekânın Zekâ Düzeyi İçin Ne Anlama Geliyor?

22 Aralık 2025’te Zhipu AI (Z.ai), Genel Dil Modeli (GLM) ailesindeki en yeni sürüm olan GLM-4.7’yi resmen yayımladı — açık kaynak yapay zeka modelleri dünyasında küresel düzeyde dikkat çekti. Bu model yalnızca kodlama ve akıl yürütme görevlerindeki yetenekleri ilerletmekle kalmıyor, aynı zamanda kilit kıyaslamalarda GPT-5.2 ve Claude Sonnet 4.5 gibi mülkiyetli modellerin hakimiyetine de meydan okuyor.