Home/Models/Zhipu AI/GLM 5
Z

GLM 5

Giriş:$0.672/M
Çıktı:$2.688/M
GLM-5, Z.ai’nin karmaşık sistem tasarımı ve uzun vadeli ajan iş akışları için tasarlanmış amiral gemisi açık kaynak temel modelidir. Uzman geliştiriciler için geliştirilmiş olup, büyük ölçekli programlama görevlerinde üretim düzeyinde performans sunar ve önde gelen kapalı kaynak modellerle rekabet eder. Gelişmiş ajan odaklı planlama, arka uçta derin akıl yürütme ve yinelemeli öz-düzeltme ile GLM-5, kod üretiminin ötesine geçerek tam sistem inşası ve otonom yürütmeye ilerler.
Yeni
Ticari kullanım
Playground
Genel Bakış
Özellikler
Fiyatlandırma
API

GLM-5'in teknik özellikleri

ÖzellikGLM-5 (bildirilen)
Model ailesiGLM (Z.ai / Zhipu AI) — amiral gemisi nesli
MimariMixture-of-Experts (MoE) + seyrek dikkat (DeepSeek/DSA optimizasyonları).
Toplam parametre sayısı≈744–745B (MoE havuzu).
Aktif / yönlendirilen parametreler (token başına)~40–44B aktif (yönlendirme/uzmanlara bağlıdır).
Ön eğitim tokenları~28.5T token (bildirilen).
Bağlam penceresi (girdi)En fazla 200,000 token (uzun bağlam modu).
Maksimum çıktı token'ları128,000 token (çağrı başına bildirilen maksimum üretim).
Girdi modaliteleriYalnızca metin (birincil); zengin metinden çıktılara yönelik tasarlanmıştır (araçlar aracılığıyla doc/xlsx üretimi).

GLM-5 nedir

GLM-5, GLM serisini bir MoE yönlendirme tasarımı ve seyrek dikkat optimizasyonlarıyla ölçekleyerek uzun bağlamlı akıl yürütme ve ajanik iş akışları (çok adımlı planlama, kod ve sistem orkestrasyonu) sunan Zhipu AI’nin yeni nesil temel modelidir. Ajanik ve mühendislik görevleri için açık ağırlıklar alanında bir aday olarak açıkça konumlandırılmıştır ve API’ler ile kendi kendine barındırma yoluyla kurumsal erişilebilirlik sunar.

🚀 GLM-5'in başlıca özellikleri

1. Ajanik Zekâ ve Akıl Yürütme

GLM-5, modelin uzun ve karmaşık görevleri sıralı adımlara ayırdığı ve halüsinasyonların azaltıldığı iş akışları için optimize edilmiştir — önceki GLM sürümlerine göre büyük bir iyileştirme. Bilgi güvenilirliği ve görev üretkenliği açısından bazı açık ağırlıklı model kıyaslamalarında önde gelmektedir.

2. Uzun Bağlam Desteği

200K token bağlam penceresiyle, GLM-5 çok uzun konuşmaları, büyük belgeleri ve uzatılmış akıl yürütme zincirlerini tutarlılığı yitirmeden sürdürebilir — gerçek dünya profesyonel uygulamaları için giderek kritikleşen bir yetenek.

3. DeepSeek Seyrek Dikkat

Seyrek dikkat mekanizmasını entegre ederek, GLM-5 bellek ayak izini verimli biçimde ölçekler; doğrusal maliyet artışları olmaksızın daha uzun dizilere izin verir.

4. Araç Entegrasyonu ve Çıktı Biçimleri

Yapılandırılmış çıktılar ve harici araç entegrasyonları (JSON, API çağrıları, dinamik araç kullanımı) için yerel destek, GLM-5’i e-tablolar, raporlar ve otomatik kodlama asistanları gibi kurumsal uygulamalar için pratik kılar.

5. Maliyet Verimliliği

GLM-5, tescilli muadillerine kıyasla maliyet açısından rekabetçi olarak konumlandırılmıştır; girdi/çıktı fiyatlandırması büyük tekliflere kıyasla önemli ölçüde daha düşüktür ve bu da onu büyük ölçekli dağıtımlar için cazip kılar.

GLM-5'in Kıyaslama Performansı

Birden çok bağımsız değerlendirme ve erken dönem endüstri kıyaslaması, GLM-5’in açık ağırlıklı modeller arasında güçlü bir performans sergilediğini gösteriyor:

  • Artificial Analysis Intelligence Index — güvenilirlik ve doğruluk ölçütü — üzerinde rekor düzeyde düşük halüsinasyon oranları elde etti ve önceki modelleri açık ara geride bıraktı.
  • Ajan merkezli kıyaslamalar, karmaşık görev yürütmede GLM-4.7 ve diğer açık modellere kıyasla önemli kazanımlara işaret ediyor.
  • Maliyet-performans metrikleri, GLM-5’i hız açısından 4. çeyreğe, ancak zekâ ve fiyat açısından açık ağırlıklı modeller arasında en üst katmana (en iyi) yerleştiriyor.

Sayısal Puanlar (sıralama platformundan örnek):

  • Zekâ Endeksi: açık ağırlıklı modeller arasında #1.
  • Fiyatlandırma Verimliliği: düşük girdi/çıktı maliyetleri için yüksek derecelendirmeler.

GLM-5 API'sine nasıl erişilir ve nasıl kullanılır

Adım 1: API Anahtarı için kaydolun

cometapi.com adresinde oturum açın. Henüz kullanıcımız değilseniz lütfen önce kaydolun. CometAPI konsolunuza giriş yapın. Arayüzün erişim kimlik bilgisi olan API anahtarını alın. Kişisel merkezde API token bölümünde “Add Token”a tıklayın, token anahtarını alın: sk-xxxxx ve gönderin.

Adım 2: glm-5 API’sine istek gönderin

API isteğini göndermek için “glm-5” uç noktasını seçin ve istek gövdesini ayarlayın. İstek yöntemi ve istek gövdesi web sitemizdeki API dokümanından alınır. Kolaylığınız için web sitemiz Apifox testi de sağlar. <YOUR_API_KEY> ifadesini hesabınızdaki gerçek CometAPI anahtarıyla değiştirin. Nerede çağırılır: Chat biçimi.

Modelin yanıt vereceği içerik alanına sorunuzu veya isteğinizi ekleyin. Oluşturulan yanıtı almak için API yanıtını işleyin.

Adım 3: Sonuçları alın ve doğrulayın

Oluşturulan yanıtı almak için API yanıtını işleyin. İşlemenin ardından API, görev durumunu ve çıktı verilerini döndürür.

SSS

What distinguishes GLM-5’s architecture from earlier GLM models?

GLM-5 uses a Mixture of Experts (MoE) architecture with ~745B total parameters and 8 active experts per token (~44B active), enabling efficient large-scale reasoning and agentic workflows compared to previous GLM series.

How long of a context window does GLM-5 support via its API?

GLM-5 supports a 200K token context window with up to 128K output tokens, making it suitable for extended reasoning and document tasks.

Can GLM-5 handle complex agentic and engineering tasks?

Yes — GLM-5 is explicitly optimized for long-horizon agent tasks and complex systems engineering workflows, with deep reasoning and planning capabilities beyond standard chat models.

Does GLM-5 support tool calling and structured output?

Yes — GLM-5 supports function calling, structured JSON outputs, context caching, and real-time streaming to integrate with external tools and systems.

How does GLM-5 compare to proprietary models like GPT and Claude?

GLM-5 is competitive with top proprietary models in benchmarks, performing close to Claude Opus 4.5 and offering significantly lower per-token costs and open-weight availability, though closed-source models may still lead in some fine-grained benchmarks.

Is GLM-5 open source and what license does it use?

Yes — GLM-5 is released under a permissive MIT license, enabling open-weight access and community development.

What are typical use cases where GLM-5 excels?

GLM-5 is well suited for long-sequence reasoning, agentic automation, coding assistance, creative writing at scale, and backend system design tasks that demand coherent multi-step outputs.

What are known limitations of GLM-5?

While powerful, GLM-5 is primarily text-only (no native multimodal support) and may be slower or more resource-intensive than smaller models, especially for shorter tasks.

GLM 5 için Özellikler

GLM 5'in performansı ve kullanılabilirliği artırmak için tasarlanmış temel özelliklerini keşfedin. Bu yeteneklerin projelerinize nasıl fayda sağlayabileceğini ve kullanıcı deneyimini nasıl geliştirebileceğini öğrenin.

GLM 5 için Fiyatlandırma

GLM 5 için çeşitli bütçelere ve kullanım ihtiyaçlarına uygun rekabetçi fiyatlandırmayı keşfedin. Esnek planlarımız sadece kullandığınız kadar ödeme yapmanızı sağlar ve ihtiyaçlarınız büyüdükçe kolayca ölçeklendirme imkanı sunar. GLM 5'in maliyetleri yönetilebilir tutarken projelerinizi nasıl geliştirebileceğini keşfedin.
Comet Fiyatı (USD / M Tokens)Resmi Fiyat (USD / M Tokens)ModelDetail.discount
Giriş:$0.672/M
Çıktı:$2.688/M
Giriş:$0.84/M
Çıktı:$3.36/M
-20%

GLM 5 için örnek kod ve API

GLM 5 için kapsamlı örnek kodlara ve API kaynaklarına erişerek entegrasyon sürecinizi kolaylaştırın. Ayrıntılı dokümantasyonumuz adım adım rehberlik sağlayarak projelerinizde GLM 5'in tüm potansiyelinden yararlanmanıza yardımcı olur.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-5: Zhipu GLM-5 model via chat/completions
completion = client.chat.completions.create(
    model="glm-5",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

Daha Fazla Model