ModeleWsparciePrzedsiębiorstwoBlog
Ponad 500 API modeli AI, wszystko w jednym API. Tylko w CometAPI
API modeli
Deweloper
Szybki startDokumentacjaPanel API
Zasoby
Modele Sztucznej InteligencjiBlogPrzedsiębiorstwoDziennik zmianO nas
2025 CometAPI. Wszelkie prawa zastrzeżone.Polityka PrywatnościWarunki korzystania z usługi
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Wejście:$0.96/M
Wyjście:$3.84/M
Kontekst:200K
Maks. wyjście:128K
GLM-4.7 to najnowszy flagowy model Z.AI, z ulepszeniami w dwóch kluczowych obszarach: zwiększone możliwości w zakresie programowania oraz bardziej stabilne wieloetapowe wnioskowanie/wykonywanie. Wykazuje znaczące usprawnienia w realizacji złożonych zadań agenta, jednocześnie zapewniając bardziej naturalne doświadczenia konwersacyjne i lepszą estetykę front-endu.
Nowy
Użycie komercyjne
Playground
Przegląd
Funkcje
Cennik
API

Czym jest GLM-4.7

GLM-4.7 to najnowszy flagowy otwarty model językowy typu foundation od Z.ai / Zhipu AI (nazwa modelu glm-4.7). Jest pozycjonowany jako zorientowany na programistów model „thinking”, ze szczególnymi usprawnieniami w zakresie kodowania/wykonywania zadań agentowych, wieloetapowego rozumowania, wywoływania narzędzi oraz pracy z długim kontekstem. Wydanie podkreśla obsługę dużego kontekstu (do 200K kontekstu), wysoki maksymalny rozmiar wyjścia (do 128K tokenów) oraz wyspecjalizowane tryby „thinking” dla potoków agentowych.

Główne funkcje

  • Usprawnienia agentowe / użycie narzędzi: Wbudowane tryby myślenia („Interleaved Thinking”, „Preserved Thinking”, kontrola na poziomie tury), które pozwalają modelowi „myśleć przed działaniem”, zachowywać tok rozumowania między turami i działać stabilniej podczas wywoływania narzędzi lub wykonywania zadań wieloetapowych. Jest to ukierunkowane na niezawodne przepływy agentowe (terminal, łańcuchy narzędzi, przeglądanie sieci).
  • Kompetencje w kodowaniu i pracy w terminalu: Znaczące ulepszenia w benchmarkach kodowania i zadań automatyzacji terminala — benchmarki dostawcy pokazują wyraźne wzrosty względem GLM-4.6 w metrykach SWE-bench i Terminal Bench. Przekłada się to na lepsze wieloturowe generowanie kodu, sekwencjonowanie poleceń i odzyskiwanie działania w środowiskach agentowych.
  • „Vibe coding” / jakość wyników frontendowych: Lepsza domyślna jakość UI/układu dla generowanych stron HTML, slajdów i prezentacji (czystsze układy, lepsze skalowanie, lepsze ustawienia wizualne domyślnie).
  • Praca z długim kontekstem: Okno kontekstowe 200K tokenów i narzędzia do cache’owania kontekstu; praktyczne w przypadku wieloplikowych baz kodu, długich dokumentów i wielorundowych sesji agentowych.

Wyniki benchmarków

Tabele benchmarkowe publikowane przez wydawcę/opiekunów GLM-4.7 oraz społeczność pokazują znaczące wzrosty względem GLM-4.6 oraz konkurencyjne wyniki wobec innych współczesnych modeli w zadaniach związanych z kodowaniem, agentowością i użyciem narzędzi. Wybrane liczby (źródło: oficjalne tabele opublikowane na Hugging Face / Z.AI):

  • LiveCodeBench-v6 (benchmark agenta kodującego): 84.9 (cytowane jako open-source SOTA).
  • SWE-bench Verified (kodowanie): 73.8% (wzrost z 68.0% w GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% względem GLM-4.6).
  • Terminal Bench 2.0 (agentowe działania w terminalu): 41.0% (znacząca poprawa o +16.5% względem 4.6).
  • HLE (złożone rozumowanie z użyciem narzędzi): 42.8% przy użyciu narzędzi (raportowana duża poprawa względem wcześniejszych wersji).
  • τ²-Bench (interaktywne wywoływanie narzędzi): 87.4 (raportowane jako open-source SOTA).

Typowe przypadki użycia i przykładowe scenariusze

  • Agentowe asystenty kodowania: Autonomiczne lub półautonomiczne generowanie kodu, wieloturowe poprawki kodu, automatyzacja terminala i skrypty CI/CD.
  • Agenci sterowani narzędziami: Przeglądanie sieci, orkiestracja API, wieloetapowe przepływy pracy (obsługiwane przez preserved thinking i function calling).
  • Generowanie frontendu i UI: Automatyczne tworzenie szkieletów stron internetowych, talii slajdów, plakatów z lepszą estetyką i układem.
  • Badania i zadania z długim kontekstem: Streszczanie dokumentów, synteza literatury oraz generowanie wspomagane wyszukiwaniem w długich dokumentach (okno 200k tokenów jest tutaj pomocne).
  • Interaktywne agenty edukacyjne / tutorzy kodowania: Wieloturowe nauczanie z zachowaniem rozumowania, które pamięta wcześniejsze bloki rozumowania w trakcie sesji.

Jak uzyskać dostęp i korzystać z API GLM 4.7

Krok 1: Zarejestruj się po klucz API

Zaloguj się na cometapi.com. Jeśli nie jesteś jeszcze naszym użytkownikiem, najpierw się zarejestruj. Zaloguj się do swojej konsoli CometAPI. Uzyskaj poświadczenie dostępu, czyli klucz API interfejsu. Kliknij „Add Token” w sekcji tokenów API w centrum osobistym, uzyskaj klucz tokena: sk-xxxxx i zatwierdź.

Krok 2: Wysyłanie żądań do API MiniMax M2.1

Wybierz endpoint „glm-4.7”, aby wysłać żądanie API, i ustaw treść żądania. Metoda żądania i treść żądania są dostępne w dokumentacji API na naszej stronie internetowej. Nasza strona internetowa udostępnia również test Apifox dla Twojej wygody. Zastąp <YOUR_API_KEY> swoim rzeczywistym kluczem CometAPI z konta. Gdzie to wywołać: API w stylu Chat.

Wstaw swoje pytanie lub żądanie do pola content — to na nie model odpowie. Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź.

Krok 3: Pobierz i zweryfikuj wyniki

Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź. Po przetworzeniu API odpowiada statusem zadania i

Funkcje dla GLM-4.7

Poznaj kluczowe funkcje GLM-4.7, zaprojektowane w celu zwiększenia wydajności i użyteczności. Odkryj, jak te możliwości mogą przynieść korzyści Twoim projektom i poprawić doświadczenie użytkownika.

Cennik dla GLM-4.7

Poznaj konkurencyjne ceny dla GLM-4.7, zaprojektowane tak, aby pasowały do różnych budżetów i potrzeb użytkowania. Nasze elastyczne plany zapewniają, że płacisz tylko za to, czego używasz, co ułatwia skalowanie w miarę wzrostu Twoich wymagań. Odkryj, jak GLM-4.7 może ulepszyć Twoje projekty przy jednoczesnym utrzymaniu kosztów na rozsądnym poziomie.
Cena Comet (USD / M Tokens)Oficjalna cena (USD / M Tokens)Zniżka
Wejście:$0.96/M
Wyjście:$3.84/M
Wejście:$1.2/M
Wyjście:$4.8/M
-20%

Przykładowy kod i API dla GLM-4.7

Uzyskaj dostęp do kompleksowego przykładowego kodu i zasobów API dla GLM-4.7, aby usprawnić proces integracji. Nasza szczegółowa dokumentacja zapewnia wskazówki krok po kroku, pomagając wykorzystać pełny potencjał GLM-4.7 w Twoich projektach.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Więcej modeli

A

Claude Opus 4.6

Wejście:$4/M
Wyjście:$20/M
Claude Opus 4.6 to duży model językowy firmy Anthropic klasy „Opus”, wydany w lutym 2026 r. Jest pozycjonowany jako podstawowe narzędzie wspierające pracę opartą na wiedzy oraz procesy badawcze — usprawnia rozumowanie w długim kontekście, planowanie wieloetapowe, korzystanie z narzędzi (w tym agentowe przepływy pracy oprogramowania) oraz zadania związane z obsługą komputera, takie jak automatyczne generowanie slajdów i arkuszy kalkulacyjnych.
A

Claude Sonnet 4.6

Wejście:$2.4/M
Wyjście:$12/M
Claude Sonnet 4.6 to nasz najbardziej zaawansowany model Sonnet do tej pory. To pełna aktualizacja umiejętności modelu, obejmująca programowanie, korzystanie z komputera, rozumowanie w długim kontekście, planowanie agentowe, pracę opartą na wiedzy oraz projektowanie. Sonnet 4.6 oferuje również okno kontekstu 1M tokenów w wersji beta.
O

GPT-5.4 nano

Wejście:$0.16/M
Wyjście:$1/M
GPT-5.4 nano został zaprojektowany z myślą o zadaniach, w których kluczowe są szybkość i koszt, takich jak klasyfikacja, ekstrakcja danych, ranking oraz sub-agenty.
O

GPT-5.4 mini

Wejście:$0.6/M
Wyjście:$3.6/M
GPT-5.4 mini przenosi zalety GPT-5.4 do szybszego i bardziej wydajnego modelu, zaprojektowanego z myślą o zadaniach o dużej skali.
A

Claude Mythos Preview

A

Claude Mythos Preview

Wkrótce
Wejście:$60/M
Wyjście:$240/M
Claude Mythos Preview to nasz najbardziej zaawansowany model najnowszej generacji jak dotąd i wykazuje imponujący skok wyników w wielu benchmarkach ewaluacyjnych w porównaniu z naszym poprzednim modelem najnowszej generacji, Claude Opus 4.6.
X

mimo-v2-pro

Wejście:$0.8/M
Wyjście:$2.4/M
MiMo-V2-Pro to flagowy model bazowy Xiaomi, mający ponad 1T parametrów łącznie i długość kontekstu 1M, głęboko zoptymalizowany pod scenariusze z agentami. Jest wysoce adaptowalny do ogólnych frameworków agentowych, takich jak OpenClaw. Należy do światowej czołówki w standardowych benchmarkach PinchBench i ClawBench, z postrzeganą wydajnością zbliżającą się do Opus 4.6. MiMo-V2-Pro został zaprojektowany, aby pełnić rolę mózgu systemów agentowych, orkiestrując złożone przepływy pracy, realizując zadania inżynierii produkcyjnej i niezawodnie dostarczając wyniki.

Powiązane blogi

GLM-5 vs GLM-4.7: co się zmieniło, co jest istotne i czy powinieneś zaktualizować?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: co się zmieniło, co jest istotne i czy powinieneś zaktualizować?

GLM-5, wydany 11 lutego 2026 r. przez Zhipu AI (Z.ai), stanowi duży skok architektoniczny względem GLM-4.7: większa skala MoE (≈744B wobec ~355B łącznych parametrów), większa liczba aktywnych parametrów, niższy zmierzony poziom halucynacji oraz wyraźne poprawy w benchmarkach agentowych i programistycznych — kosztem większej złożoności inferencji i (czasami) opóźnień.
Jak korzystać z GLM-4.7-Flash lokalnie?
Jan 21, 2026
glm-4-7
glm-4-7

Jak korzystać z GLM-4.7-Flash lokalnie?

GLM-4.7-Flash to lekki, wysokowydajny model 30B A3B MoE z rodziny GLM-4.7, zaprojektowany, aby umożliwiać lokalne i niskokosztowe wdrożenia do programowania, agentowych przepływów pracy i ogólnego rozumowania. Możesz uruchomić go lokalnie na trzy praktyczne sposoby: (1) przez Ollama (łatwe, zarządzane lokalne środowisko uruchomieniowe), (2) przez Hugging Face / Transformers / vLLM / SGLang (wdrożenie serwerowe z priorytetem GPU), lub (3) przez GGUF + llama.cpp / llama-cpp-python (przyjazne dla CPU/urządzeń brzegowych).
GLM-4.7 wydany: co to oznacza dla inteligencji AI?
Dec 23, 2025
glm-4-7

GLM-4.7 wydany: co to oznacza dla inteligencji AI?

22 grudnia 2025 r. Zhipu AI (Z.ai) oficjalnie udostępniło GLM-4.7, najnowszą iterację w rodzinie General Language Model (GLM) — przyciągając globalną uwagę w świecie otwartoźródłowych modeli sztucznej inteligencji. Ten model nie tylko rozwija możliwości w zadaniach kodowania i rozumowania, ale także kwestionuje dominację modeli własnościowych, takich jak GPT-5.2 i Claude Sonnet 4.5, w kluczowych benchmarkach.