МоделиПоддержкаПредприятиеБлог
500+ API моделей ИИ, всё в одном API. Только в CometAPI
API моделей
Разработчик
Быстрый стартДокументацияПанель управления API
Ресурсы
AI МоделиБлогПредприятиеЖурнал измененийО нас
2025 CometAPI. Все права защищены.Политика конфиденциальностиУсловия обслуживания
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Ввод:$0.96/M
Вывод:$3.84/M
Контекст:200K
Максимальный вывод:128K
GLM-4.7 — последняя флагманская модель Z.AI, с обновлениями в двух ключевых областях: расширенные возможности программирования и более стабильное многошаговое рассуждение и выполнение. Она демонстрирует значительные улучшения в выполнении сложных агентных задач, обеспечивая более естественный разговорный опыт и превосходную эстетику фронтенда.
Новый
Коммерческое использование
Playground
Обзор
Функции
Цены
API

Что такое GLM-4.7

GLM-4.7 — это новейшая флагманская открытая базовая большая языковая модель Z.ai / Zhipu AI (имя модели glm-4.7). Она позиционируется как ориентированная на разработчиков «thinking»-модель с заметными улучшениями в кодировании / выполнении агентных задач, многошаговом рассуждении, вызове инструментов и рабочих процессах с длинным контекстом. В релизе акцент сделан на работе с большим контекстом (до 200K контекста), высоком максимальном объёме вывода (до 128K токенов) и специализированных режимах «мышления» для агентных конвейеров.

Основные возможности

  • Улучшения для агентных сценариев / использования инструментов: Встроенные режимы мышления («Interleaved Thinking», «Preserved Thinking», управление на уровне хода) позволяют модели «думать перед действием», сохранять рассуждения между ходами и быть более стабильной при вызове инструментов или выполнении многошаговых задач. Это нацелено на надёжные агентные рабочие процессы (терминалы, цепочки инструментов, веб-браузинг).
  • Компетентность в кодировании и работе с терминалом: Значительные улучшения в бенчмарках по кодированию и задачах автоматизации терминала — вендорские бенчмарки показывают явный прирост по сравнению с GLM-4.6 в метриках SWE-bench и Terminal Bench. На практике это означает более качественную многотуровую генерацию кода, последовательность команд и восстановление в агентных средах.
  • «Vibe coding» / качество фронтенд-вывода: Улучшено качество UI/макетов по умолчанию для сгенерированных HTML, слайдов и презентаций (более чистые макеты, размеры, лучшие визуальные настройки по умолчанию).
  • Рабочие процессы с длинным контекстом: Контекстное окно 200K токенов и инструменты для кэширования контекста; это удобно для многофайловых кодовых баз, длинных документов и многократных агентных сессий.

Результаты в бенчмарках

Таблицы бенчмарков, опубликованные издателем/сопровождающими GLM-4.7 и сообществом, показывают существенный прогресс по сравнению с GLM-4.6 и конкурентные результаты относительно других современных моделей в задачах кодирования, агентного поведения и использования инструментов. Отдельные показатели (источник: официальные таблицы, опубликованные на Hugging Face / Z.AI):

  • LiveCodeBench-v6 (бенчмарк кодирующего агента): 84.9 (заявлен open-source SOTA).
  • SWE-bench Verified (кодирование): 73.8% (рост с 68.0% у GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% по сравнению с GLM-4.6).
  • Terminal Bench 2.0 (агентные действия в терминале): 41.0% (заметное улучшение на +16.5% по сравнению с 4.6).
  • HLE (сложное рассуждение с инструментами): 42.8% при использовании с инструментами (сообщается о значительном улучшении по сравнению с предыдущими версиями).
  • τ²-Bench (интерактивный вызов инструментов): 87.4 (заявлен open-source SOTA).

Типичные сценарии использования и примеры

  • Агентные ассистенты для кодирования: Автономная или полуавтономная генерация кода, многотуровые исправления кода, автоматизация терминала и написание CI/CD-скриптов.
  • Агенты, управляемые инструментами: Веб-браузинг, оркестрация API, многошаговые рабочие процессы (поддерживаются благодаря preserved thinking и function calling).
  • Генерация фронтенда и UI: Автоматическое создание каркаса сайта, слайд-деков, постеров с улучшенной эстетикой и макетом.
  • Исследовательские и длинноконтекстные задачи: Суммаризация документов, синтез литературы и retrieval-augmented generation на длинных документах (здесь полезно окно в 200k токенов).
  • Интерактивные образовательные агенты / наставники по программированию: Многотуровое обучение с сохранением рассуждений, которое помнит предыдущие блоки рассуждений на протяжении сессии.

Как получить доступ и использовать API GLM 4.7

Шаг 1: Зарегистрируйтесь для получения API-ключа

Войдите на cometapi.com. Если вы ещё не являетесь нашим пользователем, сначала зарегистрируйтесь. Войдите в свою консоль CometAPI. Получите учётные данные доступа — API-ключ интерфейса. Нажмите «Add Token» в разделе API token в личном кабинете, получите ключ токена: sk-xxxxx и отправьте его.

Шаг 2: Отправьте запросы в API MiniMax M2.1

Выберите endpoint “glm-4.7”, чтобы отправить API-запрос, и задайте тело запроса. Метод запроса и тело запроса можно получить из API-документации на нашем сайте. На нашем сайте также доступен тест Apifox для вашего удобства. Замените <YOUR_API_KEY> на ваш фактический ключ CometAPI из вашей учётной записи. Где вызывать: API в стиле Chat.

Вставьте ваш вопрос или запрос в поле content — именно на него модель ответит. Обработайте API-ответ, чтобы получить сгенерированный ответ.

Шаг 3: Получите и проверьте результаты

Обработайте API-ответ, чтобы получить сгенерированный ответ. После обработки API возвращает статус задачи и

Функции для GLM-4.7

Изучите ключевые функции GLM-4.7, разработанные для повышения производительности и удобства использования. Узнайте, как эти возможности могут принести пользу вашим проектам и улучшить пользовательский опыт.

Цены для GLM-4.7

Изучите конкурентоспособные цены на GLM-4.7, разработанные для различных бюджетов и потребностей использования. Наши гибкие планы гарантируют, что вы платите только за то, что используете, что упрощает масштабирование по мере роста ваших требований. Узнайте, как GLM-4.7 может улучшить ваши проекты, сохраняя при этом управляемые расходы.
Цена Comet (USD / M Tokens)Официальная цена (USD / M Tokens)Скидка
Ввод:$0.96/M
Вывод:$3.84/M
Ввод:$1.2/M
Вывод:$4.8/M
-20%

Пример кода и API для GLM-4.7

Получите доступ к исчерпывающим примерам кода и ресурсам API для GLM-4.7, чтобы упростить процесс интеграции. Наша подробная документация предоставляет пошаговые инструкции, помогая вам использовать весь потенциал GLM-4.7 в ваших проектах.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Больше моделей

A

Claude Opus 4.6

Ввод:$4/M
Вывод:$20/M
Claude Opus 4.6 — большая языковая модель класса «Opus» компании Anthropic, выпущенная в феврале 2026 года. Она позиционируется как «рабочая лошадка» для интеллектуального труда и исследовательских рабочих процессов — ориентирована на улучшение рассуждений на длинных контекстах, многошагового планирования, использования инструментов (включая агентные программные рабочие процессы) и выполнения компьютерных задач, таких как автоматизированное создание слайдов и электронных таблиц.
A

Claude Sonnet 4.6

Ввод:$2.4/M
Вывод:$12/M
Claude Sonnet 4.6 — наша самая мощная на сегодняшний день модель Sonnet. Это полноценное обновление навыков модели в областях программирования, использования компьютера, рассуждений с длинным контекстом, агентного планирования, интеллектуальной работы и дизайна. Sonnet 4.6 также поддерживает окно контекста на 1M токенов в бета-версии.
O

GPT-5.4 nano

Ввод:$0.16/M
Вывод:$1/M
GPT-5.4 nano предназначен для задач, в которых наибольшее значение имеют скорость и затраты, таких как классификация, извлечение данных, ранжирование и подагенты.
O

GPT-5.4 mini

Ввод:$0.6/M
Вывод:$3.6/M
GPT-5.4 mini сочетает сильные стороны GPT-5.4 с более быстрой и эффективной моделью, разработанной для высоконагруженных сценариев использования.
A

Claude Mythos Preview

A

Claude Mythos Preview

Скоро
Ввод:$60/M
Вывод:$240/M
Claude Mythos Preview является нашей самой мощной на сегодняшний день передовой моделью и демонстрирует поразительный скачок в результатах на многих оценочных бенчмарках по сравнению с нашей предыдущей передовой моделью Claude Opus 4.6.
X

mimo-v2-pro

Ввод:$0.8/M
Вывод:$2.4/M
MiMo-V2-Pro — флагманская базовая модель Xiaomi с более чем 1T общих параметров и длиной контекста 1M, глубоко оптимизированная для агентных сценариев. Она обладает высокой адаптивностью к универсальным агентным фреймворкам, таким как OpenClaw. В стандартных бенчмарках PinchBench и ClawBench она входит в число мировых лидеров, а по воспринимаемой производительности приближается к уровню Opus 4.6. MiMo-V2-Pro создана, чтобы служить мозгом агентных систем, оркестрировать сложные рабочие процессы, обеспечивать выполнение инженерных задач в production-среде и надежно выдавать результаты.

Связанные блоги

GLM-5 vs GLM-4.7: что изменилось, что важно и стоит ли обновляться?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: что изменилось, что важно и стоит ли обновляться?

GLM-5, выпущенная 11 февраля 2026 года компанией Zhipu AI (Z.ai), представляет собой крупный архитектурный скачок по сравнению с GLM-4.7: более крупный масштаб MoE (≈744B против ~355B общего числа параметров), более высокая емкость активных параметров, ниже измеренный уровень галлюцинаций и заметные улучшения на агентных и программных бенчмарках — ценой усложнения инференса и (иногда) задержки.
Как использовать GLM-4.7-Flash локально?
Jan 21, 2026
glm-4-7
glm-4-7

Как использовать GLM-4.7-Flash локально?

GLM-4.7-Flash — легковесная, высокопроизводительная MoE-модель 30B A3B из семейства GLM-4.7, предназначенная для локального и малозатратного развертывания при решении задач программирования, агентных рабочих процессов и общих рассуждений. Ее можно запускать локально тремя практичными способами: (1) через Ollama (простой управляемый локальный рантайм), (2) через Hugging Face / Transformers / vLLM / SGLang (серверное развертывание, ориентированное на GPU) или (3) через GGUF + llama.cpp / llama-cpp-python (подходит для CPU и edge).
GLM-4.7 выпущен: что это значит для искусственного интеллекта?
Dec 23, 2025
glm-4-7

GLM-4.7 выпущен: что это значит для искусственного интеллекта?

22 декабря 2025 года компания Zhipu AI (Z.ai) официально выпустила GLM-4.7 — новейшую итерацию своего семейства General Language Model (GLM), привлекшую мировой интерес в сфере моделей ИИ с открытым исходным кодом. Эта модель не только улучшает возможности в задачах программирования и рассуждения, но и бросает вызов доминированию проприетарных моделей, таких как GPT-5.2 и Claude Sonnet 4.5, в ключевых эталонных тестах.