Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Ввод:$0.96/M
Вывод:$3.84/M
Контекст:200K
Максимальный вывод:128K
GLM-4.7 — последняя флагманская модель Z.AI, с обновлениями в двух ключевых областях: расширенные возможности программирования и более стабильное многошаговое рассуждение и выполнение. Она демонстрирует значительные улучшения в выполнении сложных агентных задач, обеспечивая более естественный разговорный опыт и превосходную эстетику фронтенда.
Новый
Коммерческое использование
Playground
Обзор
Функции
Цены
API

Что такое GLM-4.7

GLM-4.7 — это последняя флагманская открытая базовая языковая модель от Z.ai / Zhipu AI (имя модели glm-4.7). Позиционируется как «мыслящая» модель, ориентированная на разработчиков, с особыми улучшениями в области выполнения задач кодирования/агентных задач, многошагового рассуждения, вызова инструментов и рабочих процессов с длинным контекстом. В релизе сделан акцент на обработку большого контекста (до 200K контекста), высокий максимум вывода (до 128K токенов) и специализированные режимы «мышления» для агентных пайплайнов.

Основные возможности

  • Улучшения для агентных сценариев/использования инструментов: Встроенные режимы мышления («Interleaved Thinking», «Preserved Thinking», контроль на уровне реплики), позволяющие модели «думать перед действием», сохранять рассуждения между репликами и быть более стабильной при вызове инструментов или выполнении многошаговых задач. Это нацелено на устойчивые агентные процессы (терминалы, цепочки инструментов, веб‑просмотр).
  • Компетентность в кодинге и терминале: Существенные улучшения на бенчмарках по программированию и задачах автоматизации терминала — вендорские бенчмарки показывают заметный прирост по сравнению с GLM-4.6 в метриках SWE-bench и Terminal Bench. Это выражается в лучшей многотуровой генерации кода, формировании последовательностей команд и восстановлении в агентных средах.
  • «Vibe coding» / качество фронтенд‑вывода: Улучшено качество UI/макетов по умолчанию для сгенерированных HTML, слайдов и презентаций (более чистые макеты, размеры, лучшие визуальные пресеты).
  • Рабочие процессы с длинным контекстом: Окно контекста 200K токенов и инструменты для кэширования контекста; практично для многофайловых кодовых баз, длинных документов и многократных агентных сессий.

Производительность на бенчмарках

По данным издателя/сопровождающих GLM-4.7 и сводных таблиц сообщества, отмечается существенный прирост относительно GLM-4.6 и конкурентные результаты по сравнению с другими современными моделями в задачах кодирования, агентных сценариев и использования инструментов. Выборочные показатели (источник: официальные таблицы Hugging Face / Z.AI):

  • LiveCodeBench-v6 (бенчмарк агентного кодинга): 84.9 (заявлен SOTA среди open-source).
  • SWE-bench Verified (кодинг): 73.8% (вверх с 68.0% у GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% против GLM-4.6).
  • Terminal Bench 2.0 (агентные действия в терминале): 41.0% (значительное +16.5% по сравнению с 4.6).
  • HLE (сложное рассуждение с инструментами): 42.8% при использовании инструментов (сообщается о большом улучшении относительно предыдущих версий).
  • τ²-Bench (интерактивный вызов инструментов): 87.4 (сообщается об SOTA среди open-source).

Типичные варианты использования и примеры сценариев

  • Агентные ассистенты по кодингу: Автономная или полуавтономная генерация кода, многотуровые исправления, автоматизация терминала и скрипты CI/CD.
  • Агенты, управляемые инструментами: Веб‑браузинг, оркестрация API, многошаговые рабочие процессы (поддерживаются сохранённое мышление и вызов функций).
  • Генерация фронтенда и UI: Автоматическое каркасирование сайтов, презентации, постеры с улучшенной эстетикой и макетами.
  • Исследования и задачи с длинным контекстом: Резюмирование документов, синтез литературы и RAG по длинным документам (окно 200k помогает).
  • Интерактивные образовательные агенты/тьюторы по кодингу: Многотуровое обучение с сохранением рассуждений, запоминающее предыдущие блоки хода мыслей на протяжении сессии.

Как получить доступ и использовать GLM 4.7 API

Шаг 1: Зарегистрируйте ключ API

Войдите на cometapi.com. Если вы ещё не являетесь нашим пользователем, сначала зарегистрируйтесь. Авторизуйтесь в вашей консоли CometAPI. Получите учётные данные — ключ API интерфейса. Нажмите «Add Token» в разделе токена API в личном кабинете, получите ключ токена: sk-xxxxx и отправьте.

Шаг 2: Отправьте запросы к API MiniMax M2.1

Выберите конечную точку «glm-4.7», чтобы отправить запрос к API, и задайте тело запроса. Метод запроса и тело запроса берутся из документации API на нашем сайте. Наш сайт также предоставляет тест Apifox для вашего удобства. Замените <YOUR_API_KEY> на ваш фактический ключ CometAPI из аккаунта. Где вызывать: API в стиле Чат.

Вставьте ваш вопрос или запрос в поле content — именно на него модель и ответит. Обработайте ответ API, чтобы получить сгенерированный ответ.

Шаг 3: Извлечение и проверка результатов

Обработайте ответ API, чтобы получить сгенерированный ответ. После обработки API отвечает статусом задачи и

Функции для GLM-4.7

Изучите ключевые функции GLM-4.7, разработанные для повышения производительности и удобства использования. Узнайте, как эти возможности могут принести пользу вашим проектам и улучшить пользовательский опыт.

Цены для GLM-4.7

Изучите конкурентоспособные цены на GLM-4.7, разработанные для различных бюджетов и потребностей использования. Наши гибкие планы гарантируют, что вы платите только за то, что используете, что упрощает масштабирование по мере роста ваших требований. Узнайте, как GLM-4.7 может улучшить ваши проекты, сохраняя при этом управляемые расходы.
Цена Comet (USD / M Tokens)Официальная цена (USD / M Tokens)Скидка
Ввод:$0.96/M
Вывод:$3.84/M
Ввод:$1.2/M
Вывод:$4.8/M
-20%

Пример кода и API для GLM-4.7

Получите доступ к исчерпывающим примерам кода и ресурсам API для GLM-4.7, чтобы упростить процесс интеграции. Наша подробная документация предоставляет пошаговые инструкции, помогая вам использовать весь потенциал GLM-4.7 в ваших проектах.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Больше моделей