ModellenOndersteuningOndernemingBlog
500+ AI Model API, Alles In Één API. Gewoon In CometAPI
Modellen API
Ontwikkelaar
Snelle StartDocumentatieAPI Dashboard
Bronnen
AI-modellenBlogOndernemingWijzigingslogboekOver ons
2025 CometAPI. Alle rechten voorbehouden.PrivacybeleidServicevoorwaarden
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Invoer:$0.96/M
Uitvoer:$3.84/M
Context:200K
Max Uitvoer:128K
GLM-4.7 is het nieuwste vlaggenschipmodel van Z.AI, met verbeteringen op twee kerngebieden: verbeterde programmeermogelijkheden en stabielere meerstapsredenering en -uitvoering. Het toont aanzienlijke verbeteringen bij het uitvoeren van complexe agenttaken, terwijl het meer natuurlijke gesprekservaringen en superieure front-end esthetiek biedt.
Nieuw
Commercieel gebruik
Playground
Overzicht
Functies
Prijzen
API

Wat GLM-4.7 is

GLM-4.7 is het nieuwste vlaggenschip open-foundation large language model van Z.ai / Zhipu AI (modelnaam glm-4.7). Het is gepositioneerd als een ontwikkelaarsgericht “thinking”-model met specifieke verbeteringen in coderen/agentische taakuitvoering, meerstapsredenering, toolaanroepen en workflows met lange context. De release benadrukt verwerking van grote contexten (tot 200K context), een hoge maximale output (tot 128K tokens) en gespecialiseerde “thinking”-modi voor agentische pipelines.

Belangrijkste functies

  • Verbeteringen in agentisch / toolgebruik: Ingebouwde thinking-modi (“Interleaved Thinking”, “Preserved Thinking”, besturing op turn-niveau) zodat het model kan “denken voordat het handelt”, redenering tussen turns kan behouden en stabieler is bij het aanroepen van tools of het uitvoeren van meerstapstaken. Dit is gericht op robuuste agent-workflows (terminals, toolketens, webbrowseren).
  • Competentie in coderen en terminalgebruik: Aanzienlijke verbeteringen op coding-benchmarks en terminalautomatiseringstaken — benchmarkresultaten van de leverancier tonen duidelijke vooruitgang ten opzichte van GLM-4.6 in SWE-bench- en Terminal Bench-metrics. Dit vertaalt zich naar betere codegeneratie over meerdere turns, commandosequencing en herstel in agentomgevingen.
  • “Vibe coding” / kwaliteit van frontend-output: Verbeterde standaardkwaliteit van UI/layout voor gegenereerde HTML, slides en presentaties (strakkere layouts, betere afmetingen, betere visuele standaarden).
  • Workflows met lange context: Contextvenster van 200K tokens en tools voor contextcaching; praktisch voor codebases met meerdere bestanden, lange documenten en agent-sessies over meerdere rondes.

Benchmarkprestaties

De uitgever/maintainers van GLM-4.7 en benchmarktabellen uit de community rapporteren aanzienlijke verbeteringen ten opzichte van GLM-4.6 en concurrerende resultaten ten opzichte van andere hedendaagse modellen op taken rond coderen, agentisch gedrag en toolgebruik. Geselecteerde cijfers (bron: officiële gepubliceerde tabellen van Hugging Face / Z.AI):

  • LiveCodeBench-v6 (benchmark voor coding-agents): 84.9 (genoemde open-source SOTA).
  • SWE-bench Verified (coderen): 73.8% (omhoog vanaf 68.0% in GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% ten opzichte van GLM-4.6).
  • Terminal Bench 2.0 (agentische terminalacties): 41.0% (opmerkelijke verbetering van +16.5% ten opzichte van 4.6).
  • HLE (complexe redenering met tools): 42.8% bij gebruik met tools (grote verbetering gerapporteerd ten opzichte van eerdere versies).
  • τ²-Bench (interactieve toolaanroepen): 87.4 (gerapporteerde open-source SOTA).

Typische use-cases en voorbeeldscenario’s

  • Agentische coding-assistenten: Autonome of semi-autonome codegeneratie, codefixes over meerdere turns, terminalautomatisering en CI/CD-scripting.
  • Toolgestuurde agents: Webbrowseren, API-orkestratie, meerstapsworkflows (ondersteund door preserved thinking en function calling).
  • Frontend- en UI-generatie: Automatisch opzetten van websites, slide-decks, posters met verbeterde esthetiek en layout.
  • Onderzoek en taken met lange context: Samenvatting van documenten, synthese van literatuur en retrieval-augmented generation over lange documenten heen (het venster van 200k tokens is hierbij nuttig).
  • Interactieve educatieve agents / coding-tutors: Tutoring over meerdere turns met behouden redenering die eerdere redeneerblokken gedurende een sessie onthoudt.

Hoe je de GLM 4.7 API kunt openen en gebruiken

Stap 1: Meld je aan voor een API-sleutel

Log in op cometapi.com. Als je nog geen gebruiker bent, registreer je dan eerst. Meld je aan bij je CometAPI-console. Verkrijg de toegangssleutel API key van de interface. Klik in het persoonlijke centrum bij de API-token op “Add Token”, verkrijg de token key: sk-xxxxx en verstuur deze.

Stap 2: Verstuur verzoeken naar de MiniMax M2.1 API

Selecteer het endpoint “glm-4.7” om het API-verzoek te versturen en stel de request body in. De requestmethode en request body zijn beschikbaar in onze API-documentatie op de website. Onze website biedt voor je gemak ook een Apifox-test. Vervang <YOUR_API_KEY> door je werkelijke CometAPI-sleutel uit je account. Waar je deze aanroept: API’s in Chat-stijl.

Voeg je vraag of verzoek in het veld content in — hierop zal het model reageren. Verwerk de API-respons om het gegenereerde antwoord te verkrijgen.

Stap 3: Resultaten ophalen en verifiëren

Verwerk de API-respons om het gegenereerde antwoord te verkrijgen. Na verwerking geeft de API de taakstatus en

Functies voor GLM-4.7

<think> 用户要求我将英文文本翻译成荷兰语(Nederlands)。我需要注意: 1. 保持格式和特殊字符(如{} 变量占位符) 2. 技术术语保持准确性 3. 保持语气和风格 4. UI文本要简洁明了 5. 只返回翻译文本,不要添加解释 6. 不要添加任何前缀或说明 原文是: "Explore the key features of GLM-4.7, designed to enhance performance and usability. Discover how these capabilities can benefit your projects and improve user experience." 这看起来是产品或技术介绍的文本,需要翻译成荷兰语。我需要保持GLM-4.7这个占位符不变。 让我翻译: - Explore = Ontdek/Verken - key features = belangrijkste functies/eigenschappen - designed to enhance = ontworpen om te verbeteren - performance = prestaties - usability = bruikbaarheid - Discover = Ontdek - capabilities = mogelijkheden - benefit = ten goede komen/voordeel opleveren - projects = projecten - improve = verbeteren - user experience = gebruikerservaring 翻译: Ontdek de belangrijkste functies van GLM-4.7, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring kunnen verbeteren. 不过"Ontdek"出现了两次,可能需要调整一下: Verken de belangrijkste functies van GLM-4.7, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring kunnen verbeteren. I'll explore how these capabilities can positively impact your projects and optimize the user experience. </think> Verken de belangrijkste functies van GLM-4.7, ontworpen om prestaties en bruikbaarheid te verbeteren. Ontdek hoe deze mogelijkheden uw projecten ten goede kunnen komen en de gebruikerservaring verbeteren.

Prijzen voor GLM-4.7

Ontdek concurrerende prijzen voor GLM-4.7, ontworpen om te passen bij verschillende budgetten en gebruiksbehoeften. Onze flexibele abonnementen zorgen ervoor dat u alleen betaalt voor wat u gebruikt, waardoor het gemakkelijk is om op te schalen naarmate uw vereisten groeien. Ontdek hoe GLM-4.7 uw projecten kan verbeteren terwijl de kosten beheersbaar blijven.
Comet Prijs (USD / M Tokens)Officiële Prijs (USD / M Tokens)Korting
Invoer:$0.96/M
Uitvoer:$3.84/M
Invoer:$1.2/M
Uitvoer:$4.8/M
-20%

Voorbeeldcode en API voor GLM-4.7

Krijg toegang tot uitgebreide voorbeeldcode en API-bronnen voor GLM-4.7 om uw integratieproces te stroomlijnen. Onze gedetailleerde documentatie biedt stapsgewijze begeleiding en helpt u het volledige potentieel van GLM-4.7 in uw projecten te benutten.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Meer modellen

A

Claude Opus 4.6

Invoer:$4/M
Uitvoer:$20/M
Claude Opus 4.6 is het “Opus”-klasse grote taalmodel van Anthropic, uitgebracht in februari 2026. Het is gepositioneerd als een werkpaard voor kenniswerk en onderzoekswerkstromen — met verbeteringen in redeneren over lange contexten, planning in meerdere stappen, het gebruik van tools (waaronder agentische softwareworkflows), en computertaken zoals het automatisch genereren van dia’s en spreadsheets.
A

Claude Sonnet 4.6

Invoer:$2.4/M
Uitvoer:$12/M
Claude Sonnet 4.6 is ons meest capabele Sonnet-model tot nu toe. Het is een volledige upgrade van de vaardigheden van het model op het gebied van coderen, computergebruik, redeneren met lange context, agentplanning, kenniswerk en ontwerp. Sonnet 4.6 biedt daarnaast een contextvenster van 1M tokens in bèta.
O

GPT-5.4 nano

Invoer:$0.16/M
Uitvoer:$1/M
GPT-5.4 nano is ontworpen voor taken waarbij snelheid en kosten het belangrijkst zijn, zoals classificatie, data-extractie, ranking en subagenten.
O

GPT-5.4 mini

Invoer:$0.6/M
Uitvoer:$3.6/M
GPT-5.4 mini brengt de sterke punten van GPT-5.4 naar een sneller en efficiënter model dat is ontworpen voor grootschalige workloads.
A

Claude Mythos Preview

A

Claude Mythos Preview

Binnenkort beschikbaar
Invoer:$60/M
Uitvoer:$240/M
Claude Mythos Preview is ons meest capabele frontiermodel tot nu toe en laat een opmerkelijke sprong in scores zien op veel evaluatiebenchmarks vergeleken met ons vorige frontiermodel, Claude Opus 4.6.
X

mimo-v2-pro

Invoer:$0.8/M
Uitvoer:$2.4/M
MiMo-V2-Pro is het vlaggenschipfoundationmodel van Xiaomi, met meer dan 1T totale parameters en een contextlengte van 1M, diepgaand geoptimaliseerd voor agent-gebaseerde scenario's. Het is zeer goed aanpasbaar aan algemene agentframeworks zoals OpenClaw. Het behoort tot de wereldtop in de standaardbenchmarks PinchBench en ClawBench, met een waargenomen prestatieniveau dat dat van Opus 4.6 benadert. MiMo-V2-Pro is ontworpen om te fungeren als het brein van agentsystemen, complexe workflows te orkestreren, productie-engineeringtaken aan te sturen en resultaten betrouwbaar te leveren.

Gerelateerde blogs

GLM-5 vs GLM-4.7: wat is er veranderd, wat is belangrijk, en moet je upgraden?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: wat is er veranderd, wat is belangrijk, en moet je upgraden?

GLM-5, uitgebracht op 11 februari 2026 door Zhipu AI (Z.ai), vormt een grote sprong in de architectuur ten opzichte van GLM-4.7: grotere MoE-schaal (≈744B vs ~355B totale parameters), hogere capaciteit aan actieve parameters, lager gemeten hallucinatieniveau en duidelijke verbeteringen op agentic- en coding-benchmarks — tegen de prijs van hogere inferentiecomplexiteit en (soms) latentie.
Hoe gebruik je GLM-4.7-Flash lokaal?
Jan 21, 2026
glm-4-7
glm-4-7

Hoe gebruik je GLM-4.7-Flash lokaal?

GLM-4.7-Flash is een lichtgewicht, hoogpresterend 30B A3B MoE-lid van de GLM-4.7-familie, ontworpen om lokale en betaalbare uitrol voor coderen, agentische workflows en algemeen redeneren mogelijk te maken. Je kunt het lokaal op drie praktische manieren uitvoeren: (1) via Ollama (eenvoudige, beheerde lokale runtime), (2) via Hugging Face / Transformers / vLLM / SGLang (GPU-first serveruitrol), of (3) via GGUF + llama.cpp / llama-cpp-python (CPU/edge-vriendelijk).
GLM-4.7 is uitgebracht: wat betekent dit voor AI  intelligentie?
Dec 23, 2025
glm-4-7

GLM-4.7 is uitgebracht: wat betekent dit voor AI intelligentie?

Op 22 december 2025 bracht Zhipu AI (Z.ai) officieel GLM-4.7 uit, de nieuwste iteratie in zijn General Language Model (GLM)-familie — waarmee het wereldwijd aandacht trok binnen de wereld van open-source AI-modellen. Dit model verbetert niet alleen de mogelijkheden bij programmeer- en redeneertaken, maar daagt in belangrijke benchmarks ook de dominantie van propriëtaire modellen zoals GPT-5.2 en Claude Sonnet 4.5 uit.