Wat GLM-4.7 is
GLM-4.7 is het nieuwste vlaggenschip open-foundation large language model van Z.ai / Zhipu AI (modelnaam glm-4.7). Het is gepositioneerd als een ontwikkelaarsgericht “thinking”-model met specifieke verbeteringen in coderen/agentische taakuitvoering, meerstapsredenering, toolaanroepen en workflows met lange context. De release benadrukt verwerking van grote contexten (tot 200K context), een hoge maximale output (tot 128K tokens) en gespecialiseerde “thinking”-modi voor agentische pipelines.
Belangrijkste functies
- Verbeteringen in agentisch / toolgebruik: Ingebouwde thinking-modi (“Interleaved Thinking”, “Preserved Thinking”, besturing op turn-niveau) zodat het model kan “denken voordat het handelt”, redenering tussen turns kan behouden en stabieler is bij het aanroepen van tools of het uitvoeren van meerstapstaken. Dit is gericht op robuuste agent-workflows (terminals, toolketens, webbrowseren).
- Competentie in coderen en terminalgebruik: Aanzienlijke verbeteringen op coding-benchmarks en terminalautomatiseringstaken — benchmarkresultaten van de leverancier tonen duidelijke vooruitgang ten opzichte van GLM-4.6 in SWE-bench- en Terminal Bench-metrics. Dit vertaalt zich naar betere codegeneratie over meerdere turns, commandosequencing en herstel in agentomgevingen.
- “Vibe coding” / kwaliteit van frontend-output: Verbeterde standaardkwaliteit van UI/layout voor gegenereerde HTML, slides en presentaties (strakkere layouts, betere afmetingen, betere visuele standaarden).
- Workflows met lange context: Contextvenster van 200K tokens en tools voor contextcaching; praktisch voor codebases met meerdere bestanden, lange documenten en agent-sessies over meerdere rondes.
Benchmarkprestaties
De uitgever/maintainers van GLM-4.7 en benchmarktabellen uit de community rapporteren aanzienlijke verbeteringen ten opzichte van GLM-4.6 en concurrerende resultaten ten opzichte van andere hedendaagse modellen op taken rond coderen, agentisch gedrag en toolgebruik. Geselecteerde cijfers (bron: officiële gepubliceerde tabellen van Hugging Face / Z.AI):
- LiveCodeBench-v6 (benchmark voor coding-agents): 84.9 (genoemde open-source SOTA).
- SWE-bench Verified (coderen): 73.8% (omhoog vanaf 68.0% in GLM-4.6).
- SWE-bench Multilingual: 66.7% (+12.9% ten opzichte van GLM-4.6).
- Terminal Bench 2.0 (agentische terminalacties): 41.0% (opmerkelijke verbetering van +16.5% ten opzichte van 4.6).
- HLE (complexe redenering met tools): 42.8% bij gebruik met tools (grote verbetering gerapporteerd ten opzichte van eerdere versies).
- τ²-Bench (interactieve toolaanroepen): 87.4 (gerapporteerde open-source SOTA).
Typische use-cases en voorbeeldscenario’s
- Agentische coding-assistenten: Autonome of semi-autonome codegeneratie, codefixes over meerdere turns, terminalautomatisering en CI/CD-scripting.
- Toolgestuurde agents: Webbrowseren, API-orkestratie, meerstapsworkflows (ondersteund door preserved thinking en function calling).
- Frontend- en UI-generatie: Automatisch opzetten van websites, slide-decks, posters met verbeterde esthetiek en layout.
- Onderzoek en taken met lange context: Samenvatting van documenten, synthese van literatuur en retrieval-augmented generation over lange documenten heen (het venster van 200k tokens is hierbij nuttig).
- Interactieve educatieve agents / coding-tutors: Tutoring over meerdere turns met behouden redenering die eerdere redeneerblokken gedurende een sessie onthoudt.
Hoe je de GLM 4.7 API kunt openen en gebruiken
Stap 1: Meld je aan voor een API-sleutel
Log in op cometapi.com. Als je nog geen gebruiker bent, registreer je dan eerst. Meld je aan bij je CometAPI-console. Verkrijg de toegangssleutel API key van de interface. Klik in het persoonlijke centrum bij de API-token op “Add Token”, verkrijg de token key: sk-xxxxx en verstuur deze.
Stap 2: Verstuur verzoeken naar de MiniMax M2.1 API
Selecteer het endpoint “glm-4.7” om het API-verzoek te versturen en stel de request body in. De requestmethode en request body zijn beschikbaar in onze API-documentatie op de website. Onze website biedt voor je gemak ook een Apifox-test. Vervang <YOUR_API_KEY> door je werkelijke CometAPI-sleutel uit je account. Waar je deze aanroept: API’s in Chat-stijl.
Voeg je vraag of verzoek in het veld content in — hierop zal het model reageren. Verwerk de API-respons om het gegenereerde antwoord te verkrijgen.
Stap 3: Resultaten ophalen en verifiëren
Verwerk de API-respons om het gegenereerde antwoord te verkrijgen. Na verwerking geeft de API de taakstatus en


