Hvad GLM-4.7 er
GLM-4.7 er Z.ai / Zhipu AIs nyeste flagskibs-åbne grundmodel, en stor sprogmodel (modelnavn glm-4.7). Den er positioneret som en udviklerorienteret “thinking”-model med særlige forbedringer i kodning/agentisk opgaveudførelse, flertrinsræsonnement, værktøjskald og arbejdsgange med lang kontekst. Udgivelsen fremhæver håndtering af stor kontekst (op til 200K kontekstvindue), højt maksimalt output (op til 128K tokens) og specialiserede “thinking”-tilstande til agentiske pipelines.
Hovedfunktioner
- Agentiske / værktøjsbrugsforbedringer: Indbyggede “thinking”-tilstande (“Interleaved Thinking”, “Preserved Thinking”, styring på tur-niveau) lader modellen “tænke før den handler”, bevare ræsonnement på tværs af ture og være mere stabil ved kald af værktøjer eller udførelse af flertrinsopgaver. Dette er målrettet robuste agent-arbejdsgange (terminaler, værktøjskæder, webbrowsing).
- Kodnings- og terminalkompetence: Betydelige forbedringer på kode-benchmarks og terminalautomatiseringsopgaver — leverandørbenchmarks viser klare gevinster vs GLM-4.6 i SWE-bench og Terminal Bench-metrics. Dette omsættes til bedre kodegenerering over flere ture, kommando-sekventering og recovery i agentmiljøer.
- “Vibe coding” / frontend-outputkvalitet: Forbedret standard-UI/-layoutkvalitet for genereret HTML, slides og præsentationer (renere layouts, størrelsesindstillinger, bedre visuelle standardindstillinger).
- Arbejdsgange med lang kontekst: 200K token-kontekstvindue og værktøjer til kontekstcaching; praktisk til kodebaser med mange filer, lange dokumenter og agent-sessioner over flere runder.
Benchmark-ydelse
GLM-4.7s udgiver/maintainere og fællesskabets benchmarktabeller rapporterer betydelige gevinster vs GLM-4.6 og konkurrencedygtige resultater mod andre samtidige modeller på kodning, agentik og værktøjsbrug. Udvalgte tal (kilde: officielle Hugging Face-/Z.AI-offentliggjorte tabeller):
- LiveCodeBench-v6 (coding agent benchmark): 84.9 (open-source SOTA citeret).
- SWE-bench Verified (kodning): 73.8% (op fra 68.0% i GLM-4.6).
- SWE-bench Multilingual: 66.7% (+12.9% vs GLM-4.6).
- Terminal Bench 2.0 (agentiske terminalhandlinger): 41.0% (markant +16.5% forbedring over 4.6).
- HLE (komplekst ræsonnement med værktøjer): 42.8% ved brug med værktøjer (stor forbedring rapporteret vs tidligere versioner).
- τ²-Bench (interaktivt værktøjskald): 87.4 (rapporteret open-source SOTA).
Typiske anvendelser og eksempelscenarier
- Agentiske kodeassistenter: Autonom eller semi-autonom kodegenerering, kodekorrektion over flere ture, terminalautomatisering og CI/CD-scripting.
- Værktøjsdrevne agenter: Webbrowsing, API-orkestrering, flertrins arbejdsgange (understøttet af bevaret ræsonnement og funktionskald).
- Front-end og UI-generering: Automatisk opbygning af website-skelet, slidedecks, plakater med forbedret æstetik og layout.
- Forskning og opgaver med lang kontekst: Dokumentsummering, litteratursyntese og retrieval-forstærket generering på tværs af lange dokumenter (200K token-vinduet er nyttigt her).
- Interaktive undervisningsagenter / kodeundervisere: Vejledning over flere ture med bevaret ræsonnement, der husker tidligere ræsonnementblokke gennem en session.
Sådan får du adgang til og bruger GLM 4.7 API
Trin 1: Tilmeld dig for at få en API-nøgle
Log ind på cometapi.com. Hvis du ikke er bruger endnu, skal du registrere dig først. Log ind på din CometAPI console. Hent grænsefladens adgangslegitimations-API-nøgle. Klik på “Add Token” ved API-token i det personlige center, få token-nøglen: sk-xxxxx og indsend.
Trin 2: Send forespørgsler til MiniMax M2.1 API
Vælg “glm-4.7”-endpointet for at sende API-forespørgslen og angive request body. Forespørgselsmetoden og request body er hentet fra vores websteds API-dokumentation. Vores websted tilbyder også Apifox-test for din bekvemmelighed. Erstat <YOUR_API_KEY> med din faktiske CometAPI-nøgle fra din konto. Hvor det kaldes: Chat-stil-API'er.
Indsæt dit spørgsmål eller din anmodning i content-feltet — det er dette, modellen svarer på. Behandl API-svaret for at få det genererede svar.
Trin 3: Hent og verificer resultater
Behandl API-svaret for at få det genererede svar. Efter behandlingen svarer API'et med opgavens status og