Hvad GLM-4.7 er
GLM-4.7 er Z.ai / Zhipu AI’s nyeste flagskibs open‑foundation store sprogmodel (modelnavn glm-4.7). Den er positioneret som en udviklerorienteret “tænkende” model med særlige forbedringer i kodning/agentiske opgaveudførelser, flertrins‑ræsonnement, værktøjskald og arbejdsgange med lang kontekst. Udgivelsen fremhæver håndtering af stor kontekst (op til 200K kontekst), høj maksimal output (op til 128K tokens) og specialiserede “thinking”-tilstande til agent‑pipelines.
Hovedfunktioner
- Agentiske / værktøjsbrug‑forbedringer: Indbyggede tænkemåder (“Interleaved Thinking”, “Preserved Thinking”, kontrol på tur‑niveau), så modellen kan “tænke før den handler”, bevare ræsonnement på tværs af omgange og være mere stabil ved værktøjskald eller udførelse af flertrinsopgaver. Dette sigter mod robuste agent‑arbejdsgange (terminaler, værktøjskæder, webbrowsing).
- Kodnings‑ og terminalkompetence: Betydelige forbedringer på kodningsbenchmarks og terminalautomatiseringsopgaver — leverandør‑benchmarks viser klare gevinster vs GLM-4.6 på SWE-bench og Terminal Bench‑målinger. Dette omsættes til bedre fleromgangs‑kodegenerering, kommandosekvensering og genopretning i agentmiljøer.
- “Vibe coding” / kvaliteten af frontend‑output: Forbedret standard‑UI/layoutkvalitet for genereret HTML, slides og præsentationer (renere layouts, størrelsessætning, bedre visuelle standarder).
- Arbejdsgange med lang kontekst: 200K token‑kontekstvindue og værktøjer til kontekst‑caching; praktisk til kodebaser med flere filer, lange dokumenter og fleromgangs agent‑sessioner.
Benchmark‑ydelse
GLM-4.7’s udgivere/vedligeholdere og community‑benchmarktabeller rapporterer markante gevinster vs GLM-4.6 og konkurrencedygtige resultater mod andre samtidige modeller på kodnings-, agentiske- og værktøjsbrugsopgaver. Udvalgte tal (kilde: officielle Hugging Face / Z.AI offentliggjorte tabeller):
- LiveCodeBench-v6 (benchmark for kodeagent): 84.9 (open source SOTA anført).
- SWE-bench Verified (kodning): 73.8% (op fra 68.0% i GLM-4.6).
- SWE-bench Multilingual: 66.7% (+12.9% vs GLM-4.6).
- Terminal Bench 2.0 (agentiske terminalhandlinger): 41.0% (bemærkelsesværdig +16.5% forbedring over 4.6).
- HLE (komplekst ræsonnement med værktøjer): 42.8% ved brug med værktøjer (stor forbedring rapporteret vs tidligere versioner).
- τ²-Bench (interaktivt værktøjskald): 87.4 (rapporteret open source SOTA).
Typiske anvendelser og eksempelscenarier
- Agent‑baserede kodeassistenter: Autonom eller semi‑autonom kodegenerering, fleromgangs‑kodereparationer, terminalautomatisering og CI/CD‑scripting.
- Værktøjsdrevne agenter: Webbrowsing, API‑orkestrering, flertrins‑arbejdsgange (understøttet af Preserved Thinking & funktionskald).
- Frontend‑ og UI‑generering: Automatisk opbygning af websites, slides og plakater med forbedret æstetik og layout.
- Forskning og opgaver med lang kontekst: Dokumentsammenfatning, litteratursyntese og retrieval‑forstærket generering på tværs af lange dokumenter (200k token‑vindue er nyttigt her).
- Interaktive læringsagenter / kodeundervisere: Fleromgangs‑vejledning med bevaret ræsonnement, der husker tidligere ræsonnementblokke gennem en session.
Sådan får du adgang til og bruger GLM 4.7 API
Trin 1: Tilmeld dig for at få en API‑nøgle
Log ind på cometapi.com. Hvis du ikke er bruger endnu, skal du først registrere dig. Log ind på din CometAPI console. Hent API‑adgangsnøglen til interfacet. Klik på “Add Token” ved API‑tokenet i det personlige center, få token‑nøglen: sk-xxxxx og indsend.
Trin 2: Send forespørgsler til MiniMax M2.1 API
Vælg “glm-4.7”‑endpointet for at sende API‑forespørgslen og angiv anmodnings‑body. Anmodningsmetode og anmodnings‑body findes i vores websteds API‑dokumentation. Vores websted tilbyder også Apifox‑test for din bekvemmelighed. Erstat <YOUR_API_KEY> med din faktiske CometAPI‑nøgle fra din konto. Hvor det kaldes: Chat-style APIs.
Indsæt dit spørgsmål eller din anmodning i content‑feltet — det er det, modellen vil svare på. Behandl API‑svaret for at få det genererede svar.
Trin 3: Hent og verificer resultater
Behandl API‑svaret for at få det genererede svar. Efter behandlingen svarer API’et med opgavestatus og


