Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Indtast:$0.96/M
Output:$3.84/M
Kontekst:200K
Maks Output:128K
GLM-4.7 er Z.AI’s nyeste flagskibsmodel, med opgraderinger på to centrale områder: forbedrede programmeringsevner og mere stabil flertrinsræsonnering og udførelse. Den demonstrerer betydelige forbedringer i udførelsen af komplekse agentopgaver, samtidig med at den leverer mere naturlige samtaleoplevelser og overlegen front-end-æstetik.
Ny
Kommersiel brug
Playground
Oversigt
Funktioner
Priser
API

Hvad GLM-4.7 er

GLM-4.7 er Z.ai / Zhipu AIs nyeste flagskibs-åbne grundmodel, en stor sprogmodel (modelnavn glm-4.7). Den er positioneret som en udviklerorienteret “thinking”-model med særlige forbedringer i kodning/agentisk opgaveudførelse, flertrinsræsonnement, værktøjskald og arbejdsgange med lang kontekst. Udgivelsen fremhæver håndtering af stor kontekst (op til 200K kontekstvindue), højt maksimalt output (op til 128K tokens) og specialiserede “thinking”-tilstande til agentiske pipelines.

Hovedfunktioner

  • Agentiske / værktøjsbrugsforbedringer: Indbyggede “thinking”-tilstande (“Interleaved Thinking”, “Preserved Thinking”, styring på tur-niveau) lader modellen “tænke før den handler”, bevare ræsonnement på tværs af ture og være mere stabil ved kald af værktøjer eller udførelse af flertrinsopgaver. Dette er målrettet robuste agent-arbejdsgange (terminaler, værktøjskæder, webbrowsing).
  • Kodnings- og terminalkompetence: Betydelige forbedringer på kode-benchmarks og terminalautomatiseringsopgaver — leverandørbenchmarks viser klare gevinster vs GLM-4.6 i SWE-bench og Terminal Bench-metrics. Dette omsættes til bedre kodegenerering over flere ture, kommando-sekventering og recovery i agentmiljøer.
  • “Vibe coding” / frontend-outputkvalitet: Forbedret standard-UI/-layoutkvalitet for genereret HTML, slides og præsentationer (renere layouts, størrelsesindstillinger, bedre visuelle standardindstillinger).
  • Arbejdsgange med lang kontekst: 200K token-kontekstvindue og værktøjer til kontekstcaching; praktisk til kodebaser med mange filer, lange dokumenter og agent-sessioner over flere runder.

Benchmark-ydelse

GLM-4.7s udgiver/maintainere og fællesskabets benchmarktabeller rapporterer betydelige gevinster vs GLM-4.6 og konkurrencedygtige resultater mod andre samtidige modeller på kodning, agentik og værktøjsbrug. Udvalgte tal (kilde: officielle Hugging Face-/Z.AI-offentliggjorte tabeller):

  • LiveCodeBench-v6 (coding agent benchmark): 84.9 (open-source SOTA citeret).
  • SWE-bench Verified (kodning): 73.8% (op fra 68.0% i GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% vs GLM-4.6).
  • Terminal Bench 2.0 (agentiske terminalhandlinger): 41.0% (markant +16.5% forbedring over 4.6).
  • HLE (komplekst ræsonnement med værktøjer): 42.8% ved brug med værktøjer (stor forbedring rapporteret vs tidligere versioner).
  • τ²-Bench (interaktivt værktøjskald): 87.4 (rapporteret open-source SOTA).

Typiske anvendelser og eksempelscenarier

  • Agentiske kodeassistenter: Autonom eller semi-autonom kodegenerering, kodekorrektion over flere ture, terminalautomatisering og CI/CD-scripting.
  • Værktøjsdrevne agenter: Webbrowsing, API-orkestrering, flertrins arbejdsgange (understøttet af bevaret ræsonnement og funktionskald).
  • Front-end og UI-generering: Automatisk opbygning af website-skelet, slidedecks, plakater med forbedret æstetik og layout.
  • Forskning og opgaver med lang kontekst: Dokumentsummering, litteratursyntese og retrieval-forstærket generering på tværs af lange dokumenter (200K token-vinduet er nyttigt her).
  • Interaktive undervisningsagenter / kodeundervisere: Vejledning over flere ture med bevaret ræsonnement, der husker tidligere ræsonnementblokke gennem en session.

Sådan får du adgang til og bruger GLM 4.7 API

Trin 1: Tilmeld dig for at få en API-nøgle

Log ind på cometapi.com. Hvis du ikke er bruger endnu, skal du registrere dig først. Log ind på din CometAPI console. Hent grænsefladens adgangslegitimations-API-nøgle. Klik på “Add Token” ved API-token i det personlige center, få token-nøglen: sk-xxxxx og indsend.

Trin 2: Send forespørgsler til MiniMax M2.1 API

Vælg “glm-4.7”-endpointet for at sende API-forespørgslen og angive request body. Forespørgselsmetoden og request body er hentet fra vores websteds API-dokumentation. Vores websted tilbyder også Apifox-test for din bekvemmelighed. Erstat <YOUR_API_KEY> med din faktiske CometAPI-nøgle fra din konto. Hvor det kaldes: Chat-stil-API'er.

Indsæt dit spørgsmål eller din anmodning i content-feltet — det er dette, modellen svarer på. Behandl API-svaret for at få det genererede svar.

Trin 3: Hent og verificer resultater

Behandl API-svaret for at få det genererede svar. Efter behandlingen svarer API'et med opgavens status og

Funktioner til GLM-4.7

Udforsk de vigtigste funktioner i GLM-4.7, designet til at forbedre ydeevne og brugervenlighed. Opdag hvordan disse muligheder kan gavne dine projekter og forbedre brugeroplevelsen.

Priser for GLM-4.7

Udforsk konkurrencedygtige priser for GLM-4.7, designet til at passe til forskellige budgetter og brugsbehov. Vores fleksible planer sikrer, at du kun betaler for det, du bruger, hvilket gør det nemt at skalere, efterhånden som dine krav vokser. Opdag hvordan GLM-4.7 kan forbedre dine projekter, mens omkostningerne holdes håndterbare.
Comet-pris (USD / M Tokens)Officiel Pris (USD / M Tokens)Rabat
Indtast:$0.96/M
Output:$3.84/M
Indtast:$1.2/M
Output:$4.8/M
-20%

Eksempelkode og API til GLM-4.7

Få adgang til omfattende eksempelkode og API-ressourcer for GLM-4.7 for at strømline din integrationsproces. Vores detaljerede dokumentation giver trin-for-trin vejledning, der hjælper dig med at udnytte det fulde potentiale af GLM-4.7 i dine projekter.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Flere modeller