ModellerSupportVirksomhedBlog
500+ AI Model API, Alt I Én API. Kun I CometAPI
Modeller API
Udvikler
Hurtig StartDokumentationAPI Dashboard
Ressourcer
AI-modellerBlogVirksomhedÆndringslogOm os
2025 CometAPI. Alle rettigheder forbeholdes.PrivatlivspolitikServicevilkår
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Indtast:$0.96/M
Output:$3.84/M
Kontekst:200K
Maks Output:128K
GLM-4.7 er Z.AI’s nyeste flagskibsmodel, med opgraderinger på to centrale områder: forbedrede programmeringsevner og mere stabil flertrinsræsonnering og udførelse. Den demonstrerer betydelige forbedringer i udførelsen af komplekse agentopgaver, samtidig med at den leverer mere naturlige samtaleoplevelser og overlegen front-end-æstetik.
Ny
Kommersiel brug
Playground
Oversigt
Funktioner
Priser
API

Hvad GLM-4.7 er

GLM-4.7 er Z.ai / Zhipu AI’s nyeste flagskibs open‑foundation store sprogmodel (modelnavn glm-4.7). Den er positioneret som en udviklerorienteret “tænkende” model med særlige forbedringer i kodning/agentiske opgaveudførelser, flertrins‑ræsonnement, værktøjskald og arbejdsgange med lang kontekst. Udgivelsen fremhæver håndtering af stor kontekst (op til 200K kontekst), høj maksimal output (op til 128K tokens) og specialiserede “thinking”-tilstande til agent‑pipelines.

Hovedfunktioner

  • Agentiske / værktøjsbrug‑forbedringer: Indbyggede tænkemåder (“Interleaved Thinking”, “Preserved Thinking”, kontrol på tur‑niveau), så modellen kan “tænke før den handler”, bevare ræsonnement på tværs af omgange og være mere stabil ved værktøjskald eller udførelse af flertrinsopgaver. Dette sigter mod robuste agent‑arbejdsgange (terminaler, værktøjskæder, webbrowsing).
  • Kodnings‑ og terminalkompetence: Betydelige forbedringer på kodningsbenchmarks og terminalautomatiseringsopgaver — leverandør‑benchmarks viser klare gevinster vs GLM-4.6 på SWE-bench og Terminal Bench‑målinger. Dette omsættes til bedre fleromgangs‑kodegenerering, kommandosekvensering og genopretning i agentmiljøer.
  • “Vibe coding” / kvaliteten af frontend‑output: Forbedret standard‑UI/layoutkvalitet for genereret HTML, slides og præsentationer (renere layouts, størrelsessætning, bedre visuelle standarder).
  • Arbejdsgange med lang kontekst: 200K token‑kontekstvindue og værktøjer til kontekst‑caching; praktisk til kodebaser med flere filer, lange dokumenter og fleromgangs agent‑sessioner.

Benchmark‑ydelse

GLM-4.7’s udgivere/vedligeholdere og community‑benchmarktabeller rapporterer markante gevinster vs GLM-4.6 og konkurrencedygtige resultater mod andre samtidige modeller på kodnings-, agentiske- og værktøjsbrugsopgaver. Udvalgte tal (kilde: officielle Hugging Face / Z.AI offentliggjorte tabeller):

  • LiveCodeBench-v6 (benchmark for kodeagent): 84.9 (open source SOTA anført).
  • SWE-bench Verified (kodning): 73.8% (op fra 68.0% i GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% vs GLM-4.6).
  • Terminal Bench 2.0 (agentiske terminalhandlinger): 41.0% (bemærkelsesværdig +16.5% forbedring over 4.6).
  • HLE (komplekst ræsonnement med værktøjer): 42.8% ved brug med værktøjer (stor forbedring rapporteret vs tidligere versioner).
  • τ²-Bench (interaktivt værktøjskald): 87.4 (rapporteret open source SOTA).

Typiske anvendelser og eksempelscenarier

  • Agent‑baserede kodeassistenter: Autonom eller semi‑autonom kodegenerering, fleromgangs‑kodereparationer, terminalautomatisering og CI/CD‑scripting.
  • Værktøjsdrevne agenter: Webbrowsing, API‑orkestrering, flertrins‑arbejdsgange (understøttet af Preserved Thinking & funktionskald).
  • Frontend‑ og UI‑generering: Automatisk opbygning af websites, slides og plakater med forbedret æstetik og layout.
  • Forskning og opgaver med lang kontekst: Dokumentsammenfatning, litteratursyntese og retrieval‑forstærket generering på tværs af lange dokumenter (200k token‑vindue er nyttigt her).
  • Interaktive læringsagenter / kodeundervisere: Fleromgangs‑vejledning med bevaret ræsonnement, der husker tidligere ræsonnementblokke gennem en session.

Sådan får du adgang til og bruger GLM 4.7 API

Trin 1: Tilmeld dig for at få en API‑nøgle

Log ind på cometapi.com. Hvis du ikke er bruger endnu, skal du først registrere dig. Log ind på din CometAPI console. Hent API‑adgangsnøglen til interfacet. Klik på “Add Token” ved API‑tokenet i det personlige center, få token‑nøglen: sk-xxxxx og indsend.

Trin 2: Send forespørgsler til MiniMax M2.1 API

Vælg “glm-4.7”‑endpointet for at sende API‑forespørgslen og angiv anmodnings‑body. Anmodningsmetode og anmodnings‑body findes i vores websteds API‑dokumentation. Vores websted tilbyder også Apifox‑test for din bekvemmelighed. Erstat <YOUR_API_KEY> med din faktiske CometAPI‑nøgle fra din konto. Hvor det kaldes: Chat-style APIs.

Indsæt dit spørgsmål eller din anmodning i content‑feltet — det er det, modellen vil svare på. Behandl API‑svaret for at få det genererede svar.

Trin 3: Hent og verificer resultater

Behandl API‑svaret for at få det genererede svar. Efter behandlingen svarer API’et med opgavestatus og

Funktioner til GLM-4.7

Udforsk de vigtigste funktioner i GLM-4.7, designet til at forbedre ydeevne og brugervenlighed. Opdag hvordan disse muligheder kan gavne dine projekter og forbedre brugeroplevelsen.

Priser for GLM-4.7

Udforsk konkurrencedygtige priser for GLM-4.7, designet til at passe til forskellige budgetter og brugsbehov. Vores fleksible planer sikrer, at du kun betaler for det, du bruger, hvilket gør det nemt at skalere, efterhånden som dine krav vokser. Opdag hvordan GLM-4.7 kan forbedre dine projekter, mens omkostningerne holdes håndterbare.
Comet-pris (USD / M Tokens)Officiel Pris (USD / M Tokens)Rabat
Indtast:$0.96/M
Output:$3.84/M
Indtast:$1.2/M
Output:$4.8/M
-20%

Eksempelkode og API til GLM-4.7

Få adgang til omfattende eksempelkode og API-ressourcer for GLM-4.7 for at strømline din integrationsproces. Vores detaljerede dokumentation giver trin-for-trin vejledning, der hjælper dig med at udnytte det fulde potentiale af GLM-4.7 i dine projekter.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Flere modeller

A

Claude Opus 4.6

Indtast:$4/M
Output:$20/M
Claude Opus 4.6 er Anthropic’s "Opus"-klasse store sprogmodel, lanceret i februar 2026. Den er positioneret som en arbejdshest til vidensarbejde og forskningsarbejdsgange — med forbedret langkontekstuel ræsonnering, flertrinsplanlægning, brug af værktøjer (herunder agent-baserede softwarearbejdsgange) og computeropgaver såsom automatiseret generering af slides og regneark.
A

Claude Sonnet 4.6

Indtast:$2.4/M
Output:$12/M
Claude Sonnet 4.6 er vores hidtil mest kapable Sonnet-model. Det er en fuld opgradering af modellens færdigheder på tværs af kodning, computerbrug, langkontekstlig ræsonnering, agentplanlægning, vidensarbejde og design. Sonnet 4.6 har også et kontekstvindue på 1M tokens i beta.
O

GPT-5.4 nano

Indtast:$0.16/M
Output:$1/M
GPT-5.4 nano er designet til opgaver, hvor hastighed og omkostninger er vigtigst, såsom klassificering, dataudtræk, rangering og subagenter.
O

GPT-5.4 mini

Indtast:$0.6/M
Output:$3.6/M
GPT-5.4 mini samler styrkerne fra GPT-5.4 i en hurtigere og mere effektiv model, der er designet til arbejdsbelastninger i stor skala.
A

Claude Mythos Preview

A

Claude Mythos Preview

Kommer snart
Indtast:$60/M
Output:$240/M
Claude Mythos Preview er vores hidtil mest kapable frontier-model og viser et markant spring i resultaterne på tværs af mange benchmark-tests sammenlignet med vores tidligere frontier-model, Claude Opus 4.6.
X

mimo-v2-pro

Indtast:$0.8/M
Output:$2.4/M
MiMo-V2-Pro er Xiaomis flagskibs-grundmodel med over 1T samlede parametre og en kontekstlængde på 1M, dybt optimeret til agentbaserede scenarier. Den er meget tilpasningsdygtig til generelle agent-rammeværk som OpenClaw. Den placerer sig blandt den globale top i de standardiserede PinchBench- og ClawBench-benchmarks, med en oplevet ydeevne, der nærmer sig Opus 4.6. MiMo-V2-Pro er designet til at fungere som hjernen i agent-systemer, orkestrere komplekse arbejdsgange, håndtere produktionsingeniøropgaver og levere pålidelige resultater.

Relaterede blogs

GLM-5 vs GLM-4.7: hvad har ændret sig, hvad er vigtigt, og bør du opgradere?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: hvad har ændret sig, hvad er vigtigt, og bør du opgradere?

GLM-5, udgivet den 11. februar 2026 af Zhipu AI (Z.ai), udgør et stort arkitektonisk spring fra GLM-4.7: større MoE-skala (≈744B vs. ~355B samlede parametre), højere aktiv parameterkapacitet, lavere målt tendens til hallucinationer og klare forbedringer på agent- og kodningsbenchmarks — på bekostning af inferenskompleksitet og (til tider) latenstid.
Hvordan bruger man GLM-4.7-Flash lokalt?
Jan 21, 2026
glm-4-7
glm-4-7

Hvordan bruger man GLM-4.7-Flash lokalt?

GLM-4.7-Flash er et letvægts, højtydende 30B A3B MoE-medlem af GLM-4.7-familien, designet til at muliggøre lokal udrulning til lave omkostninger for kodning, agent-baserede arbejdsgange og generel ræsonnering. Du kan køre den lokalt på tre praktiske måder: (1) via Ollama (nemt, administreret lokalt kørselsmiljø), (2) via Hugging Face / Transformers / vLLM / SGLang (GPU-first serverudrulning), eller (3) via GGUF + llama.cpp / llama-cpp-python (egnet til CPU/edge).
GLM-4.7 frigivet: Hvad betyder dette for AI-intelligens?
Dec 23, 2025
glm-4-7

GLM-4.7 frigivet: Hvad betyder dette for AI-intelligens?

Den 22. december 2025 lancerede Zhipu AI (Z.ai) officielt GLM-4.7, den nyeste iteration i sin General Language Model (GLM)-familie — hvilket tiltrak global opmærksomhed i verdenen af open source-AI-modeller. Denne model forbedrer ikke blot evnerne inden for programmering og ræsonnementsopgaver, men udfordrer også dominansen af proprietære modeller som GPT-5.2 og Claude Sonnet 4.5 på vigtige benchmarks.