ModellerSupportVirksomhedBlog
500+ AI Model API, Alt I Én API. Kun I CometAPI
Modeller API
Udvikler
Hurtig StartDokumentationAPI Dashboard
Ressourcer
AI-modellerBlogVirksomhedÆndringslogOm os
2025 CometAPI. Alle rettigheder forbeholdes.PrivatlivspolitikServicevilkår
Home/Models/Zhipu AI/GLM 4.6
Z

GLM 4.6

Indtast:$0.96/M
Output:$3.84/M
Kontekst:200,000
Maks Output:128,000
Zhipus nyeste flagskibsmodel GLM-4.6 lanceret: samlede parametre 355B, aktive parametre 32B. De samlede kernekapaciteter overgår GLM-4.5. Kodning: På niveau med Claude Sonnet 4, bedst i Kina. Kontekst: Udvidet til 200K (oprindeligt 128K). Inferens: Forbedret, understøtter Tool-kald. Søgning: Optimeret Tool- og agentrammeværk. Skrivning: Bedre afstemt med menneskelige præferencer, skrivestil og rollespil. Flersproget: Forbedret oversættelseseffekt.
Ny
Kommersiel brug
Playground
Oversigt
Funktioner
Priser
API

GLM-4.6 er den seneste store udgivelse i Z.ai’s (tidligere Zhipu AI) GLM-familie: en 4. generation, stor-sproglig MoE (Mixture-of-Experts) model optimeret til agentbaserede arbejdsgange, lang-kontekst ræsonnering og praktisk kodning. Udgivelsen lægger vægt på praktisk agent-/værktøjsintegration, et meget stort kontekstvindue og tilgængelighed af åbne vægte til lokal udrulning.

Nøglefunktioner

  • Lang kontekst — indbygget kontekstvindue på 200K tokens (udvidet fra 128K). (docs.z.ai)
  • Kodning og agentbaserede kapaciteter — markedsførte forbedringer på kodningsopgaver i virkelige scenarier og bedre værktøjskald for agenter.
  • Effektivitet — rapporteret ~30% lavere tokenforbrug end GLM-4.5 i Z.ai’s tests.
  • Udrulning og kvantisering — først annonceret FP8- og Int4-integration for Cambricon-chips; indfødt FP8-understøttelse på Moore Threads via vLLM.
  • Modelstørrelse og tensortype — offentliggjorte artefakter indikerer en ~357B-parameter model (BF16 / F32-tensorer) på Hugging Face.

Tekniske detaljer

Modaliteter og formater. GLM-4.6 er en kun tekst LLM (input- og outputmodaliteter: tekst). Kontekstlængde = 200K tokens; maks. output = 128K tokens.

Kvantisering og hardwareunderstøttelse. Teamet rapporterer FP8/Int4-kvantisering på Cambricon-chips og indfødt FP8-eksekvering på Moore Threads-GPU’er med vLLM til inferens — vigtigt for at sænke inferensomkostninger og muliggøre on-prem og indenlandske cloud-udrulninger.

Værktøjer og integrationer. GLM-4.6 distribueres via Z.ai’s API, tredjepartsleverandørnetværk (f.eks. CometAPI), og er integreret i kodningsagenter (Claude Code, Cline, Roo Code, Kilo Code).

Tekniske detaljer

Modaliteter og formater. GLM-4.6 er en kun tekst LLM (input- og outputmodaliteter: tekst). Kontekstlængde = 200K tokens; maks. output = 128K tokens.

Kvantisering og hardwareunderstøttelse. Teamet rapporterer FP8/Int4-kvantisering på Cambricon-chips og indfødt FP8-eksekvering på Moore Threads-GPU’er med vLLM til inferens — vigtigt for at sænke inferensomkostninger og muliggøre on-prem og indenlandske cloud-udrulninger.

Værktøjer og integrationer. GLM-4.6 distribueres via Z.ai’s API, tredjepartsleverandørnetværk (f.eks. CometAPI), og er integreret i kodningsagenter (Claude Code, Cline, Roo Code, Kilo Code).

Benchmark-ydeevne

  • Offentliggjorte evalueringer: GLM-4.6 blev testet på otte offentlige benchmarks, der dækker agenter, ræsonnering og kodning, og viser tydelige forbedringer over GLM-4.5. På menneskeevaluerede, virkelighedsnære kodningstests (udvidet CC-Bench) bruger GLM-4.6 ~15% færre tokens end GLM-4.5 og opnår en ~48.6% sejrsrate mod Anthropics Claude Sonnet 4 (næsten på niveau på mange ranglister).
  • Positionering: resultaterne hævder, at GLM-4.6 er konkurrencedygtig med førende nationale og internationale modeller (eksempler omfatter DeepSeek-V3.1 og Claude Sonnet 4).

billede

Begrænsninger og risici

  • Hallucinationer og fejl: som alle nuværende LLM’er kan og vil GLM-4.6 lave faktuelle fejl — Z.ai’s dokumentation advarer eksplicit om, at outputs kan indeholde fejl. Brugere bør anvende verifikation og retrieval/RAG for kritisk indhold.
  • Modelkompleksitet og driftsomkostninger: 200K kontekst og meget store outputs øger markant kravene til hukommelse og latenstid og kan hæve inferensomkostninger; kvantisering/inferens-ingeniørarbejde er nødvendigt for drift i skala.
  • Domænegab: selv om GLM-4.6 rapporterer stærk agent-/kodningsperformance, påpeger nogle offentlige rapporter, at den stadig haleter efter visse versioner af konkurrerende modeller i specifikke mikrobenchmarks (f.eks. nogle kodningsmålinger vs Sonnet 4.5). Vurder pr. opgave før udskiftning af produktionsmodeller.
  • Sikkerhed og politik: åbne vægte øger tilgængeligheden, men rejser også forvaltningsspørgsmål (afværgeforanstaltninger, guardrails og red-teaming er fortsat brugerens ansvar).

Anvendelsesområder

  • Agentbaserede systemer og værktøjsorkestrering: lange agentspor, planlægning på tværs af flere værktøjer, dynamisk værktøjskald; modellens agentbaserede tuning er et centralt salgsargument.
  • Kodningsassistenter til virkelige opgaver: multi-turn kodegenerering, kodegennemgang og interaktive IDE-assistenter (integreret i Claude Code, Cline, Roo Code—ifølge Z.ai). Forbedringer i tokeneffektivitet gør den attraktiv til udviklerplaner med høj brug.
  • Arbejdsgange for lange dokumenter: opsummering, syntese på tværs af flere dokumenter, lange juridiske/tekniske gennemgange takket være 200K-vinduet.
  • Indholdsskabelse og virtuelle karakterer: udvidede dialoger, konsistent opretholdelse af persona i multi-turn-scenarier.

Hvordan GLM-4.6 sammenlignes med andre modeller

  • GLM-4.5 → GLM-4.6: markant løft i kontekststørrelse (128K → 200K) og tokeneffektivitet (~15% færre tokens på CC-Bench); forbedret agent-/værktøjsbrug.
  • GLM-4.6 vs Claude Sonnet 4 / Sonnet 4.5: Z.ai rapporterer næsten paritet på flere ranglister og en ~48.6% sejrsrate på CC-Benchs virkelige kodningsopgaver (dvs. tæt konkurrence, med nogle mikrobenchmarks hvor Sonnet stadig fører). For mange ingeniørteams er GLM-4.6 positioneret som et omkostningseffektivt alternativ.
  • GLM-4.6 vs andre lang-kontekst-modeller (DeepSeek, Gemini-varianter, GPT-4-familien): GLM-4.6 fremhæver stor kontekst og agentbaserede kodningsarbejdsgange; relative styrker afhænger af metrik (tokeneffektivitet/agentintegration vs rå kode-syntesenøjagtighed eller sikkerhedspipelines). Empirisk udvælgelse bør være opgave-drevet.

Zhipu AI’s nyeste flagskibsmodel GLM-4.6 er udgivet: 355B samlede parametre, 32B aktive. Overgår GLM-4.5 i alle kernekapaciteter.

  • Kodning: På niveau med Claude Sonnet 4, bedst i Kina.
  • Kontekst: Udvidet til 200K (fra 128K).
  • Ræsonnering: Forbedret, understøtter værktøjskald under inferens.
  • Søgning: Forbedret værktøjskald og agentperformance.
  • Skrivning: Bedre tilpasning til menneskelige præferencer i stil, læsbarhed og rollespil.
  • Multisproglig: Forbedret oversættelse på tværs af sprog.

FAQ

What are the context window and output limits for GLM-4-6?

GLM-4-6 supports a 200,000 token context window (extended from 128K in GLM-4.5) with up to 128,000 output tokens, enabling extensive document analysis and long-form generation.

How does GLM-4-6 compare to Claude Sonnet 4 in coding?

According to Zhipu, GLM-4-6's coding capabilities align with Claude Sonnet 4, making it the best coding model among Chinese domestic models.

Does GLM-4-6 support tool calling and agent workflows?

Yes, GLM-4-6 features improved inference capabilities with enhanced Tool calls support and an optimized agent framework for complex multi-step task automation.

What is the architecture of GLM-4-6?

GLM-4-6 is a Mixture-of-Experts model with 355B total parameters and 32B active parameters, balancing capability with efficiency.

What makes GLM-4-6 different from GLM-4.5?

GLM-4-6 offers extended context (200K vs 128K), improved reasoning and tool calling, enhanced writing aligned with human preferences, better multilingual translation, and optimized role-playing.

Is GLM-4-6 suitable for enterprise Chinese language applications?

Yes, GLM-4-6 is particularly strong for Chinese language tasks including translation, content writing, and conversational AI, with enhanced multilingual capabilities.

When should I choose GLM-4-6 over GPT-5.2 or Claude?

Choose GLM-4-6 for Chinese-first applications, cost-effective 200K context needs, or when you need a strong domestic AI alternative with coding capabilities comparable to frontier models.

Funktioner til GLM 4.6

Udforsk de vigtigste funktioner i GLM 4.6, designet til at forbedre ydeevne og brugervenlighed. Opdag hvordan disse muligheder kan gavne dine projekter og forbedre brugeroplevelsen.

Priser for GLM 4.6

Udforsk konkurrencedygtige priser for GLM 4.6, designet til at passe til forskellige budgetter og brugsbehov. Vores fleksible planer sikrer, at du kun betaler for det, du bruger, hvilket gør det nemt at skalere, efterhånden som dine krav vokser. Opdag hvordan GLM 4.6 kan forbedre dine projekter, mens omkostningerne holdes håndterbare.
Comet-pris (USD / M Tokens)Officiel Pris (USD / M Tokens)Rabat
Indtast:$0.96/M
Output:$3.84/M
Indtast:$1.2/M
Output:$4.8/M
-20%

Eksempelkode og API til GLM 4.6

GLM-4.6 er den seneste større udgivelse i Z.ai’s (tidligere Zhipu AI) GLM-familie: en 4.-generations stor sprogmodel med MoE (Mixture-of-Experts), tunet til agentbaserede arbejdsgange, ræsonnering over lange kontekster og kodning i den virkelige verden. Udgivelsen lægger vægt på praktisk agent-/værktøjsintegration, et meget stort kontekstvindue og tilgængelighed af åbne vægte til lokal udrulning.
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="glm-4.6",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await openai.chat.completions.create({
  model: "glm-4.6",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" },
  ],
});

console.log(completion.choices[0].message.content);

Curl Code Example

curl https://api.cometapi.com/v1/chat/completions \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "glm-4.6",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
}'

Flere modeller

A

Claude Opus 4.6

Indtast:$4/M
Output:$20/M
Claude Opus 4.6 er Anthropic’s "Opus"-klasse store sprogmodel, lanceret i februar 2026. Den er positioneret som en arbejdshest til vidensarbejde og forskningsarbejdsgange — med forbedret langkontekstuel ræsonnering, flertrinsplanlægning, brug af værktøjer (herunder agent-baserede softwarearbejdsgange) og computeropgaver såsom automatiseret generering af slides og regneark.
A

Claude Sonnet 4.6

Indtast:$2.4/M
Output:$12/M
Claude Sonnet 4.6 er vores hidtil mest kapable Sonnet-model. Det er en fuld opgradering af modellens færdigheder på tværs af kodning, computerbrug, langkontekstlig ræsonnering, agentplanlægning, vidensarbejde og design. Sonnet 4.6 har også et kontekstvindue på 1M tokens i beta.
O

GPT-5.4 nano

Indtast:$0.16/M
Output:$1/M
GPT-5.4 nano er designet til opgaver, hvor hastighed og omkostninger er vigtigst, såsom klassificering, dataudtræk, rangering og subagenter.
O

GPT-5.4 mini

Indtast:$0.6/M
Output:$3.6/M
GPT-5.4 mini samler styrkerne fra GPT-5.4 i en hurtigere og mere effektiv model, der er designet til arbejdsbelastninger i stor skala.
A

Claude Mythos Preview

A

Claude Mythos Preview

Kommer snart
Indtast:$60/M
Output:$240/M
Claude Mythos Preview er vores hidtil mest kapable frontier-model og viser et markant spring i resultaterne på tværs af mange benchmark-tests sammenlignet med vores tidligere frontier-model, Claude Opus 4.6.
X

mimo-v2-pro

Indtast:$0.8/M
Output:$2.4/M
MiMo-V2-Pro er Xiaomis flagskibs-grundmodel med over 1T samlede parametre og en kontekstlængde på 1M, dybt optimeret til agentbaserede scenarier. Den er meget tilpasningsdygtig til generelle agent-rammeværk som OpenClaw. Den placerer sig blandt den globale top i de standardiserede PinchBench- og ClawBench-benchmarks, med en oplevet ydeevne, der nærmer sig Opus 4.6. MiMo-V2-Pro er designet til at fungere som hjernen i agent-systemer, orkestrere komplekse arbejdsgange, håndtere produktionsingeniøropgaver og levere pålidelige resultater.

Relaterede blogs

GLM-4.7 frigivet: Hvad betyder dette for AI-intelligens?
Dec 23, 2025
glm-4-7

GLM-4.7 frigivet: Hvad betyder dette for AI-intelligens?

Den 22. december 2025 lancerede Zhipu AI (Z.ai) officielt GLM-4.7, den nyeste iteration i sin General Language Model (GLM)-familie — hvilket tiltrak global opmærksomhed i verdenen af open source-AI-modeller. Denne model forbedrer ikke blot evnerne inden for programmering og ræsonnementsopgaver, men udfordrer også dominansen af proprietære modeller som GPT-5.2 og Claude Sonnet 4.5 på vigtige benchmarks.