Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Ingresso:$0.96/M
Uscita:$3.84/M
Contesto:200K
Uscita Massima:128K
GLM-4.7 è l'ultimo modello di punta di Z.AI, con miglioramenti in due aree chiave: capacità di programmazione potenziate e un ragionamento/esecuzione a più passaggi più stabile. Dimostra miglioramenti significativi nell'esecuzione di attività complesse basate su agenti, offrendo al contempo esperienze conversazionali più naturali e un'estetica del front-end superiore.
Nuovo
Uso commerciale
Playground
Panoramica
Caratteristiche
Prezzi
API

Che cos'è GLM-4.7

GLM-4.7 è il più recente modello linguistico di grandi dimensioni open‑foundation di Z.ai / Zhipu AI (nome modello glm-4.7). È posizionato come un modello “di pensiero” orientato agli sviluppatori, con particolari miglioramenti in esecuzione di compiti di coding/agentici, ragionamento multi‑passo, invocazione di strumenti e workflow con contesti lunghi. La release enfatizza la gestione di grandi contesti (fino a 200K di contesto), un output massimo elevato (fino a 128K token) e modalità di “pensiero” specializzate per pipeline agentiche.

Caratteristiche principali

  • Miglioramenti agentici/uso degli strumenti: Modalità di ragionamento integrate (“Interleaved Thinking”, “Preserved Thinking”, controllo a livello di turno) per consentire al modello di “pensare prima di agire”, mantenere il ragionamento tra i turni ed essere più stabile quando chiama strumenti o esegue compiti multi‑passo. Pensato per workflow di agenti robusti (terminali, catene di strumenti, navigazione web).
  • Competenza in coding e terminale: Notevoli miglioramenti nei benchmark di coding e nelle attività di automazione da terminale — i benchmark del fornitore mostrano chiari guadagni rispetto a GLM-4.6 nelle metriche SWE-bench e Terminal Bench. Questo si traduce in una migliore generazione di codice multi‑turno, sequenziamento dei comandi e capacità di recovery in ambienti agentici.
  • “Vibe coding” / qualità dell’output front‑end: Migliore qualità predefinita di UI/layout per HTML, slide e presentazioni generate (layout più puliti, dimensionamento, valori predefiniti visivi migliori).
  • Workflow con contesti lunghi: Finestra di contesto da 200K token e strumenti per la cache del contesto; pratico per codebase multi‑file, documenti lunghi e sessioni di agenti multi‑round.

Prestazioni nei benchmark

Le tabelle di benchmark dei publisher/maintainer e della community riportano guadagni sostanziali rispetto a GLM-4.6 e risultati competitivi rispetto ad altri modelli contemporanei su compiti di coding, agentici e di utilizzo degli strumenti. Numeri selezionati (fonte: tabelle ufficiali pubblicate su Hugging Face / Z.AI):

  • LiveCodeBench-v6 (benchmark per agenti di coding): 84,9 (SOTA open-source citata).
  • SWE-bench Verified (coding): 73,8% (in aumento da 68,0% in GLM-4.6).
  • SWE-bench Multilingual: 66,7% (+12,9% vs GLM-4.6).
  • Terminal Bench 2.0 (azioni agentiche da terminale): 41,0% (notevole +16,5% rispetto alla 4.6).
  • HLE (ragionamento complesso con strumenti): 42,8% quando usato con strumenti (grande miglioramento rispetto alle versioni precedenti).
  • τ²-Bench (invocazione interattiva di strumenti): 87,4 (SOTA open-source riportata).

Casi d'uso tipici e scenari di esempio

  • Assistenti di coding agentici: Generazione di codice autonoma o semi‑autonoma, correzioni multi‑turno, automazione del terminale e scripting CI/CD.
  • Agenti guidati da strumenti: Navigazione web, orchestrazione di API, workflow multi‑passo (supportati da preserved thinking e function calling).
  • Generazione front‑end e UI: Creazione automatica di scaffolding di siti web, slide, poster con estetica e layout migliorati.
  • Ricerca e compiti a lungo contesto: Sintesi di letteratura, riassunto di documenti e generazione potenziata dal recupero su documenti lunghi (la finestra da 200k token è utile qui).
  • Agenti educativi interattivi / tutor di coding: Tutoraggio multi‑turno con ragionamento preservato che ricorda i blocchi di ragionamento precedenti lungo la sessione.

Come accedere e usare l'API di GLM 4.7

Passaggio 1: Registrati per ottenere una chiave API

Accedi a cometapi.com. Se non sei ancora nostro utente, registrati prima. Accedi alla tua console CometAPI. Ottieni la chiave API di credenziale di accesso dell’interfaccia. Fai clic su “Add Token” al token API nel centro personale, ottieni la chiave del token: sk-xxxxx e invia.

Passaggio 2: Invia richieste all'API MiniMax M2.1

Seleziona l’endpoint “glm-4.7” per inviare la richiesta API e imposta il body della richiesta. Il metodo e il body della richiesta si ottengono dalla documentazione API del nostro sito. Il nostro sito fornisce anche il test Apifox per la tua comodità. Sostituisci <YOUR_API_KEY> con la tua chiave CometAPI effettiva del tuo account. Dove chiamarlo: API in stile Chat.

Inserisci la tua domanda o richiesta nel campo content — è a questo che il modello risponderà. Elabora la risposta dell’API per ottenere la risposta generata.

Passaggio 3: Recupera e verifica i risultati

Elabora la risposta dell’API per ottenere la risposta generata. Dopo l’elaborazione, l’API risponde con lo stato dell’attività e

Funzionalità per GLM-4.7

Esplora le caratteristiche principali di GLM-4.7, progettato per migliorare le prestazioni e l'usabilità. Scopri come queste funzionalità possono beneficiare i tuoi progetti e migliorare l'esperienza utente.

Prezzi per GLM-4.7

Esplora i prezzi competitivi per GLM-4.7, progettato per adattarsi a vari budget e necessità di utilizzo. I nostri piani flessibili garantiscono che paghi solo per quello che usi, rendendo facile scalare man mano che i tuoi requisiti crescono. Scopri come GLM-4.7 può migliorare i tuoi progetti mantenendo i costi gestibili.
Prezzo Comet (USD / M Tokens)Prezzo Ufficiale (USD / M Tokens)Sconto
Ingresso:$0.96/M
Uscita:$3.84/M
Ingresso:$1.2/M
Uscita:$4.8/M
-20%

Codice di esempio e API per GLM-4.7

Accedi a codice di esempio completo e risorse API per GLM-4.7 per semplificare il tuo processo di integrazione. La nostra documentazione dettagliata fornisce una guida passo dopo passo, aiutandoti a sfruttare appieno il potenziale di GLM-4.7 nei tuoi progetti.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Altri modelli