ModelliSupportoAziendaBlog
500+ API di Modelli AI, Tutto In Una Sola API. Solo In CometAPI
API dei Modelli
Sviluppatore
Avvio RapidoDocumentazioneDashboard API
Risorse
Modelli di Intelligenza ArtificialeBlogAziendaRegistro delle modificheChi siamo
2025 CometAPI. Tutti i diritti riservati.Informativa sulla PrivacyTermini di Servizio
Home/Models/Zhipu AI/GLM-4.7
Z

GLM-4.7

Ingresso:$0.96/M
Uscita:$3.84/M
Contesto:200K
Uscita Massima:128K
GLM-4.7 è l'ultimo modello di punta di Z.AI, con miglioramenti in due aree chiave: capacità di programmazione potenziate e un ragionamento/esecuzione a più passaggi più stabile. Dimostra miglioramenti significativi nell'esecuzione di attività complesse basate su agenti, offrendo al contempo esperienze conversazionali più naturali e un'estetica del front-end superiore.
Nuovo
Uso commerciale
Playground
Panoramica
Caratteristiche
Prezzi
API

Che cos'è GLM-4.7

GLM-4.7 è l’ultimo modello linguistico di grandi dimensioni open‑foundation di Z.ai / Zhipu AI (nome del modello glm-4.7). È posizionato come un modello “di ragionamento” orientato agli sviluppatori, con miglioramenti specifici nell’esecuzione di compiti di coding/agentici, nel ragionamento multi‑step, nell’invocazione di strumenti e nei workflow a contesto lungo. Il rilascio enfatizza la gestione di contesti ampi (fino a 200K di contesto), un output massimo elevato (fino a 128K token) e modalità di “ragionamento” specializzate per pipeline agentiche.

Caratteristiche principali

  • Miglioramenti agentici / nell’uso degli strumenti: Modalità di ragionamento integrate (“Interleaved Thinking”, “Preserved Thinking”, controllo a livello di turno) per consentire al modello di “pensare prima di agire”, mantenere il ragionamento tra i turni ed essere più stabile quando chiama strumenti o esegue compiti multi‑step. Questo è pensato per workflow agentici robusti (terminali, catene di strumenti, navigazione web).
  • Competenza in coding e terminale: Miglioramenti significativi nei benchmark di coding e nei compiti di automazione del terminale — i benchmark del fornitore mostrano chiari guadagni rispetto a GLM-4.6 nelle metriche SWE-bench e Terminal Bench. Questo si traduce in una migliore generazione di codice multi‑turno, sequenziamento dei comandi e ripristino in ambienti agentici.
  • “Vibe coding” / qualità dell’output frontend: Qualità predefinita migliorata per UI/layout in HTML, slide e presentazioni generate (layout più puliti, dimensionamento, impostazioni visive predefinite migliori).
  • Workflow a contesto lungo: Finestra di contesto da 200K token e strumenti per il caching del contesto; pratico per codebase multi‑file, documenti lunghi e sessioni agentiche multi‑round.

Prestazioni nei benchmark

Le tabelle dei benchmark dei publisher/manutentori di GLM-4.7 e della community riportano guadagni sostanziali rispetto a GLM-4.6 e risultati competitivi rispetto ad altri modelli contemporanei in compiti di coding, agentici e di utilizzo degli strumenti. Numeri selezionati (fonte: tabelle ufficiali pubblicate su Hugging Face / Z.AI):

  • LiveCodeBench-v6 (benchmark per agenti di coding): 84.9 (citato come SOTA open‑source).
  • SWE-bench Verified (coding): 73.8% (in aumento da 68.0% in GLM-4.6).
  • SWE-bench Multilingual: 66.7% (+12.9% rispetto a GLM-4.6).
  • Terminal Bench 2.0 (azioni agentiche sul terminale): 41.0% (notevole miglioramento di +16.5% rispetto alla 4.6).
  • HLE (ragionamento complesso con strumenti): 42.8% quando usato con strumenti (riportato grande miglioramento rispetto alle versioni precedenti).
  • τ²-Bench (invocazione interattiva di strumenti): 87.4 (SOTA open‑source riportato).

Casi d’uso tipici e scenari di esempio

  • Assistenti di coding agentici: Generazione di codice autonoma o semi‑autonoma, correzioni di codice multi‑turno, automazione del terminale e scripting CI/CD.
  • Agenti basati su strumenti: Navigazione web, orchestrazione di API, workflow multi‑step (supportati da ragionamento preservato e chiamata di funzioni).
  • Generazione front‑end e UI: Impalcatura automatica di siti web, deck di slide, poster con estetica e layout migliorati.
  • Ricerca e compiti a contesto lungo: Riassunto di documenti, sintesi della letteratura e generazione con recupero aumentato su documenti lunghi (qui è utile la finestra da 200k token).
  • Agenti educativi interattivi / tutor di coding: Tutoraggio multi‑turno con ragionamento preservato che ricorda i blocchi di ragionamento precedenti nel corso della sessione.

Come accedere e utilizzare l’API di GLM 4.7

Passaggio 1: Registrarsi per una chiave API

Accedi a cometapi.com. Se non sei ancora nostro utente, registrati prima. Accedi alla tua console CometAPI. Ottieni la chiave API delle credenziali di accesso dell’interfaccia. Fai clic su “Add Token” nel token API nel centro personale, ottieni la chiave del token: sk-xxxxx e invia.

Passaggio 2: Inviare richieste all’API MiniMax M2.1

Seleziona l’endpoint “glm-4.7” per inviare la richiesta API e imposta il corpo della richiesta. Il metodo e il corpo della richiesta sono disponibili nella documentazione API sul nostro sito web. Il nostro sito fornisce anche test Apifox per tua comodità. Sostituisci <YOUR_API_KEY> con la tua chiave CometAPI effettiva del tuo account. Dove chiamarlo: API in stile Chat.

Inserisci la tua domanda o richiesta nel campo content — è a questo che il modello risponderà. Elabora la risposta dell’API per ottenere la risposta generata.

Passaggio 3: Recuperare e verificare i risultati

Elabora la risposta dell’API per ottenere la risposta generata. Dopo l’elaborazione, l’API restituisce lo stato dell’attività e

Funzionalità per GLM-4.7

Esplora le caratteristiche principali di GLM-4.7, progettato per migliorare le prestazioni e l'usabilità. Scopri come queste funzionalità possono beneficiare i tuoi progetti e migliorare l'esperienza utente.

Prezzi per GLM-4.7

Esplora i prezzi competitivi per GLM-4.7, progettato per adattarsi a vari budget e necessità di utilizzo. I nostri piani flessibili garantiscono che paghi solo per quello che usi, rendendo facile scalare man mano che i tuoi requisiti crescono. Scopri come GLM-4.7 può migliorare i tuoi progetti mantenendo i costi gestibili.
Prezzo Comet (USD / M Tokens)Prezzo Ufficiale (USD / M Tokens)Sconto
Ingresso:$0.96/M
Uscita:$3.84/M
Ingresso:$1.2/M
Uscita:$4.8/M
-20%

Codice di esempio e API per GLM-4.7

Accedi a codice di esempio completo e risorse API per GLM-4.7 per semplificare il tuo processo di integrazione. La nostra documentazione dettagliata fornisce una guida passo dopo passo, aiutandoti a sfruttare appieno il potenziale di GLM-4.7 nei tuoi progetti.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
completion = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Hello! Tell me a short joke."}
    ]
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

// glm-4.7: Zhipu GLM-4.7 model via chat/completions
async function main() {
  const completion = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
  });

  console.log(completion.choices[0].message.content);
}

main().catch(console.error);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
COMETAPI_KEY="${COMETAPI_KEY:-<YOUR_COMETAPI_KEY>}"

# glm-4.7: Zhipu GLM-4.7 model via chat/completions
curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "glm-4.7",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }'

Altri modelli

A

Claude Opus 4.6

Ingresso:$4/M
Uscita:$20/M
Claude Opus 4.6 è il modello linguistico di grandi dimensioni di classe “Opus” di Anthropic, rilasciato nel febbraio 2026. È posizionato come un cavallo di battaglia per il lavoro della conoscenza e i flussi di lavoro di ricerca — migliorando il ragionamento con contesti estesi, la pianificazione in più fasi, l’uso di strumenti (inclusi i flussi di lavoro software basati su agenti) e le attività d’uso del computer, come la generazione automatizzata di diapositive e fogli di calcolo.
A

Claude Sonnet 4.6

Ingresso:$2.4/M
Uscita:$12/M
Claude Sonnet 4.6 è il nostro modello Sonnet più capace finora. È un aggiornamento completo delle capacità del modello in ambiti quali programmazione, uso del computer, ragionamento su contesti estesi, pianificazione degli agenti, lavoro basato sulla conoscenza e design. Sonnet 4.6 offre anche una finestra di contesto da 1M token in beta.
O

GPT-5.4 nano

Ingresso:$0.16/M
Uscita:$1/M
GPT-5.4 nano è progettato per attività in cui la velocità e il costo contano maggiormente, come classificazione, estrazione dei dati, ordinamento e sub-agenti.
O

GPT-5.4 mini

Ingresso:$0.6/M
Uscita:$3.6/M
GPT-5.4 mini porta i punti di forza di GPT-5.4 in un modello più veloce ed efficiente, progettato per carichi di lavoro ad alto volume.
A

Claude Mythos Preview

A

Claude Mythos Preview

Prossimamente
Ingresso:$60/M
Uscita:$240/M
Claude Mythos Preview è il nostro modello di frontiera più capace finora e mostra un balzo notevole nei punteggi su molti benchmark di valutazione rispetto al nostro precedente modello di frontiera, Claude Opus 4.6.
X

mimo-v2-pro

Ingresso:$0.8/M
Uscita:$2.4/M
MiMo-V2-Pro è il modello di base di punta di Xiaomi, con oltre 1T di parametri totali e una lunghezza del contesto di 1M, profondamente ottimizzato per scenari agentici. È altamente adattabile a framework per agenti generici come OpenClaw. Si colloca tra i migliori al mondo nei benchmark standard PinchBench e ClawBench, con prestazioni percepite che si avvicinano a quelle di Opus 4.6. MiMo-V2-Pro è progettato per fungere da cervello dei sistemi di agenti, orchestrando flussi di lavoro complessi, guidando attività di ingegneria in produzione e fornendo risultati in modo affidabile.

Blog correlati

GLM-5 vs GLM-4.7: cosa è cambiato, cosa conta e dovresti eseguire l'aggiornamento?
Feb 26, 2026
glm-5
glm-4-7

GLM-5 vs GLM-4.7: cosa è cambiato, cosa conta e dovresti eseguire l'aggiornamento?

GLM-5, rilasciato l'11 febbraio 2026 da Zhipu AI (Z.ai), rappresenta un grande salto architetturale rispetto a GLM-4.7: scala MoE più ampia (≈744B vs ~355B di parametri totali), maggiore capacità di parametri attivi, allucinazioni misurate inferiori e chiari miglioramenti nei benchmark per agenti e di programmazione — al costo di maggiore complessità di inferenza e (talvolta) latenza.
Come utilizzare GLM-4.7-Flash in locale?
Jan 21, 2026
glm-4-7
glm-4-7

Come utilizzare GLM-4.7-Flash in locale?

GLM-4.7-Flash è un modello 30B A3B MoE leggero e ad alte prestazioni della famiglia GLM-4.7, progettato per consentire la distribuzione locale e a basso costo per la programmazione, flussi di lavoro basati su agenti e ragionamento generale. Puoi eseguirlo in locale in tre modi pratici: (1) tramite Ollama (runtime locale semplice e gestito), (2) tramite Hugging Face / Transformers / vLLM / SGLang (distribuzione server orientata alla GPU), oppure (3) tramite GGUF + llama.cpp / llama-cpp-python (adatto a CPU/edge).
GLM-4.7 rilasciato: Che cosa significa per l’intelligenza dell’IA?
Dec 23, 2025
glm-4-7

GLM-4.7 rilasciato: Che cosa significa per l’intelligenza dell’IA?

Il 22 dicembre 2025, Zhipu AI (Z.ai) ha rilasciato ufficialmente GLM-4.7, l’iterazione più recente nella sua famiglia di modelli linguistici generali (GLM) — attirando l’attenzione globale nel mondo dei modelli di IA open source. Questo modello non solo migliora le capacità nelle attività di programmazione e di ragionamento, ma sfida anche il predominio dei modelli proprietari come GPT-5.2 e Claude Sonnet 4.5 nei benchmark chiave.