“Modalità di pensiero” (nota anche come pensiero esteso, pensiero o blocchi di pensiero) in Claude 4.5 è una modalità operativa esplicita e configurabile che istruisce il modello a dedicare un numero di token separato e con budget a generare un ragionamento interno, passo dopo passo (una “catena di pensiero”), prima di emettere la risposta finale. È progettata per migliorare le prestazioni in ragionamenti multi-step, coding complesso, workflow agentici e attività di ricerca, scambiando latenza e costo in token per una deliberazione interna più profonda. Claude 4.5 espone questa capacità a livello di Messages API con parametri espliciti (ad es., thinking / budget_tokens o un header di effort/“interleaved-thinking”), preserva e opzionalmente cifra i blocchi di pensiero per una successiva verifica o uso con strumenti, e introduce comportamenti di cache e contabilizzazione dei token che devi gestire quando costruisci carichi di lavoro in produzione.
Che cos’è Claude 4.5? (E quali modelli mi interessano?)
Claude 4.5 è l’ultimo set di modelli Claude rilasciati come aggiornamenti incrementali “4.5” (per esempio, Sonnet 4.5 e Opus 4.5). Sonnet 4.5 è posizionato come il miglior equilibrio tra intelligenza, coding e prestazioni agentiche per la maggior parte degli sviluppatori; Opus 4.5 si concentra su ragionamenti ad altissimo effort e preserva i blocchi di pensiero per migliorare la continuità multi-turn. Entrambi i modelli supportano le capacità di extended thinking di Claude, sebbene alcuni comportamenti (ad es., pensiero riassunto vs completo) varino in base al modello.
I miglioramenti prestazionali in Claude 4.5, in particolare in Sonnet 4.5, sono più evidenti nel benchmark SWE-bench Verified, che misura la capacità di un’IA di risolvere problemi reali su GitHub.
| Modello | Punteggio SWE-bench Verified | OSWorld (Uso del computer) |
|---|---|---|
| Claude 3.5 Sonnet | 49,0% | 42,2% |
| Claude 4.1 Opus | 67,6% | 55,0% |
| Claude 4.5 Sonnet (Thinking On) | 77,2% | 61,4% |
| GPT-5 (Medium Reasoning) | 65,0% | 52,0% |
Questi numeri indicano che Claude 4.5 non è solo migliore nello scrivere snippet; è significativamente più capace di navigare interi file system ed eseguire attività autonome senza intervento umano.
Perché conta
- Coding & agenti: Sonnet 4.5 mostra forti miglioramenti nei task software reali e nel lavoro di coding a lungo raggio—rendendolo una scelta naturale per generazione di codice, editing e flussi di agenti autonomi.
- Extended thinking & contesto: I modelli della famiglia Claude 4.5 sono costruiti per ragionare con grandi scratchpad interni (decine di migliaia di token o più), abilitando ragionamenti multi-step più profondi. Ciò cambia come progetti prompt, budget di token e interazioni con strumenti.
Che cos’è la Thinking Mode in Claude 4.5?
La Thinking Mode (formalmente “Extended Thinking”) è una funzionalità che consente al modello di “mostrare il proprio lavoro” a sé stesso prima di fornire un output finale. A differenza dei modelli standard che si impegnano immediatamente su una risposta, Claude 4.5 utilizza uno spazio di ragionamento dedicato per esplorare ipotesi multiple, identificare potenziali errori nella logica e affinare la strategia.
Anatomia di una risposta
In un’interazione standard, il modello riceve un prompt e inizia a generare la risposta. In Thinking Mode, la risposta è suddivisa in due blocchi distinti:
| Tipo di blocco | Visibilità | Scopo |
|---|---|---|
| Thinking Block | Nascosto (via API) o Compresso (UI) | Monologo interno del modello, pianificazione e autocritica. |
| Text Block | Visibile | La risposta finale, raffinata, fornita all’utente. |
Proprietà chiave della thinking mode
- Abilitazione su richiesta: Passi un oggetto
thinkingnella chiamata API come{"type":"enabled","budget_tokens":10000}per attivarla e dare al modello un budget di token interno per il ragionamento. - Budgeting:
budget_tokenslimita i token di ragionamento interni del modello. Più budget => potenziale di ragionamento più profondo ma costi e latenza maggiori. Nei modelli Claude 4, i token di pensiero vengono fatturati anche se ricevi solo una vista riassunta. - Riassunto e redazione: Per molti modelli Claude 4 l’utente vede una versione riassunta del contenuto di pensiero; alcuni ragionamenti interni possono essere redatti (crittografati) dai sistemi di safety e restituiti come
redacted_thinking. - Firme e verifica: I blocchi di pensiero includono una
signatureopaca utilizzata per la verifica quando si restituiscono blocchi di pensiero all’API (soprattutto necessario quando si usano strumenti). Tratta la firma come opaca — non tentare di analizzarla. - Pensiero interleaved con strumenti: Claude 4 supporta l’interleaving dei blocchi di pensiero con esecuzioni di strumenti (beta e flag-based in alcuni casi). Questo è potente per il lavoro agentico (esegui uno strumento, pensa, esegui un altro strumento, ecc.).
Per esempi pratici e i parametri più aggiornati, la documentazione Messages/Extended Thinking di Anthropic è il riferimento canonico.
Come la Messages API restituisce contenuti di pensiero
Pensiero riassunto vs completo; crittografia e firme
Diverse versioni dei modelli Claude gestiscono il pensiero in modo diverso: i modelli Claude 4 più recenti (come Sonnet/Opus 4.5) spesso restituiscono una vista pubblica riassunta del ragionamento interno mentre lo scratchpad completo può essere crittografato e disponibile solo tramite un campo signature (o blocchi redatti). Quando si utilizzano strumenti (o è necessario preservare lo stato interno tra chiamate a strumenti), devi passare i blocchi di pensiero all’API o utilizzare il meccanismo di firma descritto nei doc. Questo meccanismo aiuta a proteggere il ragionamento interno sensibile consentendo al contempo una sicura continuazione del processo di pensiero quando necessario.
Schema pratico di gestione
Uso di strumenti / continuazione: se la tua richiesta successiva deve continuare lo stesso stato interno (ad es., strumenti eseguiti sulla base del pensiero), includi il blocco di pensiero restituito o la firma quando richiami l’API, in modo che il modello possa decrittare e proseguire da dove si era fermato.
Request: invia thinking: {type: "enabled", budget_tokens: N}.
Response: potresti ricevere (a) un output pubblico riassunto, (b) una signature crittografata o un blocco redacted_thinking, oppure (c) entrambi.
CometAPI offre l’API di Claude 4.5 al 20% del prezzo ufficiale, e può anche essere chiamata usando le Anthropic Messages. Dovrai ottenere una chiave API prima di iniziare.
Esempio 1 — semplice curl (non in streaming) con thinking abilitata
curl https://api.cometapi.com/v1/messages \
-H "x-api-key: $CometAPI_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-5",
"max_tokens": 16000,
"thinking": {
"type": "enabled",
"budget_tokens": 10000
},
"messages": [
{"role": "user", "content": "Design a robust data validation strategy for CSV imports, show tests + code."}
]
}'
La risposta conterrà blocchi content. Ispeziona ogni blocco e preferisci i blocchi text per l’output finale; i blocchi thinking contengono il riepilogo dell’analisi interna del modello.
Esempio 2 — Python: richiesta, parsing di blocchi di pensiero e testo
import os, requests
API_KEY = os.environ["CometAPI_API_KEY"]
URL = "https://api.cometapi.com/v1/messages"
HEADERS = {
"x-api-key": API_KEY,
"anthropic-version": "2023-06-01",
"content-type": "application/json"
}
payload = {
"model": "claude-sonnet-4-5",
"max_tokens": 16000,
"thinking": {"type": "enabled", "budget_tokens": 8000},
"messages": [{"role": "user", "content": "Explain how to do property-based testing in Python; include example code."}]
}
r = requests.post(URL, headers=HEADERS, json=payload)
r.raise_for_status()
resp = r.json()
# Parse blocks
for block in resp.get("content", []):
if block.get("type") == "thinking":
thinking_summary = block.get("thinking")
print("=== THINKING (summary) ===")
print(thinking_summary[:1000]) # truncate for logs
print("signature:", block.get("signature")[:64], "...")
elif block.get("type") == "text":
print("=== FINAL TEXT ===")
print(block.get("text"))
Questo codice estrae e stampa il pensiero riassunto e la risposta finale. Se devi preservare la continuità nei flussi agentici multi-turn, includi i blocchi di pensiero non modificati nella successiva richiesta nell’array messages (vedi esempio successivo).
Esempio 3 — riuso dei blocchi di pensiero in un flusso multi-turn (pseudo Python)
# After initial response (resp above):
# Add the assistant message including the thinking block back into the conversation
assistant_message = {
"role": "assistant",
"content": resp["content"] # include raw content array (contains thinking + text blocks)
}
# Next user turn: ask follow-up and include previous assistant message
payload2 = {
"model": "claude-opus-4-5", # Opus preserves thinking blocks better across turns
"max_tokens": 20000,
"thinking": {"type": "enabled", "budget_tokens": 12000},
"messages": [
{"role": "user", "content": "Now adapt the validation logic for an avro pipeline."},
assistant_message
]
}
r2 = requests.post(URL, headers=HEADERS, json=payload2)
Preservare esattamente i blocchi di pensiero non modificati è fondamentale quando si usano strumenti integrati o workflow agentici lunghi. Opus 4.5 ha impostazioni predefinite migliorate per la preservazione e caching dei blocchi di pensiero.
Come fare streaming degli output di pensiero e mostrare il progresso in una UI?
Best practice per lo streaming
- Usa gli endpoint di streaming degli SDK (gli SDK Python/TypeScript hanno helper di stream). Per lavori di ragionamento lunghi o ad alto budget, lo streaming evita timeout HTTP e ti dà testo parziale mentre il modello elabora. Il codice tipico usa un iteratore su
text_stream(Python) o parsing di eventi (JS). - Aspettati flussi in due fasi a volte: il modello può prima produrre frammenti di ragionamento visibile, poi finalizzare con la risposta. Progetta la UI per gestire contenuti suddivisi e per mostrare stati “sto pensando…” vs risposta finale.
- Se l’API restituisce un
signature_deltaocontent_block_deltadurante lo streaming, acquisiscilo e allegalo alle chiamate successive come richiesto dalla specifica.
Se devi mostrare avanzamenti di ragionamento intermedi in una UI, fai lo stream della risposta. Il server emetterà eventi thinking_delta seguiti da eventi text_delta.
curl https://api.cometapi.com/v1/messages \
--header "x-api-key: $CometAPI_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data '{
"model": "claude-sonnet-4-5",
"max_tokens": 16000,
"stream": true,
"thinking": { "type": "enabled", "budget_tokens": 8000 },
"messages": [ { "role": "user", "content": "Walk me through debugging this failing unit test and propose fixes." } ]
}'
Quando si fa streaming, gestisci gli eventi content_block_start, content_block_delta (che includono thinking_delta e text_delta) e content_block_stop in ordine. Questo è il modo per mostrare il ragionamento passo dopo passo del modello mentre accade.
Come interagisce Claude Code con la thinking mode? (terminal + VS Code)
Claude Code è il terminale interattivo e agentico per il coding che integra la Messages API e i runner di strumenti. L’esperienza CLI/IDE espone il pensiero in due modi:
- Impostazioni globali / per sessione: Claude Code espone un pannello di impostazioni
/configper regolare il comportamento (come l’agente chiede permessi, se preservare i blocchi di pensiero, ecc.). Usa quella UI piuttosto che riscrivere JSON grezzo se vuoi modifiche comportamentali persistenti. - Selezione del modello e comandi CLI: Puoi scegliere
claude-sonnet-4-5oclaude-opus-4-5come modello attivo nel REPL; gli strumenti e il comportamento del pensiero seguono le semantiche della Messages API. Il CHANGELOG e le note di rilascio indicano che il pensiero ora è abilitato di default per alcune distribuzioni Opus 4.5 e che la configurazione del pensiero è visibile tramite/config.
Flusso pratico in Claude Code:
- Avvia un progetto nel REPL.
- Usa
/configper ispezionare i flag relativi al pensiero (preservazione, verbosità, ecc.). - Chiedi all’agente di eseguire un compito lungo — produrrà contenuti di pensiero e, se necessario, chiederà il permesso di eseguire specifici passaggi bash. Preserva i blocchi di pensiero quando devi verificare o ri-eseguire decisioni in seguito.
Installazione e Setup
Claude Code richiede Node.js e può essere installato globalmente.
# Install Claude Code CLI
npm install -g @anthropic/claude-code
# Authenticate
claude-code --init
Attivare il Thinking nel terminale
Claude Code supporta vari flag e trigger in linguaggio naturale per controllare la profondità del ragionamento.
| Comando/Trigger | Descrizione |
|---|---|
| claude-code --think | Avvia una sessione con extended thinking abilitata di default. |
| claude-code --model sonnet-4.5 | Specifica l’ultimo modello frontier. |
| /think <task> | Un comando slash all’interno della CLI per invocare un task specifico ad alto carico di pensiero. |
| "ultrathink" | Una parola chiave in linguaggio naturale che istruisce Claude a usare il massimo budget di ragionamento possibile. |
Suggerimenti:
- Usa "think"/"think harder" quando vuoi che l’agente esplori implementazioni alternative.
- Quando Claude Code esegue chiamate a strumenti (run tests, operazioni git), preserva eventuali blocchi
thinkingse la CLI/l’agente li restituisce; altrimenti l’agente può perdere contesto tra i passaggi.
Benefici del Thinking interleaved e della preservazione dei blocchi
Per workflow agentici avanzati, Claude 4.5 introduce due funzionalità beta che migliorano significativamente le interazioni multi-turn e l’uso di strumenti: Interleaved Thinking e Thinking Block Preservation.
Interleaved Thinking (Beta)
Il ragionamento standard avviene una volta prima dell’output. Interleaved Thinking (abilitato tramite l’header interleaved-thinking-2025-05-14) consente a Claude di “pensare” tra le chiamate agli strumenti.
Immagina Claude che stia facendo debug di un server:
- Think: "Dovrei controllare prima i log."
- Tool Call:
read_file(logs.txt) - Think: "I log mostrano un timeout del database. Ora devo verificare le impostazioni del pool di connessione."
- Tool Call:
read_file(db_config.yml)
Questa “riflessione continua” garantisce che il modello adatti la propria strategia in base ai dati ricevuti dagli strumenti, piuttosto che seguire un piano rigido predefinito.
Thinking Block Preservation
Nelle conversazioni multi-turn, specialmente quelle che coinvolgono l’uso di strumenti, è fondamentale passare i precedenti blocchi thinking all’API.
- Continuità del ragionamento: Ricevendo i propri pensieri precedenti, Claude mantiene il contesto logico del suo percorso.
- Ottimizzazione Opus 4.5: In Claude Opus 4.5, questo comportamento è automatizzato. Il modello preserva di default tutti i blocchi di pensiero precedenti nel suo contesto, garantendo che anche in sessioni che durano 30+ ore il modello non “dimentichi” perché dieci turni fa ha preso determinate decisioni architetturali.
Best practice per usare la THINKING mode con Claude 4.5
Scegli il modello e il budget giusti per il task:
Usa Sonnet 4.5 per coding e workflow agentici quando ti serve il miglior compromesso tra velocità, costo e forti capacità di coding; usa Opus 4.5 per il ragionamento più profondo e le window di contesto maggiori o quando prevedi di eseguire sessioni autonome lunghe. Entrambi supportano l’extended thinking. Scegli budget_tokens proporzionalmente alla complessità del task (inizia in piccolo per esperimenti; aumenta il budget solo se osservi miglioramenti sostanziali di qualità).
Monitora e controlla costi e latenza
Vieni addebito per tutti i token di pensiero prodotti da Claude, non per il riassunto che ricevi. Ciò significa che lunghe deliberazioni interne aumentano il costo anche se vedi solo un breve riassunto. Traccia l’uso dei token e considera una messa a punto graduale (per esempio: 2k → 8k → 32k) quando si passa dall’esplorazione alla produzione.
Preserva i blocchi di pensiero solo quando necessario
I blocchi di pensiero possono essere firmati crittograficamente e preservati per successiva verifica e per uso interleaved con strumenti. Evita di fare echo dei blocchi di pensiero in ogni richiesta successiva a meno che il tuo workflow non richieda che il modello mantenga le deliberazioni interne precedenti (per esempio, quando un agente ri-eseguirà passaggi e necessita dei razionali preservati). La preservazione continua del pensiero aumenta il volume di contesto e può complicare la contabilizzazione dei token.
Quando effettuare lo streaming del pensiero agli utenti
Il pensiero in streaming è eccellente per strumenti per sviluppatori e UI educative (mostrando “lavoro in corso” mentre il modello delibera). Non fare streaming del pensiero grezzo agli utenti finali di app consumer di produzione senza considerare safety e redazione: il pensiero riassunto esiste proprio per questo. Se fai streaming, fornisci elementi UI che etichettino il ragionamento interno (ad es., “Ragionamento dell’assistente — interno”) e controlla se l’utente finale vede il pensiero riassunto o quello completo.
Uso degli strumenti e interleaving
Quando combini pensiero con strumenti (esecuzione di codice, fetch web, processi locali), usa il design di interleaved thinking quando ti serve che il modello selezioni strumenti, li esegua e ragioni sui risultati all’interno dello stesso turno. L’interleaving aumenta la complessità (e può richiedere flag di funzionalità) ma è potente per l’automazione agentica. Sii esplicito su quale pensiero preservi e testa come il modello seleziona gli strumenti con una run con thinking abilitata.
Note pratiche di troubleshooting e operative
Errori comuni e cosa significano
- Thinking non valido + scelta forzata dello strumento: Se richiedi il thinking ma forzi anche modalità di uso degli strumenti incompatibili con il thinking, l’API restituirà un errore — non mescolare l’imposizione di
tool_choice: {"type":"tool","name":"..."}con thinking. - Budget > max_tokens: Per scenari di thinking interleaved le regole effettive sui token differiscono — la piattaforma spiega quando
budget_tokenspuò superaremax_tokens. Leggi attentamente la sezione “interleaved thinking” prima di testare budget elevati. - Validazione della firma: Se preservi blocchi di pensiero per chiamate successive, includi la
signaturerestituita in modo che l’API possa verificare che provengano da Claude; questo previene manomissioni e mantiene la catena verificabile.
Osservabilità e strumentazione
Logga: (1) la selezione del model, (2) thinking.budget_tokens, (3) il consumo effettivo dei token di pensiero (vieni fatturato per questo), (4) le latenze di streaming (tempo al primo thinking_delta), e (5) i token di testo finali. Usa queste metriche per costruire budget e SLO per i flussi rivolti agli utenti.
Rollout progressivo e human-in-the-loop
Fai rollout dei modelli con thinking abilitato dietro flag di funzionalità. Inizia con una percentuale di traffico di sviluppatori o interno, raccogli failure o redazioni e itera su prompt e budget. Per domini sensibili, richiedi revisione umana sugli output che includono ragionamento interno sostanziale prima del rilascio.
Suggerimenti di debug
- Inizia in piccolo: abilita
budget_tokensbasso e scala per comprendere miglioramenti incrementali. - Attiva lo streaming e logga gli eventi
content_block_delta/ di firma per capire quando il modello produce blocchi di pensiero. - Se usi Claude Code: controlla
/confige le impostazioni a livello di progetto; consulta il changelog di Claude Code se il comportamento non corrisponde alle predefinite attese.
Conclusione:
Claude 4.5, combinato con la potenza dell’Extended Thinking e la CLI di Claude Code, rappresenta il salto più significativo nella produttività degli sviluppatori dai tempi dell’invenzione dell’IDE. Consentendo al modello di “mostrare il proprio lavoro” e deliberare su problemi complessi, Anthropic è andata oltre l’era dei “chatbot” ed è entrata nell’era “agentica”.
Che tu stia integrando la Messages API in uno strumento per sviluppatori personalizzato o usando Claude Code per gestire i tuoi PR quotidiani, padroneggiare la Thinking Mode è essenziale. Offre la trasparenza necessaria per la fiducia e la profondità di ragionamento necessaria per l’eccellenza.
Gli sviluppatori possono accedere al modello Claude 4.5 (Claude Sonnet 4.5 , Claude Haiku 4.5, Claude Opus 4.5) tramite CometAPI. Per iniziare, esplora le capacità dei modelli di CometAPI nel Playground e consulta la guida all’API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l’accesso a CometAPI e ottenuto la chiave API. CometAPI offre un prezzo molto inferiore rispetto a quello ufficiale per aiutarti nell’integrazione.
Pronto a partire? → Prova gratuita di Claude 4.5!
