„Tryb myślenia” (zwany też extended thinking, thinking lub thinking blocks) w Claude 4.5 to jawny, konfigurowalny tryb pracy, który instruuje model, by poświęcił osobno budżetowane tokeny na generowanie wewnętrznego, krok-po-kroku rozumowania („łańcucha rozumowania”) przed podaniem finalnej odpowiedzi. Został zaprojektowany, aby poprawić wyniki w zadaniach wymagających wieloetapowego rozumowania, złożonego kodowania, agentowych przepływów pracy oraz badań — poprzez wymianę opóźnienia i kosztu tokenów na głębszą wewnętrzną deliberację. Claude 4.5 udostępnia tę funkcję na poziomie Messages API z wyraźnymi parametrami (np. thinking / budget_tokens lub nagłówek effort/„interleaved-thinking”), zachowuje i opcjonalnie szyfruje bloki myślenia na potrzeby późniejszej weryfikacji lub użycia przez narzędzia, oraz wprowadza mechanizmy cache i rozliczania tokenów, którymi należy zarządzać przy budowie produkcyjnych obciążeń.
Czym jest Claude 4.5? (I które modele powinny mnie interesować?)
Claude 4.5 to najnowszy zestaw modeli Claude wydanych jako inkrementalne aktualizacje „4.5” (na przykład Sonnet 4.5 oraz Opus 4.5). Sonnet 4.5 jest pozycjonowany jako najlepszy balans inteligencji, wydajności w kodowaniu i pracy agentowej dla większości deweloperów; Opus 4.5 skupia się na bardzo wymagającym rozumowaniu i zachowuje bloki myślenia, aby poprawić ciągłość między turami. Oba modele wspierają rozszerzone myślenie, choć niektóre zachowania (np. streszczone vs pełne myślenie) różnią się między modelami.
Wzrosty wydajności w Claude 4.5, szczególnie w Sonnet 4.5, są najbardziej widoczne w benchmarku SWE-bench Verified, który mierzy zdolność SI do rozwiązywania realnych problemów z GitHub.
| Model | Wynik SWE-bench Verified | OSWorld (Użycie komputera) |
|---|---|---|
| Claude 3.5 Sonnet | 49.0% | 42.2% |
| Claude 4.1 Opus | 67.6% | 55.0% |
| Claude 4.5 Sonnet (Thinking włączony) | 77.2% | 61.4% |
| GPT-5 (średnie rozumowanie) | 65.0% | 52.0% |
Te liczby wskazują, że Claude 4.5 nie tylko lepiej pisze fragmenty kodu; jest znacząco bardziej zdolny do nawigowania po całych systemach plików i wykonywania autonomicznych zadań bez interwencji człowieka.
Dlaczego to ma znaczenie
- Kodowanie i agenci: Sonnet 4.5 pokazuje duże zyski w realnych zadaniach programistycznych i pracy nad długimi horyzontami — czyniąc go naturalnym wyborem do generowania i edycji kodu oraz autonomicznych przepływów agentowych.
- Rozszerzone myślenie i kontekst: Modele rodziny Claude 4 są zbudowane do rozumowania z bardzo dużymi wewnętrznymi notatnikami (dziesiątki tysięcy tokenów lub więcej), co umożliwia głębsze wieloetapowe rozumowanie. To zmienia sposób projektowania promptów, budżetów tokenów oraz interakcji z narzędziami.
Czym jest Tryb myślenia w Claude 4.5?
Tryb myślenia (oficjalnie „Extended Thinking”) to możliwość, która pozwala modelowi „pokazać swoją pracę” samemu sobie przed dostarczeniem finalnego wyniku. W odróżnieniu od standardowych modeli, które od razu zobowiązują się do odpowiedzi, Claude 4.5 używa dedykowanej przestrzeni rozumowania, aby zbadać wiele hipotez, zidentyfikować potencjalne błędy w logice i dopracować strategię.
Anatomia odpowiedzi
W standardowej interakcji model otrzymuje prompt i zaczyna generować odpowiedź. W Trybie myślenia odpowiedź jest podzielona na dwa odrębne bloki:
| Typ bloku | Widoczność | Cel |
|---|---|---|
| Blok myślenia | Ukryty (przez API) lub zwinięty (UI) | Wewnętrzny monolog modelu, planowanie i autokrytyka. |
| Blok tekstu | Widoczny | Finalna, dopracowana odpowiedź podana użytkownikowi. |
Kluczowe właściwości trybu myślenia
- Włączany na żądanie: przekazujesz obiekt
thinkingw wywołaniu API, taki jak{"type":"enabled","budget_tokens":10000}, aby go włączyć i dać modelowi wewnętrzny budżet tokenów na rozumowanie. - Budżetowanie:
budget_tokensogranicza wewnętrzne tokeny rozumowania modelu. Większy budżet => potencjalnie głębsze rozumowanie, ale wyższy koszt i opóźnienie. W modelach Claude 4 tokeny myślenia są rozliczane nawet jeśli otrzymujesz tylko zarys/skrót myślenia. - Streszczenie i redakcja: dla wielu modeli Claude 4 użytkownik widzi streszczoną wersję treści myślenia; część wewnętrznego rozumowania może zostać zredagowana (zaszyfrowana) przez systemy bezpieczeństwa i zwrócona jako
redacted_thinking. - Podpisy i weryfikacja: bloki myślenia zawierają nieprzezroczysty
signatureużywany do weryfikacji przy zwracaniu bloków myślenia do API (szczególnie potrzebne przy użyciu narzędzi). Traktuj podpis jako nieprzezroczysty — nie próbuj go parsować. - Przeplatane myślenie z narzędziami: Claude 4 wspiera przeplatanie bloków myślenia z wykonywaniem narzędzi (w niektórych przypadkach w wersji beta i na flagach). To potężne dla pracy agentowej (uruchom narzędzie, pomyśl, uruchom inne narzędzie, itd.).
Dla praktycznych przykładów i najbardziej aktualnych parametrów, kanonicznym odniesieniem są dokumenty Anthropic dotyczące Messages/Extended Thinking.
Jak Messages API zwraca treści myślenia
Streszczone vs pełne myślenie; szyfrowanie i podpisy
Różne wersje modeli Claude obsługują myślenie inaczej: nowsze modele Claude 4 (jak Sonnet/Opus 4.5) często zwracają publiczny, streszczony widok wewnętrznego rozumowania, podczas gdy pełny „scratchpad” może być zaszyfrowany i dostępny tylko przez pole signature (lub zredagowane bloki). Przy użyciu narzędzi (lub gdy trzeba zachować stan wewnętrzny między wywołaniami narzędzi), należy przesłać bloki myślenia z powrotem do API lub użyć mechanizmu podpisu opisanego w dokumentacji. Ten mechanizm pomaga chronić wrażliwe wewnętrzne rozumowanie, jednocześnie umożliwiając bezpieczną kontynuację procesu myślowego, gdy jest to potrzebne.
Praktyczny wzorzec obsługi
-
Użycie narzędzi / kontynuacja: jeśli kolejne żądanie musi kontynuować ten sam stan wewnętrzny (np. narzędzia zostały uruchomione na podstawie myślenia), dołącz zwrócony blok myślenia lub podpis przy kolejnym wywołaniu API, aby model mógł odszyfrować i kontynuować od miejsca, w którym przerwał.
-
Żądanie: wyślij
thinking: {type: "enabled", budget_tokens: N}. -
Odpowiedź: możesz otrzymać (a) publiczne streszczenie, (b) zaszyfrowany
signaturelubredacted_thinking, albo (c) oba.
CometAPI oferuje API Claude 4.5 w cenie o 20% niższej niż oficjalna, i może być wywoływany również przez Anthropic Messages. Przed rozpoczęciem potrzebny będzie klucz API.
Przykład 1 — prosty curl (bez streamingu) z włączonym myśleniem
curl https://api.cometapi.com/v1/messages \
-H "x-api-key: $CometAPI_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-5",
"max_tokens": 16000,
"thinking": {
"type": "enabled",
"budget_tokens": 10000
},
"messages": [
{"role": "user", "content": "Design a robust data validation strategy for CSV imports, show tests + code."}
]
}'
Odpowiedź będzie zawierać bloki content. Sprawdź każdy blok i preferuj bloki text dla finalnego wyniku; bloki thinking zawierają zarys wewnętrznej analizy modelu.
Przykład 2 — Python: żądanie, parsowanie bloków myślenia i tekstu
import os, requests
API_KEY = os.environ["CometAPI_API_KEY"]
URL = "https://api.cometapi.com/v1/messages"
HEADERS = {
"x-api-key": API_KEY,
"anthropic-version": "2023-06-01",
"content-type": "application/json"
}
payload = {
"model": "claude-sonnet-4-5",
"max_tokens": 16000,
"thinking": {"type": "enabled", "budget_tokens": 8000},
"messages": [{"role": "user", "content": "Explain how to do property-based testing in Python; include example code."}]
}
r = requests.post(URL, headers=HEADERS, json=payload)
r.raise_for_status()
resp = r.json()
# Parse blocks
for block in resp.get("content", []):
if block.get("type") == "thinking":
thinking_summary = block.get("thinking")
print("=== THINKING (summary) ===")
print(thinking_summary[:1000]) # truncate for logs
print("signature:", block.get("signature")[:64], "...")
elif block.get("type") == "text":
print("=== FINAL TEXT ===")
print(block.get("text"))
Ten kod wyodrębnia i wypisuje streszczone myślenie oraz finalną odpowiedź. Jeśli musisz zachować ciągłość w przepływach agentowych z wieloma turami, dołącz niezmienione bloki myślenia w kolejnym żądaniu w tablicy messages (zob. następny przykład).
Przykład 3 — ponowne użycie bloków myślenia w przepływie wieloturuowym (pseudo Python)
# After initial response (resp above):
# Add the assistant message including the thinking block back into the conversation
assistant_message = {
"role": "assistant",
"content": resp["content"] # include raw content array (contains thinking + text blocks)
}
# Next user turn: ask follow-up and include previous assistant message
payload2 = {
"model": "claude-opus-4-5", # Opus preserves thinking blocks better across turns
"max_tokens": 20000,
"thinking": {"type": "enabled", "budget_tokens": 12000},
"messages": [
{"role": "user", "content": "Now adapt the validation logic for an avro pipeline."},
assistant_message
]
}
r2 = requests.post(URL, headers=HEADERS, json=payload2)
Zachowanie dokładnie niezmienionych bloków myślenia jest kluczowe przy integracji z narzędziami lub długich przepływach agentowych. Opus 4.5 ma ulepszone domyślne zachowanie zachowania bloków myślenia i cache.
Jak strumieniować wyniki myślenia i pokazywać postęp w UI?
Najlepsze praktyki streamingu
- Używaj punktów końcowych streamingu SDK (SDK dla Pythona/TypeScript mają pomocniki streamu). Dla długo działających lub dużobudżetowych zadań rozumowania streaming zapobiega timeoutom HTTP i daje częściowy tekst podczas obliczeń modelu. Typowy kod używa iteratora nad
text_stream(Python) lub parsowania zdarzeń (JS). - Oczekuj czasem strumienia dwuetapowego: model może najpierw produkować widoczne fragmenty rozumowania, a następnie finalizować odpowiedź. Zbuduj UI tak, aby obsługiwać porcjowanie treści i wyświetlać stany „myśli…” vs finalna odpowiedź.
- Jeśli API zwraca
signature_deltalubcontent_block_deltaprzy streamingu, przechwyć to i dołącz do kolejnych wywołań zgodnie ze specyfikacją.
Jeśli chcesz pokazywać w UI postęp wewnętrznego rozumowania, strumieniuj odpowiedź. Serwer wyemituje zdarzenia thinking_delta, a następnie text_delta.
curl https://api.cometapi.com/v1/messages \
--header "x-api-key: $CometAPI_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data '{
"model": "claude-sonnet-4-5",
"max_tokens": 16000,
"stream": true,
"thinking": { "type": "enabled", "budget_tokens": 8000 },
"messages": [ { "role": "user", "content": "Walk me through debugging this failing unit test and propose fixes." } ]
}'
Przy streamingu obsługuj zdarzenia content_block_start, content_block_delta (które zawiera thinking_delta i text_delta) oraz content_block_stop w tej kolejności. W ten sposób możesz wyświetlać krok-po-kroku rozumowanie modelu na bieżąco.
Jak Claude Code współdziała z trybem myślenia? (terminal + VS Code)
Claude Code to interaktywny, agentowy terminal do kodowania integrujący Messages API i uruchamianie narzędzi. Doświadczenie CLI/IDE ujawnia myślenie na dwa sposoby:
- Globalne / per-sesja ustawienia: Claude Code udostępnia panel ustawień
/configdo dopasowania zachowania (jak agent prosi o uprawnienia, czy zachowywać bloki myślenia, itp.). Użyj tego UI zamiast wpisywania surowego JSON, jeśli chcesz trwałej zmiany zachowania. - Wybór modelu i komendy CLI: Możesz wybrać
claude-sonnet-4-5lubclaude-opus-4-5jako aktywny model w REPL; narzędzia i zachowanie myślenia podążają za semantyką Messages API. CHANGELOG i release notes wskazują, że myślenie jest domyślnie włączone w niektórych wdrożeniach Opus 4.5, a konfiguracja myślenia jest widoczna przez/config.
Praktyczny przebieg w Claude Code:
- Rozpocznij projekt w REPL.
- Użyj
/config, aby sprawdzić flagi związane z myśleniem (zachowanie, szczegółowość, itp.). - Poproś agenta o wykonanie długiego zadania — wygeneruje treści myślenia i, jeśli potrzeba, poprosi o pozwolenie na konkretne kroki w bash. Zachowuj bloki myślenia, gdy potrzebujesz weryfikować lub ponownie uruchamiać decyzje później.
Instalacja i konfiguracja
Claude Code wymaga Node.js i może być zainstalowany globalnie.
# Install Claude Code CLI
npm install -g @anthropic/claude-code
# Authenticate
claude-code --init
Aktywacja myślenia w terminalu
Claude Code wspiera różne flagi oraz wyzwalacze w języku naturalnym do kontrolowania głębokości rozumowania.
| Komenda/wyzwalacz | Opis |
|---|---|
| claude-code --think | Uruchamia sesję z domyślnie włączonym rozszerzonym myśleniem. |
| claude-code --model sonnet-4.5 | Określa najnowszy model z górnej półki. |
| /think <task> | Komenda „slash” w CLI do wywołania konkretnego, wymagającego zadania myślowego. |
| „ultrathink” | Słowo kluczowe w języku naturalnym, które instruuje Claude, by użył maksymalnego budżetu rozumowania. |
Wskazówki:
- Używaj „think”/„think harder”, gdy chcesz, aby agent eksplorował alternatywne implementacje.
- Gdy Claude Code wykonuje wywołania narzędzi (uruchamianie testów, operacje git), zachowuj wszelkie bloki
thinking, jeśli CLI/agent je zwraca; w przeciwnym razie agent może stracić kontekst między krokami.
Korzyści z przeplatanego myślenia i zachowania bloków
Dla zaawansowanych przepływów agentowych Claude 4.5 wprowadza dwie funkcje beta, które znacząco wzmacniają interakcje wieloturuowe i użycie narzędzi: przeplatane myślenie oraz zachowanie bloków myślenia.
Przeplatane myślenie (Beta)
Standardowe rozumowanie zachodzi raz przed outputem. Przeplatane myślenie (włączane poprzez nagłówek interleaved-thinking-2025-05-14) pozwala Claude „myśleć” pomiędzy wywołaniami narzędzi.
Wyobraź sobie, że Claude debugguje serwer:
- Myśli: „Najpierw powinienem sprawdzić logi.”
- Wywołanie narzędzia:
read_file(logs.txt) - Myśli: „Logi pokazują timeout bazy danych. Teraz muszę sprawdzić ustawienia puli połączeń.”
- Wywołanie narzędzia:
read_file(db_config.yml)
Ta „ciągła refleksja” gwarantuje, że model dostosowuje swoją strategię na podstawie danych otrzymanych z narzędzi, zamiast podążać sztywnym, z góry ustalonym planem.
Zachowanie bloków myślenia
W rozmowach wieloturuowych, zwłaszcza tych z użyciem narzędzi, kluczowe jest przekazywanie poprzednich bloków thinking z powrotem do API.
- Ciągłość rozumowania: Otrzymując swoje wcześniejsze myśli, Claude utrzymuje logiczny kontekst podróży.
- Optymalizacja w Opus 4.5: W Claude Opus 4.5 zachowanie to jest zautomatyzowane. Model domyślnie zachowuje wszystkie wcześniejsze bloki myślenia w kontekście, zapewniając, że nawet w sesjach trwających 30+ godzin model nie „zapomina”, dlaczego podjął określone decyzje architektoniczne dziesięć tur wcześniej.
Najlepsze praktyki użycia trybu THINKING z Claude 4.5
Wybierz właściwy model i budżet do zadania:
Używaj Sonnet 4.5 do kodowania i przepływów agentowych, gdy potrzebujesz najlepszego kompromisu między szybkością, kosztem i silnymi umiejętnościami kodowania; używaj Opus 4.5 do najgłębszego rozumowania i największych okien kontekstu lub gdy planujesz długie, autonomiczne sesje. Oba wspierają rozszerzone myślenie. Dobieraj budget_tokens proporcjonalnie do złożoności zadania (zacznij od małych wartości w eksperymentach; zwiększaj budżet tylko jeśli obserwujesz istotne poprawy jakości).
Monitoruj i kontroluj koszt oraz opóźnienie
Jesteś rozliczany za pełne tokeny myślenia, które Claude generuje, nie za streszczony output, który otrzymujesz. Oznacza to, że długie wewnętrzne deliberacje zwiększają koszt, nawet jeśli widzisz tylko krótki skrót. Śledź użycie tokenów i rozważ stopniowe strojenie (na przykład: 2k → 8k → 32k) przy przejściu od eksploracji do produkcji.
Zachowuj bloki myślenia tylko gdy to konieczne
Bloki myślenia mogą być kryptograficznie podpisywane i zachowywane na potrzeby późniejszej weryfikacji oraz przeplatanego użycia narzędzi. Unikaj odsyłania bloków myślenia w każdym kolejnym żądaniu, chyba że przepływ wymaga, by model zachował swoje wcześniejsze deliberacje (na przykład, gdy agent będzie ponownie wykonywał kroki i potrzebuje zachowanych uzasadnień). Stałe zachowywanie myślenia zwiększa objętość kontekstu i może komplikować rozliczanie tokenów.
Kiedy strumieniować myślenie do użytkowników
Strumieniowanie myślenia świetnie sprawdza się w narzędziach deweloperskich i edukacyjnych UI (pokazywanie „pracy w toku”, gdy model rozważa). Nie strumieniuj surowego myślenia do użytkowników aplikacji konsumenckich kierowanych na produkcję bez uwzględnienia aspektów bezpieczeństwa i redakcji: streszczone myślenie istnieje właśnie z tego powodu. Jeśli strumieniujesz, zapewnij elementy UI, które oznaczają wewnętrzne rozumowanie (np. „Rozumowanie asystenta — wewnętrzne”) oraz kontroluj, czy finalny użytkownik widzi streszczone czy pełne rozumowanie.
Użycie narzędzi i przeplatanie
Łącząc myślenie z narzędziami (wykonywanie kodu, pobieranie z sieci, procesy lokalne), stosuj projekt „interleaved thinking” gdy potrzebujesz, aby model wybierał narzędzia, uruchamiał je i rozumował nad wynikami w tej samej turze. Przeplatanie zwiększa złożoność (i może wymagać flag funkcji), ale jest potężne dla automatyzacji agentowej. Bądź precyzyjny co do tego, jakie myślenie zachowujesz, i testuj sposób wyboru narzędzi przez model przy włączonym myśleniu.
Praktyczne rozwiązywanie problemów i uwagi operacyjne
Typowe błędy i ich znaczenie
- Nieprawidłowe myślenie + wymuszone użycie narzędzia: jeśli żądasz myślenia, ale jednocześnie wymuszasz tryby użycia narzędzi niezgodne z myśleniem, API zwróci błąd — nie mieszaj
tool_choice: {"type":"tool","name":"..."}z myśleniem. - Budget > max_tokens: dla scenariuszy przeplatanego myślenia efektywne reguły tokenów różnią się — dokumenty platformy wyjaśniają, kiedy
budget_tokensmoże przekraczaćmax_tokens. Przeczytaj uważnie sekcję „interleaved thinking” przed testowaniem dużych budżetów. - Walidacja podpisu: jeśli zachowujesz bloki myślenia do późniejszych wywołań, dołącz zwrócony
signature, aby API mogło zweryfikować, że pochodzą od Claude; zapobiega to manipulacjom i utrzymuje weryfikowalny łańcuch.
Obserwowalność i instrumentacja
Loguj: (1) wybór model, (2) thinking.budget_tokens, (3) faktyczne zużycie tokenów myślenia (za to jesteś rozliczany), (4) opóźnienia streamingu (czas do pierwszego thinking_delta) oraz (5) finalne tokeny tekstu. Użyj tych metryk do budowy budżetów i SLO dla przepływów skierowanych do użytkowników.
Stopniowe wdrożenie i człowiek-w-procesie
Wdrażaj modele z włączonym myśleniem za flagami funkcji. Zacznij od procenta ruchu deweloperskiego lub wewnętrznego, zbierz błędy lub redakcje, iteruj prompty i budżety. Dla wrażliwych domen wymagaj przeglądu człowieka dla outputów zawierających znaczące wewnętrzne rozumowanie przed publikacją.
Wskazówki debugowania
- Zacznij od małych wartości: włącz niski
budget_tokensi skaluj, by zrozumieć przyrostowe poprawy. - Włącz streaming i loguj
content_block_delta/ zdarzenia podpisów, aby zrozumieć, kiedy model produkuje bloki myślenia. - Jeśli używasz Claude Code: sprawdź
/configoraz ustawienia na poziomie projektu; skonsultuj changelog Claude Code, jeśli zachowanie nie odpowiada oczekiwanym domyślnym ustawieniom.
Konkluzja:
Claude 4.5, w połączeniu z mocą Extended Thinking i CLI Claude Code, reprezentuje największy skok produktywności deweloperów od czasu wynalezienia IDE. Pozwalając modelowi „pokazać swoją pracę” i deliberować nad złożonymi problemami, Anthropic wychodzi poza erę „chatbota” i wchodzi w erę „agentową”.
Niezależnie od tego, czy integrujesz Messages API w niestandardowym narzędziu deweloperskim, czy używasz Claude Code do zarządzania codziennymi PR, opanowanie Trybu myślenia jest kluczowe. Zapewnia wymaganą przejrzystość dla zaufania i głębię rozumowania niezbędną dla doskonałości.
Deweloperzy mogą uzyskać dostęp do modeli Claude 4.5 (Claude Sonnet 4.5, Claude Haiku 4.5, Claude Opus 4.5) przez CometAPI. Aby rozpocząć, poznaj możliwości modeli CometAPI w Playground i skorzystaj z przewodnika API po szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby pomóc Ci zintegrować.
Gotowy do startu?→ Bezpłatna wersja próbna Claude 4.5!
