请提供需要翻译的文本内容(目标语言:波兰语)。

CometAPI
AnnaJan 3, 2026
请提供需要翻译的文本内容(目标语言:波兰语)。

„Tryb myślenia” (zwany też extended thinking, thinking lub thinking blocks) w Claude 4.5 to jawny, konfigurowalny tryb pracy, który instruuje model, by poświęcił osobno budżetowane tokeny na generowanie wewnętrznego, krok-po-kroku rozumowania („łańcucha rozumowania”) przed podaniem finalnej odpowiedzi. Został zaprojektowany, aby poprawić wyniki w zadaniach wymagających wieloetapowego rozumowania, złożonego kodowania, agentowych przepływów pracy oraz badań — poprzez wymianę opóźnienia i kosztu tokenów na głębszą wewnętrzną deliberację. Claude 4.5 udostępnia tę funkcję na poziomie Messages API z wyraźnymi parametrami (np. thinking / budget_tokens lub nagłówek effort/„interleaved-thinking”), zachowuje i opcjonalnie szyfruje bloki myślenia na potrzeby późniejszej weryfikacji lub użycia przez narzędzia, oraz wprowadza mechanizmy cache i rozliczania tokenów, którymi należy zarządzać przy budowie produkcyjnych obciążeń.

Czym jest Claude 4.5? (I które modele powinny mnie interesować?)

Claude 4.5 to najnowszy zestaw modeli Claude wydanych jako inkrementalne aktualizacje „4.5” (na przykład Sonnet 4.5 oraz Opus 4.5). Sonnet 4.5 jest pozycjonowany jako najlepszy balans inteligencji, wydajności w kodowaniu i pracy agentowej dla większości deweloperów; Opus 4.5 skupia się na bardzo wymagającym rozumowaniu i zachowuje bloki myślenia, aby poprawić ciągłość między turami. Oba modele wspierają rozszerzone myślenie, choć niektóre zachowania (np. streszczone vs pełne myślenie) różnią się między modelami.

Wzrosty wydajności w Claude 4.5, szczególnie w Sonnet 4.5, są najbardziej widoczne w benchmarku SWE-bench Verified, który mierzy zdolność SI do rozwiązywania realnych problemów z GitHub.

ModelWynik SWE-bench VerifiedOSWorld (Użycie komputera)
Claude 3.5 Sonnet49.0%42.2%
Claude 4.1 Opus67.6%55.0%
Claude 4.5 Sonnet (Thinking włączony)77.2%61.4%
GPT-5 (średnie rozumowanie)65.0%52.0%

Te liczby wskazują, że Claude 4.5 nie tylko lepiej pisze fragmenty kodu; jest znacząco bardziej zdolny do nawigowania po całych systemach plików i wykonywania autonomicznych zadań bez interwencji człowieka.

Dlaczego to ma znaczenie

  • Kodowanie i agenci: Sonnet 4.5 pokazuje duże zyski w realnych zadaniach programistycznych i pracy nad długimi horyzontami — czyniąc go naturalnym wyborem do generowania i edycji kodu oraz autonomicznych przepływów agentowych.
  • Rozszerzone myślenie i kontekst: Modele rodziny Claude 4 są zbudowane do rozumowania z bardzo dużymi wewnętrznymi notatnikami (dziesiątki tysięcy tokenów lub więcej), co umożliwia głębsze wieloetapowe rozumowanie. To zmienia sposób projektowania promptów, budżetów tokenów oraz interakcji z narzędziami.

Czym jest Tryb myślenia w Claude 4.5?

Tryb myślenia (oficjalnie „Extended Thinking”) to możliwość, która pozwala modelowi „pokazać swoją pracę” samemu sobie przed dostarczeniem finalnego wyniku. W odróżnieniu od standardowych modeli, które od razu zobowiązują się do odpowiedzi, Claude 4.5 używa dedykowanej przestrzeni rozumowania, aby zbadać wiele hipotez, zidentyfikować potencjalne błędy w logice i dopracować strategię.

Anatomia odpowiedzi

W standardowej interakcji model otrzymuje prompt i zaczyna generować odpowiedź. W Trybie myślenia odpowiedź jest podzielona na dwa odrębne bloki:

Typ blokuWidocznośćCel
Blok myśleniaUkryty (przez API) lub zwinięty (UI)Wewnętrzny monolog modelu, planowanie i autokrytyka.
Blok tekstuWidocznyFinalna, dopracowana odpowiedź podana użytkownikowi.

Kluczowe właściwości trybu myślenia

  • Włączany na żądanie: przekazujesz obiekt thinking w wywołaniu API, taki jak {"type":"enabled","budget_tokens":10000}, aby go włączyć i dać modelowi wewnętrzny budżet tokenów na rozumowanie.
  • Budżetowanie: budget_tokens ogranicza wewnętrzne tokeny rozumowania modelu. Większy budżet => potencjalnie głębsze rozumowanie, ale wyższy koszt i opóźnienie. W modelach Claude 4 tokeny myślenia są rozliczane nawet jeśli otrzymujesz tylko zarys/skrót myślenia.
  • Streszczenie i redakcja: dla wielu modeli Claude 4 użytkownik widzi streszczoną wersję treści myślenia; część wewnętrznego rozumowania może zostać zredagowana (zaszyfrowana) przez systemy bezpieczeństwa i zwrócona jako redacted_thinking.
  • Podpisy i weryfikacja: bloki myślenia zawierają nieprzezroczysty signature używany do weryfikacji przy zwracaniu bloków myślenia do API (szczególnie potrzebne przy użyciu narzędzi). Traktuj podpis jako nieprzezroczysty — nie próbuj go parsować.
  • Przeplatane myślenie z narzędziami: Claude 4 wspiera przeplatanie bloków myślenia z wykonywaniem narzędzi (w niektórych przypadkach w wersji beta i na flagach). To potężne dla pracy agentowej (uruchom narzędzie, pomyśl, uruchom inne narzędzie, itd.).

Dla praktycznych przykładów i najbardziej aktualnych parametrów, kanonicznym odniesieniem są dokumenty Anthropic dotyczące Messages/Extended Thinking.

Jak Messages API zwraca treści myślenia

Streszczone vs pełne myślenie; szyfrowanie i podpisy

Różne wersje modeli Claude obsługują myślenie inaczej: nowsze modele Claude 4 (jak Sonnet/Opus 4.5) często zwracają publiczny, streszczony widok wewnętrznego rozumowania, podczas gdy pełny „scratchpad” może być zaszyfrowany i dostępny tylko przez pole signature (lub zredagowane bloki). Przy użyciu narzędzi (lub gdy trzeba zachować stan wewnętrzny między wywołaniami narzędzi), należy przesłać bloki myślenia z powrotem do API lub użyć mechanizmu podpisu opisanego w dokumentacji. Ten mechanizm pomaga chronić wrażliwe wewnętrzne rozumowanie, jednocześnie umożliwiając bezpieczną kontynuację procesu myślowego, gdy jest to potrzebne.

Praktyczny wzorzec obsługi

  • Użycie narzędzi / kontynuacja: jeśli kolejne żądanie musi kontynuować ten sam stan wewnętrzny (np. narzędzia zostały uruchomione na podstawie myślenia), dołącz zwrócony blok myślenia lub podpis przy kolejnym wywołaniu API, aby model mógł odszyfrować i kontynuować od miejsca, w którym przerwał.

  • Żądanie: wyślij thinking: {type: "enabled", budget_tokens: N}.

  • Odpowiedź: możesz otrzymać (a) publiczne streszczenie, (b) zaszyfrowany signature lub redacted_thinking, albo (c) oba.

CometAPI oferuje API Claude 4.5 w cenie o 20% niższej niż oficjalna, i może być wywoływany również przez Anthropic Messages. Przed rozpoczęciem potrzebny będzie klucz API.

Przykład 1 — prosty curl (bez streamingu) z włączonym myśleniem

curl https://api.cometapi.com/v1/messages \
  -H "x-api-key: $CometAPI_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5",
    "max_tokens": 16000,
    "thinking": {
      "type": "enabled",
      "budget_tokens": 10000
    },
    "messages": [
      {"role": "user", "content": "Design a robust data validation strategy for CSV imports, show tests + code."}
    ]
  }'

Odpowiedź będzie zawierać bloki content. Sprawdź każdy blok i preferuj bloki text dla finalnego wyniku; bloki thinking zawierają zarys wewnętrznej analizy modelu.

Przykład 2 — Python: żądanie, parsowanie bloków myślenia i tekstu

import os, requests

API_KEY = os.environ["CometAPI_API_KEY"]
URL = "https://api.cometapi.com/v1/messages"
HEADERS = {
    "x-api-key": API_KEY,
    "anthropic-version": "2023-06-01",
    "content-type": "application/json"
}

payload = {
    "model": "claude-sonnet-4-5",
    "max_tokens": 16000,
    "thinking": {"type": "enabled", "budget_tokens": 8000},
    "messages": [{"role": "user", "content": "Explain how to do property-based testing in Python; include example code."}]
}

r = requests.post(URL, headers=HEADERS, json=payload)
r.raise_for_status()
resp = r.json()

# Parse blocks
for block in resp.get("content", []):
    if block.get("type") == "thinking":
        thinking_summary = block.get("thinking")
        print("=== THINKING (summary) ===")
        print(thinking_summary[:1000])  # truncate for logs
        print("signature:", block.get("signature")[:64], "...")
    elif block.get("type") == "text":
        print("=== FINAL TEXT ===")
        print(block.get("text"))

Ten kod wyodrębnia i wypisuje streszczone myślenie oraz finalną odpowiedź. Jeśli musisz zachować ciągłość w przepływach agentowych z wieloma turami, dołącz niezmienione bloki myślenia w kolejnym żądaniu w tablicy messages (zob. następny przykład).

Przykład 3 — ponowne użycie bloków myślenia w przepływie wieloturuowym (pseudo Python)

# After initial response (resp above):
# Add the assistant message including the thinking block back into the conversation
assistant_message = {
  "role": "assistant",
  "content": resp["content"]  # include raw content array (contains thinking + text blocks)
}

# Next user turn: ask follow-up and include previous assistant message
payload2 = {
  "model": "claude-opus-4-5",  # Opus preserves thinking blocks better across turns
  "max_tokens": 20000,
  "thinking": {"type": "enabled", "budget_tokens": 12000},
  "messages": [
    {"role": "user", "content": "Now adapt the validation logic for an avro pipeline."},
    assistant_message
  ]
}
r2 = requests.post(URL, headers=HEADERS, json=payload2)

Zachowanie dokładnie niezmienionych bloków myślenia jest kluczowe przy integracji z narzędziami lub długich przepływach agentowych. Opus 4.5 ma ulepszone domyślne zachowanie zachowania bloków myślenia i cache.

Jak strumieniować wyniki myślenia i pokazywać postęp w UI?

Najlepsze praktyki streamingu

  • Używaj punktów końcowych streamingu SDK (SDK dla Pythona/TypeScript mają pomocniki streamu). Dla długo działających lub dużobudżetowych zadań rozumowania streaming zapobiega timeoutom HTTP i daje częściowy tekst podczas obliczeń modelu. Typowy kod używa iteratora nad text_stream (Python) lub parsowania zdarzeń (JS).
  • Oczekuj czasem strumienia dwuetapowego: model może najpierw produkować widoczne fragmenty rozumowania, a następnie finalizować odpowiedź. Zbuduj UI tak, aby obsługiwać porcjowanie treści i wyświetlać stany „myśli…” vs finalna odpowiedź.
  • Jeśli API zwraca signature_delta lub content_block_delta przy streamingu, przechwyć to i dołącz do kolejnych wywołań zgodnie ze specyfikacją.

Jeśli chcesz pokazywać w UI postęp wewnętrznego rozumowania, strumieniuj odpowiedź. Serwer wyemituje zdarzenia thinking_delta, a następnie text_delta.

curl https://api.cometapi.com/v1/messages \
  --header "x-api-key: $CometAPI_API_KEY" \
  --header "anthropic-version: 2023-06-01" \
  --header "content-type: application/json" \
  --data '{
    "model": "claude-sonnet-4-5",
    "max_tokens": 16000,
    "stream": true,
    "thinking": { "type": "enabled", "budget_tokens": 8000 },
    "messages": [ { "role": "user", "content": "Walk me through debugging this failing unit test and propose fixes." } ]
  }'

Przy streamingu obsługuj zdarzenia content_block_start, content_block_delta (które zawiera thinking_delta i text_delta) oraz content_block_stop w tej kolejności. W ten sposób możesz wyświetlać krok-po-kroku rozumowanie modelu na bieżąco.

Jak Claude Code współdziała z trybem myślenia? (terminal + VS Code)

Claude Code to interaktywny, agentowy terminal do kodowania integrujący Messages API i uruchamianie narzędzi. Doświadczenie CLI/IDE ujawnia myślenie na dwa sposoby:

  • Globalne / per-sesja ustawienia: Claude Code udostępnia panel ustawień /config do dopasowania zachowania (jak agent prosi o uprawnienia, czy zachowywać bloki myślenia, itp.). Użyj tego UI zamiast wpisywania surowego JSON, jeśli chcesz trwałej zmiany zachowania.
  • Wybór modelu i komendy CLI: Możesz wybrać claude-sonnet-4-5 lub claude-opus-4-5 jako aktywny model w REPL; narzędzia i zachowanie myślenia podążają za semantyką Messages API. CHANGELOG i release notes wskazują, że myślenie jest domyślnie włączone w niektórych wdrożeniach Opus 4.5, a konfiguracja myślenia jest widoczna przez /config.

Praktyczny przebieg w Claude Code:

  1. Rozpocznij projekt w REPL.
  2. Użyj /config, aby sprawdzić flagi związane z myśleniem (zachowanie, szczegółowość, itp.).
  3. Poproś agenta o wykonanie długiego zadania — wygeneruje treści myślenia i, jeśli potrzeba, poprosi o pozwolenie na konkretne kroki w bash. Zachowuj bloki myślenia, gdy potrzebujesz weryfikować lub ponownie uruchamiać decyzje później.

Instalacja i konfiguracja

Claude Code wymaga Node.js i może być zainstalowany globalnie.

# Install Claude Code CLI
npm install -g @anthropic/claude-code

# Authenticate
claude-code --init

Aktywacja myślenia w terminalu

Claude Code wspiera różne flagi oraz wyzwalacze w języku naturalnym do kontrolowania głębokości rozumowania.

Komenda/wyzwalaczOpis
claude-code --thinkUruchamia sesję z domyślnie włączonym rozszerzonym myśleniem.
claude-code --model sonnet-4.5Określa najnowszy model z górnej półki.
/think <task>Komenda „slash” w CLI do wywołania konkretnego, wymagającego zadania myślowego.
„ultrathink”Słowo kluczowe w języku naturalnym, które instruuje Claude, by użył maksymalnego budżetu rozumowania.

Wskazówki:

  • Używaj „think”/„think harder”, gdy chcesz, aby agent eksplorował alternatywne implementacje.
  • Gdy Claude Code wykonuje wywołania narzędzi (uruchamianie testów, operacje git), zachowuj wszelkie bloki thinking, jeśli CLI/agent je zwraca; w przeciwnym razie agent może stracić kontekst między krokami.

Korzyści z przeplatanego myślenia i zachowania bloków

Dla zaawansowanych przepływów agentowych Claude 4.5 wprowadza dwie funkcje beta, które znacząco wzmacniają interakcje wieloturuowe i użycie narzędzi: przeplatane myślenie oraz zachowanie bloków myślenia.

Przeplatane myślenie (Beta)

Standardowe rozumowanie zachodzi raz przed outputem. Przeplatane myślenie (włączane poprzez nagłówek interleaved-thinking-2025-05-14) pozwala Claude „myśleć” pomiędzy wywołaniami narzędzi.

Wyobraź sobie, że Claude debugguje serwer:

  1. Myśli: „Najpierw powinienem sprawdzić logi.”
  2. Wywołanie narzędzia: read_file(logs.txt)
  3. Myśli: „Logi pokazują timeout bazy danych. Teraz muszę sprawdzić ustawienia puli połączeń.”
  4. Wywołanie narzędzia: read_file(db_config.yml)

Ta „ciągła refleksja” gwarantuje, że model dostosowuje swoją strategię na podstawie danych otrzymanych z narzędzi, zamiast podążać sztywnym, z góry ustalonym planem.

Zachowanie bloków myślenia

W rozmowach wieloturuowych, zwłaszcza tych z użyciem narzędzi, kluczowe jest przekazywanie poprzednich bloków thinking z powrotem do API.

  • Ciągłość rozumowania: Otrzymując swoje wcześniejsze myśli, Claude utrzymuje logiczny kontekst podróży.
  • Optymalizacja w Opus 4.5: W Claude Opus 4.5 zachowanie to jest zautomatyzowane. Model domyślnie zachowuje wszystkie wcześniejsze bloki myślenia w kontekście, zapewniając, że nawet w sesjach trwających 30+ godzin model nie „zapomina”, dlaczego podjął określone decyzje architektoniczne dziesięć tur wcześniej.

Najlepsze praktyki użycia trybu THINKING z Claude 4.5

Wybierz właściwy model i budżet do zadania:

Używaj Sonnet 4.5 do kodowania i przepływów agentowych, gdy potrzebujesz najlepszego kompromisu między szybkością, kosztem i silnymi umiejętnościami kodowania; używaj Opus 4.5 do najgłębszego rozumowania i największych okien kontekstu lub gdy planujesz długie, autonomiczne sesje. Oba wspierają rozszerzone myślenie. Dobieraj budget_tokens proporcjonalnie do złożoności zadania (zacznij od małych wartości w eksperymentach; zwiększaj budżet tylko jeśli obserwujesz istotne poprawy jakości).

Monitoruj i kontroluj koszt oraz opóźnienie

Jesteś rozliczany za pełne tokeny myślenia, które Claude generuje, nie za streszczony output, który otrzymujesz. Oznacza to, że długie wewnętrzne deliberacje zwiększają koszt, nawet jeśli widzisz tylko krótki skrót. Śledź użycie tokenów i rozważ stopniowe strojenie (na przykład: 2k → 8k → 32k) przy przejściu od eksploracji do produkcji.

Zachowuj bloki myślenia tylko gdy to konieczne

Bloki myślenia mogą być kryptograficznie podpisywane i zachowywane na potrzeby późniejszej weryfikacji oraz przeplatanego użycia narzędzi. Unikaj odsyłania bloków myślenia w każdym kolejnym żądaniu, chyba że przepływ wymaga, by model zachował swoje wcześniejsze deliberacje (na przykład, gdy agent będzie ponownie wykonywał kroki i potrzebuje zachowanych uzasadnień). Stałe zachowywanie myślenia zwiększa objętość kontekstu i może komplikować rozliczanie tokenów.

Kiedy strumieniować myślenie do użytkowników

Strumieniowanie myślenia świetnie sprawdza się w narzędziach deweloperskich i edukacyjnych UI (pokazywanie „pracy w toku”, gdy model rozważa). Nie strumieniuj surowego myślenia do użytkowników aplikacji konsumenckich kierowanych na produkcję bez uwzględnienia aspektów bezpieczeństwa i redakcji: streszczone myślenie istnieje właśnie z tego powodu. Jeśli strumieniujesz, zapewnij elementy UI, które oznaczają wewnętrzne rozumowanie (np. „Rozumowanie asystenta — wewnętrzne”) oraz kontroluj, czy finalny użytkownik widzi streszczone czy pełne rozumowanie.

Użycie narzędzi i przeplatanie

Łącząc myślenie z narzędziami (wykonywanie kodu, pobieranie z sieci, procesy lokalne), stosuj projekt „interleaved thinking” gdy potrzebujesz, aby model wybierał narzędzia, uruchamiał je i rozumował nad wynikami w tej samej turze. Przeplatanie zwiększa złożoność (i może wymagać flag funkcji), ale jest potężne dla automatyzacji agentowej. Bądź precyzyjny co do tego, jakie myślenie zachowujesz, i testuj sposób wyboru narzędzi przez model przy włączonym myśleniu.

Praktyczne rozwiązywanie problemów i uwagi operacyjne

Typowe błędy i ich znaczenie

  • Nieprawidłowe myślenie + wymuszone użycie narzędzia: jeśli żądasz myślenia, ale jednocześnie wymuszasz tryby użycia narzędzi niezgodne z myśleniem, API zwróci błąd — nie mieszaj tool_choice: {"type":"tool","name":"..."} z myśleniem.
  • Budget > max_tokens: dla scenariuszy przeplatanego myślenia efektywne reguły tokenów różnią się — dokumenty platformy wyjaśniają, kiedy budget_tokens może przekraczać max_tokens. Przeczytaj uważnie sekcję „interleaved thinking” przed testowaniem dużych budżetów.
  • Walidacja podpisu: jeśli zachowujesz bloki myślenia do późniejszych wywołań, dołącz zwrócony signature, aby API mogło zweryfikować, że pochodzą od Claude; zapobiega to manipulacjom i utrzymuje weryfikowalny łańcuch.

Obserwowalność i instrumentacja

Loguj: (1) wybór model, (2) thinking.budget_tokens, (3) faktyczne zużycie tokenów myślenia (za to jesteś rozliczany), (4) opóźnienia streamingu (czas do pierwszego thinking_delta) oraz (5) finalne tokeny tekstu. Użyj tych metryk do budowy budżetów i SLO dla przepływów skierowanych do użytkowników.

Stopniowe wdrożenie i człowiek-w-procesie

Wdrażaj modele z włączonym myśleniem za flagami funkcji. Zacznij od procenta ruchu deweloperskiego lub wewnętrznego, zbierz błędy lub redakcje, iteruj prompty i budżety. Dla wrażliwych domen wymagaj przeglądu człowieka dla outputów zawierających znaczące wewnętrzne rozumowanie przed publikacją.

Wskazówki debugowania

  • Zacznij od małych wartości: włącz niski budget_tokens i skaluj, by zrozumieć przyrostowe poprawy.
  • Włącz streaming i loguj content_block_delta / zdarzenia podpisów, aby zrozumieć, kiedy model produkuje bloki myślenia.
  • Jeśli używasz Claude Code: sprawdź /config oraz ustawienia na poziomie projektu; skonsultuj changelog Claude Code, jeśli zachowanie nie odpowiada oczekiwanym domyślnym ustawieniom.

Konkluzja:

Claude 4.5, w połączeniu z mocą Extended Thinking i CLI Claude Code, reprezentuje największy skok produktywności deweloperów od czasu wynalezienia IDE. Pozwalając modelowi „pokazać swoją pracę” i deliberować nad złożonymi problemami, Anthropic wychodzi poza erę „chatbota” i wchodzi w erę „agentową”.

Niezależnie od tego, czy integrujesz Messages API w niestandardowym narzędziu deweloperskim, czy używasz Claude Code do zarządzania codziennymi PR, opanowanie Trybu myślenia jest kluczowe. Zapewnia wymaganą przejrzystość dla zaufania i głębię rozumowania niezbędną dla doskonałości.

Deweloperzy mogą uzyskać dostęp do modeli Claude 4.5 (Claude Sonnet 4.5, Claude Haiku 4.5, Claude Opus 4.5) przez CometAPI. Aby rozpocząć, poznaj możliwości modeli CometAPI w Playground i skorzystaj z przewodnika API po szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby pomóc Ci zintegrować.

Gotowy do startu?→ Bezpłatna wersja próbna Claude 4.5!

Czytaj więcej

500+ modeli w jednym API

Do 20% zniżki