Claude Haiku 4.5 ist ein zweckoptimiertes Sprachmodell der kleineren Klasse von Anthropic, das Mitte Oktober 2025 veröffentlicht wurde. Es ist innerhalb der Claude-Produktreihe als schnelle, kostengünstige Option positioniert, die zugleich starke Fähigkeiten bei Aufgaben wie **Programmierung, Agenten-Orchestrierung und interaktiven „Computer-Use“-**Workflows beibehält und dabei für Unternehmensbereitstellungen einen deutlich höheren Durchsatz sowie geringere Stückkosten ermöglicht.
Hauptmerkmale
- Geschwindigkeit & Kosteneffizienz: Haiku 4.5 wird als mehr als doppelt so schnell wie Sonnet 4 beschrieben und kostet etwa ein Drittel von Sonnet 4 (und ist deutlich günstiger als Opus), was es für den Einsatz im großen Maßstab attraktiv macht.
- Erweitertes Denken: Das erste Haiku-Modell mit Unterstützung für Extended Thinking (zusammengefasste / verschachtelte Gedankengänge, konfigurierbare Thinking-Budgets) für tieferes mehrstufiges Schlussfolgern bei gleichzeitiger Abwägung der Latenz.
- Tools & Computer Use: Vollständige Unterstützung für Claude-Tools (bash, Codeausführung, Texteditor, Websuche und Computer-Use-Automatisierung). Konzipiert für agentische Workflows und Sub-Agent-Architekturen.
- Großes Kontextfenster: 200k-Token-Kontextfenster (mit 1M-Kontextoptionen, die bei größeren Modellen als Beta für andere Modellklassen verfügbar sind).
Technische Details
- Trainingsdaten & Cutoff: Haiku 4.5 wurde mit einer proprietären Mischung aus öffentlichen und lizenzierten Daten trainiert, mit einem Trainings-Cutoff etwa im Februar 2025.
- Extended Thinking (ein hybrider Reasoning-Modus) wird unterstützt, sodass das Modell auf Anfrage Latenz gegen tieferes Schlussfolgern eintauschen kann.
- Kontextfenster: Zum Veröffentlichungszeitpunkt beträgt es 200.000 Token, und das Modell ist ausdrücklich kontextbewusst (es verfolgt, wie viel des Fensters bereits genutzt wurde).
- Leistung / Durchsatz: Frühe Community-Berichte und Anthropic-Tests nennen sehr hohe OTPS (Output Tokens pro Sekunde) sowie anekdotische Geschwindigkeiten von ~200+ Token/Sekunde in einigen internen/frühen Tests — deutlich schneller als viele vergleichbare Mid-Tier-Modelle.
Benchmark-Leistung
SWE-Bench (Coding): Haiku 4.5 erreichte ~73,3 % auf SWE-Bench Verified — ein Ergebnis, das Anthropic hervorhebt und das Haiku 4.5 unter den weltweit besten Coding-Modellen seiner Klasse einordnet.
Terminal- / Kommandozeilen- / Tool-Tests: Anthropic meldete ~41 % auf Terminal-Bench (mit Fokus auf die Kommandozeile) sowie vergleichbare Ergebnisse zu Sonnet 4 und mehreren konkurrierenden Frontier-Modellen der mittleren Klasse in vielen Tool-Use-Benchmarks.
Befolgung von Anweisungen & Foliensatz-Text: Interne Anthropic-Beispiele behaupten, dass Haiku 4.5 frühere Modelle bei einigen Aufgaben zur Anweisungsbefolgung übertroffen habe (z. B. bei der Generierung von Foliensatz-Text: 65 % vs. 44 % für ein früheres Premium-Modell in ihrem Benchmark).
Praxisnahe Automatisierung / Agentenaufgaben: Drittanbieter-Bewertungen und frühe Anwender berichten von wettbewerbsfähigen Erfolgsraten bei automatisierten UI-/Agentenaufgaben (zum Beispiel OSWorld-ähnliche oder Agenten-Benchmarks mit ≈50 % Erfolg bei komplexer Automatisierung in einigen Tests), was den Nutzen für skalierte Workflows zeigt, allerdings mit nicht unerheblichen Fehlermodi.
Einschränkungen & Sicherheitshinweise
- Kein Frontier-Modell: Anthropic klassifiziert Haiku 4.5 ausdrücklich als nicht frontier-advancing; es ist auf Effizienz optimiert und nicht darauf, den absoluten Stand der Technik weiter voranzutreiben. (Anthropic)
- Gelegentliches Verhalten bei sensiblen Themen: Bei einigen wissenschaftlichen / bio-sicherheitsbezogenen Prompts gibt Haiku 4.5 mitunter allgemeine Informationen mit Einschränkungen statt strikter Ablehnungen zurück; Anthropic kennzeichnet dies als einen Bereich, der weiterhin verbessert wird.
- Extended Thinking kann das Verhalten verändern (es erhöht manchmal die Asymmetrie in Antworten).
Empfohlene Anwendungsfälle
- Agentisches Coding & Multi-Agent-Orchestrierung: schnelle Sub-Agenten, iterative Code-Refaktorierung, Autotests und Patch-Generierung. (Gut geeignet.)
- Echtzeit-Workflows mit hohem Volumen im Kundenbereich: Chat-Assistenten, interne Automatisierung, bei der die Kosten pro Anfrage wichtig sind. (Gut geeignet.)
- Tool-gestützte Workflows & Computersteuerung: Automatisierung von GUI-/CLI-Aufgaben, Dokumenten-Workflows und Toolchains, bei denen geringe Latenz hilft. (Gut geeignet.)
- Nicht empfohlen (ohne Kontrollen): eigenständige Rollen, die wissenschaftliches Sequenzdesign auf Frontier-Niveau oder Biosecurity-Aufgaben mit hoher Absicherung erfordern. (Mit Vorsicht einsetzen.)
So greifen Sie auf die Claude Haiku 4.5 API zu
Schritt 1: Für einen API-Schlüssel registrieren
Melden Sie sich bei cometapi.com an. Wenn Sie noch kein Nutzer sind, registrieren Sie sich bitte zunächst. Melden Sie sich in Ihrer CometAPI-Konsole an. Holen Sie sich den API-Schlüssel als Zugangsdaten für die Schnittstelle. Klicken Sie im persönlichen Bereich beim API-Token auf „Add Token“, erhalten Sie den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.
Schritt 2: Anfragen an die Claude Haiku 4.5 API senden
Wählen Sie den Endpunkt „claude-haiku-4-5-20251001“, um die API-Anfrage zu senden, und legen Sie den Request-Body fest. Die Request-Methode und der Request-Body sind in unserer API-Dokumentation auf der Website beschrieben. Unsere Website stellt zu Ihrer Bequemlichkeit auch einen Apifox-Test bereit. Ersetzen Sie <YOUR_API_KEY> durch Ihren tatsächlichen CometAPI-Schlüssel aus Ihrem Konto. Die Base-URL ist Anthropic Messages und Chat.
Fügen Sie Ihre Frage oder Anfrage in das Feld content ein — darauf wird das Modell antworten. Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.
Schritt 3: Ergebnisse abrufen und überprüfen
Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten. Nach der Verarbeitung gibt die API den Aufgabenstatus und die Ausgabedaten zurück.