Les dernières fonctionnalités de Claude 4 marquent une évolution significative dans la façon dont les grands modèles de langage interagissent avec les outils et API externes. Parmi celles-ci : diffusion d'outils à granularité fine Cette fonctionnalité de pointe permet aux développeurs de recevoir les paramètres d'entrée des outils en quasi-temps réel, sans attendre la validation JSON complète. Lancée en version bêta en mai 2025, cette fonctionnalité résout les problèmes de latence liés aux appels d'outils à paramètres volumineux et permet des applications plus réactives et interactives.
Qu'est-ce que le streaming d'outils à granularité fine dans Claude 4 ?
Le flux d'outils à granularité fine (FGTS) dans Claude 4 est le mécanisme par lequel le modèle entrelace sa génération de langage naturel avec des appels à des outils externes ou intégrés (par exemple, exécution de code, recherche, calculatrice) à la granularité de jetons individuels ou de petits fragments de texte. Au lieu de traiter une requête d'outil complète par lots, puis de bloquer sur une réponse complète, Claude 4 peut :
- Émettre un jeton de déclenchement d'outil au milieu d'une phrase,
- Commencer à recevoir et à ingérer des sorties d'outils partielles à son arrivée,
- Continuer à générer ses prochains jetons, conditionné dynamiquement à chaque donnée entrante.
Le résultat est une fusion harmonieuse du raisonnement et de l'action : le modèle ne s'arrête pas maladroitement entre « Je veux appeler l'API météo » et « Voici la réponse ». Au contraire, son texte coule sans interruption, enrichi en temps réel par les résultats diffusés en continu par l'outil.
En pratique, cela réduit considérablement la latence pour les appels d'outils à paramètres importants. Par exemple, lorsqu'on demande à Claude d'écrire un long poème dans un fichier via un make_file Avec l'outil, le streaming standard peut prendre environ 15 secondes avant que vous ne voyiez le texte du poème. Avec le streaming fin activé, vous commencez à recevoir des segments de plusieurs lignes en seulement 3 secondes environ, chaque segment contenant des fragments cohérents du poème plutôt que des segments JSON arbitraires. La même approche s'applique à tout outil avec des entrées volumineuses (par exemple, transformations de données en masse, calculs en plusieurs étapes ou appels d'API en plusieurs parties), vous permettant de commencer le traitement ou l'affichage des résultats immédiatement sans attendre la matérialisation de la charge utile complète.
En quoi FGTS diffère-t-il du streaming standard ?
Comportement de fragmentation
Avec le streaming standard, Claude divise la charge utile JSON sérialisée en petits fragments, souvent au milieu d'un jeton ou d'un mot, ce qui produit de nombreux fragments courts avant l'apparition d'un contenu substantiel. Pour un poème volumineux ou une charge utile de données, cela peut se manifester par des dizaines de fragments minuscules de 10 à 20 caractères chacun. Le streaming à granularité fine, en revanche, produit des fragments plus volumineux et sémantiquement cohérents, comme des lignes de texte complètes, ce qui produit des fragments moins nombreux et plus longs, plus significatifs pour le récepteur ().
Améliorations de la latence
Dans les tests pratiques, les appels d'outils utilisant le streaming standard peuvent entraîner une 15 secondes Le délai avant l'émission du premier bloc de données valide est dû à la mise en mémoire tampon et à la validation JSON. Le streaming à granularité fine réduit cette latence initiale à environ 3 secondes, permettant aux clients de consommer du contenu en streaming près de cinq fois plus vite. Cette accélération s'avère essentielle pour les applications interactives, telles que l'édition de code en direct, la génération progressive de documents ou les mises à jour de tableaux de bord, où un retour d'information rapide améliore considérablement l'expérience utilisateur.
Pourquoi le streaming d’outils à granularité fine a-t-il été introduit ?
Avant FGTS, la plupart des systèmes LLM basés sur des outils utilisaient grossier Appels d'outils : le modèle génère une instruction complète « APPEL OUTIL X AVEC ARGS… », marque une pause, reçoit la réponse complète de l'outil, puis poursuit la génération. Cette approche présente plusieurs limites :
- Pics de latence:L'attente de la réponse complète d'un calcul lourd ou d'une requête de base de données ajoute un délai de blocage.
- Manque de rétroaction progressive:Le modèle ne peut pas commencer à interpréter ou à replanifier tant que la réponse complète n'est pas arrivée.
- Formatage rigide:Les appels d'outils et les sorties de langage vivent dans des phases séparées, ce qui limite la flexibilité syntaxique.
FGTS résout ces problèmes en diffusant ensemble les jetons du modèle et les sorties de l'outil, jeton par jeton ou morceau par morceau, de sorte que la génération et l'exécution de l'outil se déroulent en synchronisme.
Comment Claude 4 applique-t-il réellement le FGTS ?
1. Déclencheurs au niveau du jeton
Lors de son processus de décodage, Claude 4 reconnaît des marqueurs spéciaux (souvent invisibles pour les utilisateurs finaux) indiquant le « démarrage de l'appel d'outil », accompagné du nom de la fonction et des arguments. Lorsque le modèle émet ce déclencheur, l'environnement d'exécution FGTS envoie immédiatement la requête sans attendre la génération d'une commande « CALL_TOOL » complète.
2. Interfaces des outils de streaming
La boîte à outils de Claude 4, qui comprend le propre exécuteur de code, la calculatrice et les interfaces de recherche Web d'Anthropic, est intégrée dans des API de streaming.
- Coureur de code: Renvoie la sortie standard/stderr émise ligne par ligne pendant l'exécution de votre script.
- Calculatrice: Flux de chiffres ou étapes intermédiaires d'un long calcul.
- Navigateur/Recherche: Diffuse des extraits de texte ou des liens au fur et à mesure que les pages sont récupérées et analysées.
Chaque fragment revient progressivement au tampon de contexte Claude 4.
3. Mises à jour contextuelles incrémentielles
À mesure que chaque bloc de sortie de l'outil arrive, Claude 4 l'ajoute à sa fenêtre contextuelle active. Les choix de jetons suivants du modèle intègrent immédiatement ces nouvelles données, permettant ainsi à son raisonnement de pivoter en milieu de phrase, de corriger des erreurs ou d'approfondir l'analyse en fonction des informations apprises.

Comment les développeurs permettent-ils un streaming d’outils précis ?
L’activation du streaming à granularité fine dans votre intégration Claude 4 ne nécessite qu’une modification mineure de vos en-têtes de requête API et de votre configuration.
Configuration de l'en-tête de l'API
Pour activer la fonctionnalité bêta, incluez l'en-tête :
makefileanthropic-beta: fine-grained-tool-streaming-2025-05-14
aux côtés de "stream": true dans votre /v1/messages demande.
Exemple d'utilisation
bashcurl https://api.anthropic.com/v1/messages \
-H "content-type: application/json" \
-H "x-api-key: $ANTHROPIC_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "anthropic-beta: fine-grained-tool-streaming-2025-05-14" \
-d '{
"model": "claude-sonnet-4-20250514",
"tools": [{
"name": "make_file",
"description": "Write text to a file",
"input_schema": {
"type": "object",
"properties": {
"filename": {"type": "string"},
"lines_of_text": {"type": "array"}
},
"required":
}
}],
"messages": ,
"stream": true
}' | jq .
Au fur et à mesure que la demande s'exécute, vous recevrez un mélange de content_block_delta et input_json_delta événements. Ces derniers contiennent les fragments de paramètres diffusés en continu, qui peuvent être enregistrés, validés de manière incrémentielle ou directement intégrés aux processus en aval.
Quels compromis et quelles bonnes pratiques devraient être pris en compte ?
Bien que le streaming d’outils à granularité fine offre des avantages substantiels, il introduit également des considérations concernant l’intégrité des données et la complexité du client.
Gestion du JSON incomplet
Comme le flux peut s'arrêter avant la formation d'un objet JSON complet, notamment lorsque les limites de jetons sont atteintes, les développeurs doivent mettre en mémoire tampon les fragments entrants et tenter une analyse incrémentielle. L'utilisation d'un analyseur JSON de flux ou la mise en œuvre d'un tampon de réassemblage attendant les accolades fermantes peut garantir la robustesse. docs.anthropic.com.
Validation et récupération d'erreurs
La validation du schéma JSON s'effectuant généralement côté client ou au sein de l'outil, il est essentiel de vérifier l'exhaustivité des paramètres avant exécution. Des stratégies de nouvelle tentative ou une logique de secours (par exemple, demander la réouverture d'un appel d'outil) peuvent être utilisées si la validation échoue sur des flux incomplets.
Considérations sur la stabilité bêta
En tant que fonctionnalité bêta, le comportement du streaming détaillé est susceptible d'évoluer. Anthropic encourage les développeurs à faire part de leurs commentaires via son formulaire officiel pour signaler des problèmes, suggérer des améliorations ou partager des mesures de performance. La surveillance des avis d'obsolescence et des notes de version est essentielle pour maintenir la compatibilité.
Pour commencer
CometAPI fournit une interface REST unifiée qui regroupe des centaines de modèles d'IA, dont la famille Claude, sous un point de terminaison cohérent, avec gestion intégrée des clés API, des quotas d'utilisation et des tableaux de bord de facturation. Plus besoin de jongler avec plusieurs URL et identifiants de fournisseurs.
Les développeurs peuvent accéder Claude Sonnet 4 API (modèle: claude-sonnet-4-20250514 ; claude-sonnet-4-20250514-thinking) et API Claude Opus 4 (modèle: claude-opus-4-20250514; claude-opus-4-20250514-thinking)etc. à travers API Comet. . Pour commencer, explorez les capacités du modèle dans le cour de récréation et consultez le Guide de l'API Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API avant d'y accéder. CometAPI a également ajouté cometapi-sonnet-4-20250514etcometapi-sonnet-4-20250514-thinking spécifiquement pour une utilisation dans Cursor.
Nouveau sur CometAPI ? Mise en service rapide et libérez Claude 4 dans vos tâches les plus difficiles.
Lors de votre candidature, il vous suffit de remplacer l'URL https://api.anthropic.com/v1/messages avec https://api.cometapi.com/v1/chat/completions et la clé API avec la clé CometAPI que vous obtenez pour activer xx dans le flux de travail.
Nous avons hâte de voir ce que vous construisez. Si quelque chose ne va pas, n'hésitez pas à laisser un commentaire : nous indiquer ce qui ne va pas est le moyen le plus rapide d'améliorer la situation.
Conclusion
Le streaming d'outils à granularité fine dans Claude 4 représente un changement de paradigme dans l'intégration des outils LLM, échangeant le filet de sécurité de la validation JSON de la charge utile complète contre latence ultra-faible, streaming incrémentalet interactivité améliorée. En ne nécessitant qu'un seul en-tête bêta pour être activée, cette fonctionnalité ouvre de nouvelles possibilités pour le codage, le traitement des données et les workflows agentiques. À mesure que les développeurs explorent son potentiel et prennent en compte les cas limites comme les fragments JSON partiels, le streaming à granularité fine est en passe de devenir la pierre angulaire des applications de nouvelle génération pilotées par l'IA en temps réel.
