Acte_deux est la prochaine génération de Runway Capture des performances de l'IA et animation de personnages outil : il ingère un court performances de conduite (une webcam ou une vidéo de téléphone de quelqu'un jouant une scène) plus un référence du personnage (image ou vidéo) et génère une performance animée qui transfère le corps, l'expression faciale et les mouvements des mains du personnage. Act-Two est proposé dans le produit web de Runway et sous forme de modèle disponible via l'écosystème API.
Introduction au modèle Acte-Deux
acte_deux est conçu pour démocratiser l'animation haute fidélité en transformant de courts extraits de « performances de conduite » en séquences de personnages entièrement animées. Le modèle se concentre sur fidélité expressive — transférer les micro-expressions faciales, les mouvements des lèvres et de la bouche, les gestes des doigts/mains et la posture du corps entier — tout en ajoutant des éléments plausibles mouvement environnemental lorsque le caractère saisi est une image. acte_deux se positionne comme une évolution des modèles Act antérieurs de Runway et est étroitement intégré à l'ensemble d'outils vidéo Gen-4 et à l'API de Runway.
ce que fait l'acte deux
- Transfert de performance sur tout le corps : cartographie la tête, le visage, le torse et les mains d'une seule vidéo de conduite vers une référence de personnage.
- Flexibilité de saisie de caractères : accepte soit un caractère image ou vidéo de référence comme cible.
- Contrôle des gestes: lorsque vous utilisez une image de personnage, vous pouvez piloter les gestes de la main/du corps via le clip de conduite et ajuster l'influence des gestes.
- Mouvement environnemental automatique : ajoute un mouvement subtil d'arrière-plan/d'environnement pour les personnages basés sur des images afin d'éviter les résultats « flottants ».
Détails techniques et contraintes de la tâche
Contributions
- Performances de conduite : une vidéo qui contient la performance d'acteur (mouvement, gestes, audio).
- Référence du personnage : soit une image fixe, soit une vidéo du personnage que vous souhaitez animer. ()
Sorties et formats
Les rapports hauteur/largeur et résolutions pris en charge incluent 1280×720 (16:9), 720×1280 (9:16), 960×960 (1:1) et un petit ensemble d'autres préréglages ; FPS 24 est la fréquence d'images standard pour les sorties. Il y a recadrage automatique pour correspondre aux objectifs de rapport hauteur/largeur.
Notes de traitement : Les meilleurs résultats sont obtenus lorsque les performances de conduite et les personnages sont orientés dans la même direction et occupent un espace similaire à l'écran. Les entrées présentant des décalages de perspective importants ou des sujets très éloignés ou en basse résolution peuvent produire des résultats dégradés. Les filtres de modération et de contenu de Runway s'appliquent aux ressources téléchargées ; les tâches peuvent être rejetées si le contenu enfreint les règles.
Limitations et modes de défaillance connus
- Focus de courte durée : acte_deux est optimisé pour clips courts (3 secondes minimum ; les workflows classiques nécessitent moins de 30 secondes). Pour une capture de mouvement longue durée, vous aurez toujours besoin de captures traditionnelles ou de workflows fragmentés.
- Modération / sécurité du contenu : La modération de Runway peut bloquer ou faire échouer les tâches liées aux entrées signalées ; les comptes présentant un nombre excessif d'échecs de modération peuvent être limités ou suspendus. Intégrez la conformité aux politiques de contenu à l'automatisation.
- Cas limites : Des performances multi-personnes extrêmement complexes, des mains fortement occultées ou des références ultra-stylisées peuvent produire des artefacts (instabilité, poses de mains incorrectes ou inadéquation des expressions). Un nettoyage manuel ou des pipelines hybrides (rotoscopie à main légère / réparation d'images clés) peuvent néanmoins être nécessaires.
- Il ne s'agit pas d'un remplacement complet de la capture de mouvement dans tous les cas : Bien qu'Act-Two puisse remplacer de nombreuses configurations traditionnelles pour les scènes courtes et le prototypage, les pipelines de films/CGI haut de gamme qui nécessitent une précision inférieure au millimètre, plusieurs acteurs interagissant physiquement ou une synchronisation temporelle sur le plateau s'appuieront toujours sur des systèmes de marqueurs/étapes de capture de performances.
Cas d'utilisation typiques
- Production virtuelle et prévisualisation — tests de blocage et d'action rapides sans étape de mocap.
- Prototypage de jeux et d'animations indépendants — génération rapide de mouvements de personnages pour des scènes courtes.
- Publicités et contenu social — produire des spots publicitaires et des personnages animés à moindre coût et rapidement.
- Insertions VFX et remplacement de mouvement — augmenter les images existantes en créant un personnage stylisé à partir de la prise d'un acteur.
Comparaison avec d'autres solutions actuelles
acte_deux contre Pika Labs / Kaiber / Sora (haut niveau)
- Acte deux (Piste) : excelle dans fidélité des performances des personnages (tête/visage/corps/mains) avec un clip de conduite unique paradigme et intégration API simple pour les vidéos courtes ; tarification prévisible des crédits pour les secondes de sortie.
- Laboratoires Pika : souvent mis en avant pour son transfert flexible de style et d'invite vidéo ; peut se concentrer davantage sur la génération et la stylisation de vidéos générales plutôt que sur le transfert de performances ciblé.
- Kaiber: fort à transformations de style, visuels axés sur la musique et génération de scènes générales, mais pas nécessairement aussi spécialisé dans la fidélité de mocap par personnage.
- Sora (et pipelines VFX premium similaires) : orienté vers la qualité cinématographique et la génération de scènes étendues ; plus fort pour les longues séquences et les effets visuels de films mais plus gourmand en ressources et peut-être moins accessible pour les prototypes rapides.
Comment appeler Acte deux API de CometAPI
Étapes requises
- Se connecter à cometapi.comSi vous n'êtes pas encore notre utilisateur, veuillez d'abord vous inscrire
- Obtenez la clé API d'accès à l'interface. Cliquez sur « Ajouter un jeton » au niveau du jeton API dans l'espace personnel, récupérez la clé : sk-xxxxx et validez.
- Obtenez l'URL de ce site : https://api.cometapi.com/
Utiliser la méthode
- Sélectionnez l'option "
act_twoPoint de terminaison pour envoyer la requête API et définir le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site web. Notre site web propose également le test Apifox pour plus de commodité. - Remplacer avec votre clé CometAPI réelle de votre compte.
- Insérez votre question ou demande dans le champ de contenu : c'est à cela que le modèle répondra.
- Traitez la réponse de l'API pour obtenir la réponse générée.
CometAPI fournit une API REST entièrement compatible, pour une migration fluide. Informations clés API doc:
- Endpoint:
https://api.cometapi.com/runwayml/v1/character_performance - Paramètre de modèle:
act_two - Authentification:
Bearer YOUR_CometAPI_API_KEY - Content-Type:
application/json.
curl --location --request POST 'https://api.cometapi.com/runwayml/v1/character_performance' \
--header 'X-Runway-Version: 2024-11-06' \
--header 'Authorization: {{api-key}}' \
--header 'Content-Type: application/json' \
--data-raw '{
"character": {
"type": "video",
"uri": "https://filesystem.site/cdn/20250818/wAKbHUoj5EHyqZvEdJbFXn10wXBMUn.mp4"
},
"reference": {
"type": "video",
"uri": "https://filesystem.site/cdn/20250818/wAKbHUoj5EHyqZvEdJbFXn10wXBMUn.mp4"
},
"bodyControl": true,
"expressionIntensity": 3,
"seed": 4294967295,
"model": "act_two",
"ratio": "1280:720",
"contentModeration": {
"publicFigureThreshold": "auto"
}
}'