ModèlesTarificationEntreprise
500+ API de modèles IA, toutes en une seule API. Simplement avec CometAPI
API des modèles
Développeur
Démarrage rapideDocumentationTableau de bord API
Entreprise
À proposEntreprise
Ressources
Modèles d'IABlogJournal des modificationsSupport
Conditions d'utilisationPolitique de confidentialité
© 2026 CometAPI · All rights reserved
Home/Models/Runway/runway_act_one
R

runway_act_one

Par requête:$0.4
Usage commercial
Aperçu
Fonctionnalités
Tarification
API

Technical Specifications of runway-act-one

SpecificationDetails
Model IDrunway-act-one
ProviderRunway
Model typeCharacter-performance animation / image-and-video-to-video facial performance transfer
Core functionApplies a driving performance video to a character reference image or character reference video to animate expressions, lip movement, and facial motion.
Base model contextAct-One is presented by Runway as a feature used with Gen-3 Alpha and Gen-3 Alpha Turbo workflows.
Primary inputsDriving performance video plus either a character reference image or a character reference video.
Recommended subject typeHuman, forward-facing, single-face shots with clear facial features and minimal occlusion.
Supported output durationUp to 30 seconds in the documented Gen-3 Alpha / Turbo Act-One workflow.
Output resolutions1280×768 and 768×1280 in the documented workflow.
Frame rate24 fps.
Motion controlMotion Intensity setting from 1 to 5, where lower values favor stability and higher values increase expressiveness.
Platform availabilityRunway documents Act-One availability on web and iOS for the referenced workflow.
Access considerationsRunway states this feature is available to Standard-plan users or higher in its product workflow, while API access uses Runway’s developer platform, API keys, versioned headers, and task-based generation flow.

What is runway-act-one?

runway-act-one is CometAPI’s platform identifier for Runway’s Act-One model/workflow, a character animation system designed to transfer a recorded performance onto a target character. In Runway’s own description, users upload a driving performance and use it to influence a character reference image or video, especially for expressions, mouth movement, and facial acting.

In practice, this makes runway-act-one well suited for talking-character clips, stylized portrait animation, AI avatar shots, and performance-driven facial animation where you want more control than prompt-only video generation. Runway’s guidance emphasizes that the best results come from well-lit, forward-facing, human single-face inputs with the face visible for the full shot.

Although Act-One is described in Runway’s help documentation as part of the Gen-3 Alpha and Turbo creation flow, developers integrating Runway programmatically should understand that Runway’s API is task-based, authenticated by bearer token, and versioned using the X-Runway-Version header.

Main features of runway-act-one

  • Performance-driven facial animation: Transfers a source performance onto a target character, allowing expressions and mouth movement to follow the driving video rather than relying only on text prompting.
  • Character image or video input: Supports either a still character reference image for more stable outputs or a character reference video for greater motion flexibility.
  • Expression and lip-sync influence: Runway explicitly positions Act-One as a way to precisely influence expressions, mouth movements, and related facial behavior.
  • Adjustable motion intensity: Includes a Motion Intensity control from 1 to 5 so users can tune outputs toward steadier motion or stronger expressiveness.
  • Portrait-friendly production specs: The documented workflow supports both landscape and portrait outputs at 24 fps, with output lengths up to 30 seconds.
  • Best-practice driven reliability: Runway provides concrete input guidelines such as shoulders-up framing, forward-facing faces, minimal occlusion, and consistent visibility to improve success rate and quality.
  • Task-based API compatibility: For developer workflows, Runway’s API uses authenticated task submission and task retrieval patterns, which fit well into asynchronous production pipelines.
  • Reusable asset ingestion options: Runway supports direct HTTPS inputs and ephemeral uploaded assets via runway:// URIs, which can help when automating media-heavy workflows.

How to access and integrate runway-act-one

Step 1: Sign Up for API Key

To call runway-act-one, first create an account on CometAPI and generate an API key from the dashboard. Store it securely as an environment variable so your application can authenticate requests without hardcoding secrets in source files.

Step 2: Send Requests to runway-act-one API

Use CometAPI's Runway-compatible endpoint at POST /runway/pro/act_one.

curl https://api.cometapi.com/runway/pro/act_one \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_API_KEY" \
  -d '{
    "prompt": "Your prompt here."
  }'

Step 3: Retrieve and Verify Results

The API returns a task object. Poll the task status via POST /runway/feed with the task ID to check when generation is complete, then retrieve the output URL.

Fonctionnalités pour runway_act_one

Découvrez les fonctionnalités clés de runway_act_one, conçues pour améliorer les performances et la facilité d'utilisation. Explorez comment ces capacités peuvent bénéficier à vos projets et améliorer l'expérience utilisateur.

Tarification pour runway_act_one

Découvrez des tarifs compétitifs pour runway_act_one, conçus pour s'adapter à différents budgets et besoins d'utilisation. Nos formules flexibles garantissent que vous ne payez que ce que vous utilisez, ce qui facilite l'adaptation à mesure que vos besoins évoluent. Découvrez comment runway_act_one peut améliorer vos projets tout en maîtrisant les coûts.
Prix de Comet (USD / M Tokens)Prix officiel (USD / M Tokens)Remise
Par requête:$0.4
Par requête:$0.5
-20%

Exemple de code et API pour runway_act_one

Accédez à des exemples de code complets et aux ressources API pour runway_act_one afin de simplifier votre processus d'intégration. Notre documentation détaillée fournit des instructions étape par étape pour vous aider à exploiter tout le potentiel de runway_act_one dans vos projets.

Plus de modèles

D

Doubao-Seedance-2-0

Par Seconde:$0.07
Seedance 2.0 est le modèle de fondation vidéo multimodal de nouvelle génération de ByteDance, axé sur la génération de vidéos narratives cinématographiques à plusieurs plans. Contrairement aux démonstrations texte-vers-vidéo à plan unique, Seedance 2.0 met l’accent sur un contrôle basé sur des références (images, clips courts, audio), la cohérence des personnages et des styles d’un plan à l’autre, ainsi qu’une synchronisation audio/vidéo native — visant à rendre la vidéo générée par IA utile aux workflows professionnels de création et de prévisualisation.
O

Sora 2

Par Seconde:$0.08
Modèle de génération vidéo ultra-puissant, avec des effets sonores, prend en charge le format conversationnel.
M

mj_fast_video

Par requête:$0.6
Génération vidéo Midjourney
X

Grok Imagine Video

Par Seconde:$0.04
Générez des vidéos à partir d'instructions textuelles, animez des images fixes ou modifiez des vidéos existantes à l'aide du langage naturel. L'API permet de configurer la durée, le ratio d'aspect et la résolution des vidéos générées — le SDK gère automatiquement le sondage asynchrone.
G

Veo 3.1 Pro

Par Seconde:$0.25
Veo 3.1‑Pro désigne l’accès/la configuration à capacités étendues de la famille Veo 3.1 de Google — une génération de modèles vidéo de format court, avec prise en charge de l’audio, qui ajoutent un audio natif plus riche, des contrôles de narration/montage améliorés et des outils d’extension de scène.
G

Veo 3.1

Par Seconde:$0.05
Veo 3.1 est une mise à jour incrémentale mais significative de Google pour sa famille Veo texte-et-image→vidéo, ajoutant un son natif plus riche, des sorties vidéo plus longues et plus facilement contrôlables, ainsi que des outils de montage plus précis et des contrôles au niveau des scènes.