모델지원엔터프라이즈블로그
500개 이상의 AI 모델 API, 모든 것이 하나의 API로. CometAPI에서
Models API
개발자
빠른 시작문서API 대시보드
리소스
AI 모델블로그엔터프라이즈변경 로그소개
2025 CometAPI. 모든 권리 보유.개인정보 보호정책서비스 이용약관
Home/Models/Runway/runway_video2video
R

runway_video2video

요청당:$0.2
상업적 사용
개요
기능
가격
API

Technical Specifications of runway-video2video

SpecificationDetails
Model IDrunway-video2video
ProviderRunway
Model typeVideo-to-video generation / stylized video transformation
Primary functionTransforms an input video into a new output video guided by a text prompt, and in some workflows by a reference image or first frame.
Backing Runway capabilityCommonly associated with Runway’s Video to Video workflow on Gen-3 Alpha and Gen-3 Alpha Turbo, while Runway’s newer guidance points users toward Gen-4 Aleph for the latest video-to-video capability.
Input typesInput video is required; prompt text is used for transformation guidance. Runway documentation also describes image-guided styling in video workflows.
OutputAI-transformed video clip
Supported durationsRunway’s Gen-3 video-to-video workflow supports clips up to 20 seconds for the referenced workflow.
Output resolutions1280×768 and, for supported variants, 768×1280.
Max input size64 MB in the referenced Gen-3 video-to-video workflow.
AccessAvailable through API-based integration and platform workflows from Runway. Runway publishes its API documentation separately.

What is runway-video2video?

runway-video2video is CometAPI’s model identifier for Runway’s video-to-video generation capability, a workflow that takes an existing video clip and re-renders it into a new visual style or motion-driven interpretation using prompt-based guidance. In practice, this is used for stylization, scene transformation, look development, experimental VFX, and turning raw footage into more cinematic or imaginative outputs.

Runway’s help documentation describes Video to Video as a way to change the style of videos using a text prompt or an input image as the first frame. Its more recent product guidance also indicates that while Gen-3 Alpha and Turbo supported this workflow, newer Runway recommendations point users to newer-generation tooling for the latest video-to-video use cases. From a CometAPI integration perspective, however, runway-video2video is the platform model ID you use to access this class of capability.

Main features of runway-video2video

  • Video-guided generation: Starts from an existing video input rather than generating motion from scratch, making it useful for preserving shot structure, timing, and composition while changing the visual result.
  • Prompt-based transformation: Uses natural-language instructions to control the output style, mood, subject reinterpretation, or visual effect direction.
  • Style transfer and creative re-rendering: Well suited for converting footage into animated, cinematic, surreal, or branded visual treatments without manual frame-by-frame editing. This is an inference based on Runway’s described video-to-video styling workflow.
  • Reference-aware workflows: Runway documentation indicates support for image-informed guidance in related video generation flows, which helps steer composition or aesthetic consistency.
  • Portrait and landscape output options: Supported workflows include standard horizontal and vertical output formats, which is useful for social, mobile, and marketing delivery.
  • Short-form production efficiency: The referenced workflow supports short clips up to 20 seconds, which fits ad creatives, concept shots, social posts, and rapid iteration pipelines.
  • API accessibility: Runway provides API documentation and model access patterns, enabling programmatic integration into creative apps, internal tools, and automated media pipelines.

How to access and integrate runway-video2video

Step 1: Sign Up for API Key

To get started, sign up on CometAPI and generate your API key from the dashboard. Once you have your key, store it securely and use it to authenticate requests to the CometAPI endpoint.

Step 2: Send Requests to runway-video2video API

Use Runway's official API format via CometAPI. The endpoint is POST /runwayml/v1/video_to_video. You must include the X-Runway-Version header.

curl https://api.cometapi.com/runwayml/v1/video_to_video \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_API_KEY" \
  -H "X-Runway-Version: 2024-11-06" \
  -d '{
    "model": "gen4_aleph",
    "videoUri": "https://example.com/your-source-video.mp4",
    "promptText": "Transform this footage into a cinematic neon-lit sci-fi sequence with dramatic atmosphere and smooth motion.",
    "seed": 1,
    "ratio": "1280:720",
    "references": [],
    "contentModeration": {
      "publicFigureThreshold": "auto"
    }
  }'
import os, requests

resp = requests.post(
    "https://api.cometapi.com/runwayml/v1/video_to_video",
    headers={
        "Authorization": f"Bearer {os.environ['COMETAPI_API_KEY']}",
        "Content-Type": "application/json",
        "X-Runway-Version": "2024-11-06",
    },
    json={
        "model": "gen4_aleph",
        "videoUri": "https://example.com/your-source-video.mp4",
        "promptText": "Transform this footage into a cinematic neon-lit sci-fi sequence.",
        "seed": 1,
        "ratio": "1280:720",
        "references": [],
        "contentModeration": {"publicFigureThreshold": "auto"},
    },
)
print(resp.json())

Step 3: Retrieve and Verify Results

The API returns a task object. Poll the task status endpoint to check when the video generation is complete, then retrieve the output video URL. For production use, add retries, status polling, and logging to ensure reliable integration with runway-video2video.

runway_video2video의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

runway_video2video 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)할인
요청당:$0.2
요청당:$0.25
-20%

runway_video2video의 샘플 코드 및 API

[모델 이름]의 포괄적인 샘플 코드와 API 리소스에 액세스하여 통합 프로세스를 간소화하세요. 자세한 문서는 단계별 가이드를 제공하여 프로젝트에서 [모델 이름]의 모든 잠재력을 활용할 수 있도록 돕습니다.

더 많은 모델

O

Sora 2 Pro

초당:$0.24
Sora 2 Pro는 동기화된 오디오가 포함된 동영상을 생성할 수 있는, 당사에서 가장 진보되고 강력한 미디어 생성 모델입니다. 자연어 또는 이미지로부터 정교하고 역동적인 동영상 클립을 생성할 수 있습니다.
O

Sora 2

초당:$0.08
초강력 비디오 생성 모델, 효과음 지원, 채팅 형식 지원.
M

mj_fast_video

요청당:$0.6
Midjourney video generation
X

Grok Imagine Video

초당:$0.04
텍스트 프롬프트로 동영상을 생성하거나, 정지 이미지를 애니메이션으로 만들거나, 자연어로 기존 동영상을 편집할 수 있습니다. API는 생성된 동영상의 길이, 종횡비, 해상도를 설정할 수 있도록 지원하며 — SDK가 비동기 폴링을 자동으로 처리합니다.
G

Veo 3.1 Pro

초당:$0.25
Veo 3.1-Pro는 Google의 Veo 3.1 제품군의 고급 기능 접근/구성을 의미합니다 — 숏폼, 오디오 지원 비디오 모델의 세대로서 더 풍부한 네이티브 오디오, 향상된 서사/편집 제어 및 장면 확장 도구를 추가합니다.
G

Veo 3.1

초당:$0.05
Veo 3.1은 Google의 Veo 텍스트·이미지→비디오 제품군에 대한 점진적이지만 중요한 업데이트로, 더 풍부한 네이티브 오디오, 더 길고 더 세밀하게 제어 가능한 비디오 출력, 그리고 더 정교한 편집 및 장면 수준 제어를 추가합니다.