Midjourney の V1 ビデオ モデルの使用方法

CometAPI
AnnaJul 2, 2025
Midjourney の V1 ビデオ モデルの使用方法

Midjourneyは2025年1月中旬、初のビデオモデル「V18」を発表し、AIアートコミュニティに衝撃を与えました。これは、静止画像生成からアニメーションコンテンツへの大きな拡張を意味しました。この待望の機能は、2025年19月2025日にMidjourneyのブログで正式に発表され、1年XNUMX月XNUMX日に広範なアクセスが許可されました。具体的には、VXNUMXにより、クリエイターは単一の画像(AI生成画像またはユーザーがアップロードした画像)を動的な短編クリップに変換できます。これは、デジタルアーティスト、マーケター、そして映画制作者にとって、ビジュアルストーリーテリングのワークフローを再定義する可能性のある機能です。

この記事では、V1 を取り巻く最新の開発状況をまとめ、VXNUMX を効果的に使用する方法を説明し、その技術的基盤、価格、ユースケース、法的考慮事項について説明します。


Midjourney の V1 ビデオ モデルとは何ですか? なぜ重要なのですか?

ミッドジャーニーのV1ビデオモデルは、プラットフォーム初のAI駆動型ビデオへの進出であり、 画像から動画へ 静止画をデフォルトで21秒間の動画クリップにアニメーション化するワークフロー。XNUMX秒単位で最大XNUMX秒まで延長可能です。これにより、ユーザーは従来の動画編集ソフトウェアを必要とせずに、静止画に命を吹き込み、映画のようなループ、アニメーションGIF、ソーシャルメディア対応の動画を作成できます。

AIを活用したビデオの重要性

  • アニメーションの民主化: 以前は、画像をアニメーション化するには特殊なツールとスキルが必要でしたが、V1 ではあらゆるレベルのクリエイターにとって参入障壁が低くなっています。
  • ラピッドプロトタイピング: グラフィック デザイナーとコンテンツ チームは、コストのかかる制作パイプラインなしで、モーションを埋め込んで視聴者のエンゲージメントをテストし、ビジュアル コンセプトをより速く反復できます。
  • 創造的な実験このツールは、専門家以外の人がモーションダイナミクスを試すことを奨励し、静的な構成を超えて AI 芸術の範囲を広げます。

V1 ビデオ モデルにアクセスしてアクティブ化するにはどうすればよいですか?

V1ビデオモデルを使用するには、Midjourneyサブスクリプションを所有し、機能にアクセスする必要があります。 排他的に Midjourney Web インターフェース経由 - Discord コマンドはまだビデオ生成をサポートしていません。

サブスクリプション要件

  • すべての計画: ビデオを生成できる ファストファッション標準画像の 8 倍の速度で GPU 時間クレジットを消費します (つまり、画像の場合は 1 GPU 分に対して XNUMX GPU 分)。
  • プロ&メガプラン: へのアクセスを取得します リラックスモードクレジットは消費しませんが、優先度が低く、レンダリング時間が遅くなります。

機能を有効にする

  1. ログイン時に midjourney.comでアカウントを作成し、 創造する ページで見やすくするために変数を解析したりすることができます。
  2. 画像を生成またはアップロードします 初期フレーム あなたのビデオの。
  3. 新しいをクリックします 「アニメート」 完了した画像レンダリングの下に表示されるボタン。画像からビデオへのワークフローが呼び出されます。
  4. から選択 オートマチック or マニュアル アニメーション モード (詳細は下記)。

これらの簡単な手順により、クリエイターが画像生成に使用するのと同じ直感的なインターフェースを活用して、静止画像を動くシーケンスに変換できるようになります。


V1 ビデオで利用できるさまざまなモードとパラメーターは何ですか?

Midjourney V1はXNUMXつの主要なアニメーションモードを提供します。オートマチック および マニュアル—そして2つのモーション強度設定—低モーション および ハイモーション—出力を微調整するための特殊なパラメータも用意されています。

アニメーションモード

  • 自動モード: システムは画像の内容に基づいて「モーションプロンプト」を自動生成するため、モードを選択する以外に追加の入力は必要ありません。
  • 手動モード: 標準的な Midjourney プロンプトと同様に、要素がどのように動くかを説明するテキスト指示を作成し、正確なクリエイティブ コントロールを可能にします。

動きの強度

  • 低モーション: カメラがほぼ静止し、被写体がゆっくりと移動する周囲の動きや微妙な動きに最適です。ただし、時折、無視できる動きが生じることもあります。
  • ハイモーション: カメラと被写体の両方が激しく動くダイナミックなシーンに適しています。過度に使用すると、視覚的なアーティファクトや「不安定な」フレームが発生する可能性があります。

ビデオ固有のパラメータ

  • --motion low or --motion high 強度を指定します。
  • --raw デフォルトのスタイル設定パイプラインをバイパスし、フィルタリングされていない出力を後処理に使用できるようにします。

これらのオプションにより、ユーザーは微妙な視差効果から本格的な映画のような動きまで、プロジェクトのニーズに合わせてアニメーションのスタイルと複雑さをカスタマイズできます。

Midjourney Videoを始める方法

1. Discordボットコマンド

   /imagine https://your.image.url --motion high --raw --v 1
  • 入力画像を開始フレームとして添付し、 ハイモーション、生のプロンプトの影響、および選択 ビデオV1.

2.Web UI

」をクリックしてくださいアニメーションギャラリー内の画像の下にある「 自動応答オプション or マニュアル、セット モーションレベルを入力して送信します。

1. /imagine <your prompt or image URL>
2. Click the “Animate” button in the web UI
3. Choose Automatic or Manual mode, set High/Low Motion
4. Extend by +4 seconds up to 4 times

公開されている REST スタイルのエンドポイントはまだリリースされていません。すべてのやり取りは Discord のスラッシュ コマンドと Web インターフェイスを介して行われます。

3. コメットAPI

CometAPIは、OpenAIのGPTシリーズ、GoogleのGemini、AnthropicのClaude、Midjourney、Sunoなど、主要プロバイダーの500以上のAIモデルを、開発者にとって使いやすい単一のインターフェースに統合する統合APIプラットフォームです。一貫した認証、リクエストフォーマット、レスポンス処理を提供することで、CometAPIはAI機能をアプリケーションに統合することを劇的に簡素化します。チャットボット、画像ジェネレーター、音楽作曲ツール、データドリブン分析パイプラインなど、どのようなアプリケーションを構築する場合でも、CometAPIを利用することで、反復処理を高速化し、コストを抑え、ベンダーに依存しない環境を実現できます。同時に、AIエコシステム全体の最新のブレークスルーを活用できます。

 開発者はアクセスできる 旅の途中のビデオ API   コメットAPI掲載されている最新モデルは、記事公開日時点のものです。まずは、モデルの機能をご確認ください。 プレイグラウンド そして相談する APIガイド 詳細な手順についてはこちらをご覧ください。アクセスする前に、CometAPIにログインし、APIキーを取得していることを確認してください。 コメットAPI 統合を支援するために、公式価格よりもはるかに低い価格を提供します。

開発者はRESTful APIを介してビデオ生成を統合できます。典型的なリクエスト構造(例):

curl --
location 
--request POST 'https://api.cometapi.com/mj/submit/video' \ 
--header 'Authorization: Bearer {{api-key}}' \ 
--header 'Content-Type: application/json' \ 
--data-raw '{ "prompt": "https://cdn.midjourney.com/f9e3db60-f76c-48ca-a4e1-ce6545d9355d/0_0.png add a dog", "videoType": "vid_1.1_i2v_480", "mode": "fast", "animateMode": "manual" }'

Midjourney V1(Discord) を使用してビデオを段階的に生成するにはどうすればよいですか?

V1 を使用したビデオの作成は、従来の Midjourney イメージ プロンプトを反映した構造化されたワークフローに従いますが、アニメーション キューが追加されています。

ステップ1: 画像を準備する

  1. 生成する 画像提供: /imagine プロンプトまたは upload Web インターフェースを通じてカスタム イメージを作成します。
  2. オプションで、 高めます アニメーション化する前に、アップスケーラーを使用して画像を拡大したり、バリエーションを適用してビジュアルを微調整したりします。

ステップ2: アニメーション機能を呼び出す

  1. レンダリングが完了したら、クリックします 「アニメート」.
  2. 選択する オートマチック 素早い動きや マニュアル 動きに焦点を当てたプロンプトを入力します。
  3. 選択する --motion low or --motion high ご希望の効果に応じて。

ステップ3: 期間と延長を設定する

  • デフォルトでは、動画は 5 seconds 長い。
  • 拡張するには、Webスライダーを使用するか、パラメータを追加します --video-extend 4秒単位で最大 21 seconds.

ステップ4: レンダリングしてダウンロードする

  • 詳しくはこちら 「ビデオを生成」; レンダリング時間はモードとサブスクリプション レベルによって異なります。
  • 完了したら、 ダウンロード アイコンを保存して .mp4 でファイル 480p解像度元の画像のアスペクト比に合わせてください。

この合理化されたプロセスにより、初心者でも数分でアニメーション クリップを制作できるようになり、迅速なクリエイティブな反復が促進されます。


ビデオ出力の品質と継続時間を最適化するにはどうすればよいですか?

V1 でプロ級のビデオを実現するには、モーション設定、プロンプトの特異性、後処理テクニックのバランスを取る必要があります。

動きと安定性のバランス

  • 詳細な被写体(顔や商品ショットなど)のシーンの場合は、 低モーション 明瞭さを保つために、段階的に増やして ハイモーション よりダイナミックな動きが必要な場合。
  • 手動モード 自動プロンプト生成器による予期せぬアーティファクトを回避するために、キャラクターの動きやカメラのパンなどの重要なシーケンスに対して使用します。

期間の管理

  • シーケンスを計画します。短いクリップ (5〜9 秒) はソーシャル メディアのループに適しており、長いクリップ (10〜21 秒) はナレーションやプレゼンテーションのコンテンツに適しています。
  • 過剰なレンダリング コストを防ぎ、出力の一貫性を維持するために、拡張機能を慎重に使用してください。

後処理のヒント

  • 安定: ダウンロードしたクリップをビデオ編集ソフトウェア (Adobe Premiere Pro の Warp Stabilizer など) で実行して、小さなジッターを滑らかにします。
  • カラーグレーディング: V1 出力は編集スイートとの互換性を最大限に高めるために意図的にニュートラルになっているため、LUT または手動の色調整を適用してビジュアルを強化します。
  • フレーム補間: 必要に応じて、Flowframes や Twixtor などのツールを使用してフレーム レートを上げ、非常にスムーズな再生を実現します。

プラットフォーム上の設定と外部編集ワークフローを組み合わせることで、クリエイターは V1 クリップを斬新なアニメーションから洗練されたプロフェッショナルなコンテンツへと昇華させることができます。


V1 Video の使用にかかる費用とサブスクリプションの詳細はいくらですか?

V1 の財務上の影響を理解することは、一般ユーザーと ROI を評価するエンタープライズ チームの両方にとって重要です。

サブスクリプションの階層と価格

  • 基本計画 (月額 10 ドル): 標準の GPU 分単位の消費量 (画像コストの 8 倍) で、高速モードでのみビデオにアクセスできます。
  • プロ計画 および メガプラン (上位層): クレジットを使用せずにジョブを高速モード タスクの後ろにキューに入れる、リラックス モードのビデオ生成を含めます。これは、一括レンダリングや緊急でないレンダリングに役立ちます。

費用の内訳

計画ビデオモード5秒クリップあたりのGPU分コスト4秒あたりの延長コスト
Basic高速のみ8 minutes+8分
プロ / メガ速くてリラックス8分(速い)/ 0分(リラックス)+8 / 0分
  • 平均して、 21秒 高速モードでのクリップは消費します 32 GPU分これは、32 枚の静止画像を生成するのに相当します。

企業における考慮事項

  • 大規模な一括生成では、特にリアルタイムまたは大量のビデオ出力を必要とするチームの場合、カスタムエンタープライズ契約が必要になることがあります。
  • クレジットの使用と期限を評価する: リラックス モードではコストは節約できますが、処理時間は長くなります。

サブスクリプション レベルをプロジェクトの需要に合わせて調整することで、ユーザーは予算と制作のタイムラインの両方を最適化できます。


結論

MidjourneyのV1ビデオモデルは、イノベーションと論争の交差点に位置し、クリエイターに複雑な著作権問題を回避しながら画像をアニメーション化する、これまでにない方法を提供します。シンプルな画像から動画へのワークフローから高度な手動制御まで、V1はユーザーが最小限の技術的オーバーヘッドで魅力的な短編アニメーションを制作することを可能にします。法的課題や倫理的配慮が明らかになるにつれ、情報に基づいた使用とベストプラクティスの遵守が最も重要になります。Midjourneyの今後のロードマップは、より豊かな3D体験、より長いフォーマット、そしてより忠実度の高い出力を約束しており、AI主導の創造性の限界を押し広げるというプラットフォームのコミットメントを強調しています。

SHARE THIS BLOG

1つのAPIで500以上のモデル

最大20%オフ