Langkah Midjourney menceburi video telah menjadi antara kisah teknologi kreatif terbesar pada 2025. Bermula sebagai alat berfokus imej yang digemari, ia telah menambah aliran kerja “Image-to-Video” yang menukar imej pegun kepada klip animasi pendek — dan sistem ini sedang berubah dengan pantas.
Keupayaan video Midjourney ialah aliran kerja image-to-video yang menganimasikan satu imej menjadi klip pendek melalui aliran “Animate”, menghasilkan klip lima saat secara lalai dan membenarkan sambungan sehingga ~21 saat. Ciri ini dilancarkan pada pertengahan 2025 sebagai model video V1 Midjourney dan tersedia melalui API Midjourney Video V1 CometAPI.
Apa itu Midjourney V1
Apa yang dilakukan oleh Midjourney V1 dan bagaimana ia dipersembahkan kepada pengguna
Model video V1 Midjourney menukar satu imej pegun (sama ada yang dijana dalam Midjourney atau imej yang dihoskan secara luaran) kepada klip animasi pendek — secara lalai kira-kira 5 saat — menggunakan mod animasi automatik atau manual serta bendera intensiti gerakan (--motion low / --motion high). Pengguna boleh memanjangkan klip dalam kenaikan 4 saat (sehingga ~21 saat) dan mengawal saiz kelompok, pengulangan dan bingkai akhir; keluaran video ialah MP4. Model V1 Video Midjourney ialah model image-to-video yang dioptimumkan untuk klip pendek, bergaya, dan boleh diulang. Ciri lazim model V1 termasuk:
- Panjang klip asas ~5 saat, dengan mekanisme sambungan terkawal (kenaikan 4 saat, sehingga had yang didokumenkan).
- Penekanan pada pemeliharaan gaya artistik dari imej sumber (sapuan berus, warna, suasana).
- Pertukaran resolusi dan kualiti untuk iterasi pantas; V1 diorientasikan kepada kandungan sosial dan web dan bukannya output sinematik penuh.
Kekangan ini membentuk cara anda mereka aset dan prompt: V1 paling sesuai untuk gerakan ringkas, animasi imej pegun, gelung hero produk, atau nada pendek watak dan bukannya babak panjang.
Bagaimana CometAPI mempersembahkan model Midjourney Video
CometAPI ialah gerbang multi-model yang mengagregat akses kepada ratusan model AI (teks, imej, audio, dan kini imej-ke-video) di sebalik satu permukaan REST. Tawaran Midjourney Video CometAPI membungkus keupayaan V1 Video Midjourney supaya jurutera boleh memanggil penjanaan imej-ke-video secara programatik dan tidak hanya bergantung pada interaksi Discord/web. Ini menjadikannya berguna untuk mengautomasikan saluran kreatif, membina bukti konsep, dan mengintegrasikan aset animasi pendek ke dalam aplikasi atau aliran kerja pengeluaran kandungan.
Midjourney Video CometAPI membolehkan pembangun mengesahkan, memanggil titik akhir /mj/submit/video dan menghantar parameter seperti prompt (yang boleh menyertakan URL imej permulaan), videoType (cth., vid_1.1_i2v_480), mode (fast/relax), dan animateMode (automatic/manual). CometAPI mempunyai harga per panggilan yang lebih rendah dan lebih mudah (satu kunci API + antara muka REST) berbanding mengintegrasi terus melalui alur kerja berpusatkan Discord Midjourney.
Bagaimana saya membuat persediaan sebelum memanggil API?
Kredensial dan akaun apa yang saya perlukan?
- Daftar di CometAPI dan jana kunci API daripada papan pemuka akaun anda (CometAPI menggunakan token bearer seperti
sk-xxxxx). - Pastikan anda mempunyai aset imej tersedia dalam talian (URL boleh diakses secara umum) jika anda merancang menggunakan imej luaran sebagai bingkai permulaan. Midjourney memerlukan URL yang boleh dicapai untuk alur kerja imej→video luaran.
Keputusan yang perlu dibuat terlebih dahulu
- Imej permulaan — pilih imej dengan subjek dan komposisi yang jelas; nisbah bidang mempengaruhi resolusi/aspek video akhir (Midjourney memetakan nisbah bidang permulaan kepada saiz piksel SD/HD).
- Gaya gerakan — tentukan gerakan Rendah vs Tinggi (
--motion lowvs--motion high) dan sama ada anda mahukan inferens automatik atau kawalan manual bagi gerakan kamera/subjek. - Panjang & saiz kelompok — lalai ialah 5 saat; anda boleh memanjangkan sehingga ~21s. Saiz kelompok lalai ialah 4 (Midjourney mengembalikan 4 varian), tetapi anda boleh minta 1 atau 2 untuk menjimatkan pengiraan.
- Resolusi — V1 terutamanya SD (480p) secara lalai; HD (720p) memerlukan penerangan parameter, seperti vid_1.1_i2v_480.
Bagaimana saya memanggil titik akhir video Midjourney CometAPI (langkah demi langkah dengan contoh)?
Apakah muatan permintaan minimum?
Sekurang-kurangnya, anda hantar:
prompt: URL imej permulaan dan prompt gerakan teks pilihan (cth.," tambahkan seekor anjing berlari dari kiri ke kanan").videoType: cth.,vid_1.1_i2v_480.mode:"fast"(atau"relax"jika dibenarkan oleh pelan).animateMode:"automatic"atau"manual".
Ini ialah sampel curl yang menggambarkan POST ke[ Berikut contoh curl yang telah dikemas kini dan sedia salin, diadaptasi daripada contoh CometAPI:
curl --location --request POST ' \
--header 'Authorization: Bearer sk-YOUR_COMETAPI_KEY' \
--header 'Content-Type: application/json' \
--data-raw '{
"prompt": " A peaceful seaside scene — camera slowly zooms out and a gull flies by",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}'
Contoh Python (requests)
Jika anda menggemari Python, berikut contoh ringkas menggunakan requests yang menghantar tugasan video dan mengaut keadaan sehingga siap (gantikan tempat letak). Ini corak praktikal: hantar → aut → muat turun. Contoh di bawah sengaja ringkas dan patut disesuaikan dengan sistem async/tugasan aplikasi anda dalam produksi.
import time
import requests
API_KEY = "sk-YOUR_COMETAPI_KEY"
BASE = "https://api.cometapi.com"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}
payload = {
"prompt": " A calm city street — camera pans left, rain falling",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}
# Submit job
r = requests.post(f"{BASE}/mj/submit/video", json=payload, headers=HEADERS)
r.raise_for_status()
job = r.json()
job_id = job.get("id") or job.get("job_id")
# Poll for completion (example polling)
status_url = f"{BASE}/mj/status/{job_id}"
for _ in range(60): # poll up to ~60 times
s = requests.get(status_url, headers=HEADERS)
s.raise_for_status()
st = s.json()
if st.get("status") == "completed":
download_url = st.get("result", {}).get("video_url")
print("Video ready:", download_url)
break
elif st.get("status") in ("failed", "error"):
raise RuntimeError("Video generation failed: " + str(st))
time.sleep(2)
Bagaimana saya menambah audio (suara, muzik, kesan bunyi) pada video Midjourney/CometAPI?
Adakah Midjourney menghasilkan audio secara natif?
Tidak — setakat V1, keluaran video Midjourney adalah senyap (MP4 tanpa audio tertanam). Pengguna menambah bunyi secara luaran. (Terdapat sistem AI lain yang menjana audio/video bersama, tetapi V1 Midjourney memfokus pada gerakan visual.)
Aliran kerja yang disyorkan untuk menambah suara dan bunyi
- Text-to-Speech (TTS) untuk narasi/suara — Gunakan ElevenLabs, Replica, atau perkhidmatan klon suara/TTS serupa untuk menjana trek pertuturan daripada skrip. Perkhidmatan ini membolehkan anda menghasilkan gaya pertuturan semula jadi dan kadangkala pada kos rendah per minit. (Catatan LinkedIn/komuniti mengesyorkan ElevenLabs sebagai pilihan ringan untuk suara.)
- Alat reka bentuk audio AI untuk muzik/SFX — Alat seperti MM Audio, Magicshot atau penjana SFX khusus boleh menjana latar ambien dan kesan yang sesuai dengan klip. Panduan komuniti dan tutorial menunjukkan kualiti yang baik daripada MM Audio dan AI audio lain.
- Pendekatan DAW/Penyunting manual (kawalan halus) — Import MP4 yang dijana ke dalam DaVinci Resolve/Premiere/Audacity, tambah audio TTS, kesan bunyi, dan campurkan. Ini laluan terbaik untuk lip sync dan pemasaan yang tepat. Tutorial komuniti dan video YouTube menunjukkan langkah demi langkah untuk memadankan audio dengan video Midjourney.
Contoh pantas: gabung audio + video dengan ffmpeg
Dengan anggapan video.mp4 (senyap) dan speech.mp3 (TTS) sudah sedia:
# Normalize audio length (optional), then combine:
ffmpeg -i video.mp4 -i speech.mp3 -c:v copy -c:a aac -shortest output_with_audio.mp4
Untuk campuran lebih maju (muzik latar + dialog + kesan bunyi), hasilkan satu trek audio bercampur daripada DAW anda dan kemudian mux ke dalam video seperti di atas.
Bagaimana saya harus menulis prompt gerakan untuk mengawal animasi?
Corak prompt gerakan
Prompt gerakan dalam Midjourney V1 dipacu bahasa semula jadi. Corak berguna:
- Arah/aksi: “kamera dolly ke kiri sementara subjek berjalan ke hadapan”
- Gerakan objek: “daun jatuh dari pokok dan melayang ke arah kamera”
- Arahan kamera: “zum perlahan ke dalam, parallax ringan, kelajuan 2x”
- Kualiti temporal: “gerakan halus, boleh diulang, rentak sinematik”
Mulakan dengan satu ayat gerakan yang padat, kemudian tambahkan kata sifat untuk gaya dan pemasaan: cth., "start_frame_url animate: 'kamera spiral perlahan, subjek bergerak lembut, boleh diulang', style: 'butiran filem, sinematik, tempo 2 fps'". Eksperimen dan iterasi kecil adalah penting.
Animasi automatik vs manual
- Automatik: Biarkan model membuat inferens gerakan yang munasabah. Terbaik untuk percubaan pantas.
- Manual: Berikan laluan kamera dan vektor subjek yang jelas untuk hasil yang konsisten dan boleh diulang — berguna apabila anda memerlukan koreografi yang boleh diramal atau untuk memadankan rakaman aksi nyata.
Bagaimana saya memanjangkan video, menukar saiz kelompok, atau mencipta gelung?
Memanjangkan durasi video
Selepas penjanaan, Midjourney (dan pembungkus seperti CometAPI) mendedahkan kawalan "Extend". UI Midjourney membolehkan anda memanjangkan klip 5 saat sebanyak 4 saat setiap sambungan (sehingga ~21 saat). Secara programatik, anda sama ada memanggil titik akhir yang sama dengan bendera extend atau menghantar tugasan extend baharu yang merujuk klip asal (dokumentasi CometAPI menunjukkan titik akhir berparameter dan butang dalam tinjauan mereka). Jangkakan kos sambungan serupa dengan penjanaan awal.
Mencipta video berulang atau menetapkan bingkai akhir
- Untuk gelung, guna semula bingkai permulaan sebagai bingkai akhir atau tambah parameter
--loop. - Untuk bingkai akhir yang berbeza, sediakan URL imej lain (sebagai
end) dan pastikan ia serasi dalam nisbah bidang. Midjourney menyokong parameter--end. Pertimbangkan menggunakan sambunganmanualuntuk menyelaraskan prompt semasa sambungan bagi kesinambungan.
Saiz kelompok dan kawalan kos
Midjourney menjana berbilang varian secara lalai (saiz kelompok 4). Untuk aliran produksi atau sensitif kos, tetapkan bs:1 untuk mengurangkan pengiraan. Dokumentasi Midjourney merangkumi anggaran masa GPU untuk SD vs HD dan saiz kelompok berbeza (berguna untuk ramalan kos). CometAPI menyediakan harga yang kompetitif.
Kesimpulan
Model Video V1 Midjourney ialah langkah awam pertama ke dalam video berprogram — ia konservatif secara reka bentuk tetapi menjanjikan. Kami menjangkakan kemas kini model berulang yang menambah baik rangkaian lebih panjang, fideliti lebih tinggi, dan rig kamera yang lebih boleh dikawal. Peranan CometAPI sebagai pengagregator merendahkan halangan integrasi bagi pembangun yang mahu menambah video Midjourney ke dalam aplikasi tanpa menangani pengesahan khusus penyedia dan keanehan keberserentakan yang pelbagai.
Pembangun boleh mengakses API Video Midjourney melalui CometAPI. Untuk bermula, terokai keupayaan model CometAPI dalam Playground dan rujuk panduan API untuk arahan terperinci. Sebelum mengakses, pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga jauh lebih rendah daripada harga rasmi untuk membantu anda mengintegrasi.
Sedia bermula?→ Percubaan percuma Midjourney!
