Ringkasnya: Midjourney tidak menyediakan API rasmi, dan ia tidak menjana video secara langsung. Midjourney ialah perkhidmatan penjanaan imej (Discord/Web). Jika tujuan anda ialah menghasilkan video “berdasarkan Midjourney”, gunakan imej Midjourney sebagai aset, kemudian animasikan dengan model video yang mempunyai API. Cadangan aliran kerja: - Jana imej di Midjourney (pilih nisbah aspek 16:9 atau 9:16 jika perlu). - Muat turun imej beresolusi tinggi. - Pilih model teks-ke-video yang menyokong API: - Runway Gen-3 (API/SDK) - Pika (API) - Stability AI Stable Video Diffusion (SDK/API) - Luma Dream Machine (API) - Hantar prompt + imej Midjourney sebagai rujukan/conditioning ke API video untuk menghasilkan klip. - Pasca produksi: gabung klip, tambah muzik/sari kata, penstabilan, dan upscale jika perlu. Jika anda benar‑benar perlu automasi “Midjourney” secara programatik: - Gunakan automasi Discord (bot) untuk memanggil /imagine, tangkap URL imej yang dijana, muat turun secara programatik. - Rantai aliran: Bot Discord → webhook/queue → simpan imej → panggil API model video di atas untuk animasi. - Ambil maklum batasan dan pematuhan terma penggunaan Midjourney/Discord. Petua prompt untuk video: - Nyatakan gaya visual (mengikut imej Midjourney), gerakan kamera (pan/zoom/dolly), tempoh (cth. 5–10s), nisbah aspek, suasana, dan tahap realisme. - Sertakan imej sebagai “reference image” jika API video menyokong image conditioning.

CometAPI
AnnaDec 29, 2025
Ringkasnya: Midjourney tidak menyediakan API rasmi, dan ia tidak menjana video secara langsung. Midjourney ialah perkhidmatan penjanaan imej (Discord/Web). Jika tujuan anda ialah menghasilkan video “berdasarkan Midjourney”, gunakan imej Midjourney sebagai aset, kemudian animasikan dengan model video yang mempunyai API.

Cadangan aliran kerja:
- Jana imej di Midjourney (pilih nisbah aspek 16:9 atau 9:16 jika perlu).
- Muat turun imej beresolusi tinggi.
- Pilih model teks-ke-video yang menyokong API:
  - Runway Gen-3 (API/SDK)
  - Pika (API)
  - Stability AI Stable Video Diffusion (SDK/API)
  - Luma Dream Machine (API)
- Hantar prompt + imej Midjourney sebagai rujukan/conditioning ke API video untuk menghasilkan klip.
- Pasca produksi: gabung klip, tambah muzik/sari kata, penstabilan, dan upscale jika perlu.

Jika anda benar‑benar perlu automasi “Midjourney” secara programatik:
- Gunakan automasi Discord (bot) untuk memanggil /imagine, tangkap URL imej yang dijana, muat turun secara programatik.
- Rantai aliran: Bot Discord → webhook/queue → simpan imej → panggil API model video di atas untuk animasi.
- Ambil maklum batasan dan pematuhan terma penggunaan Midjourney/Discord.

Petua prompt untuk video:
- Nyatakan gaya visual (mengikut imej Midjourney), gerakan kamera (pan/zoom/dolly), tempoh (cth. 5–10s), nisbah aspek, suasana, dan tahap realisme.
- Sertakan imej sebagai “reference image” jika API video menyokong image conditioning.

Langkah Midjourney ke bidang video telah menjadi salah satu cerita teknologi kreatif terbesar pada tahun 2025. Apa yang bermula sebagai alat berfokus imej yang digemari kini menambah aliran kerja “Imej-ke-Video” yang menukar gambar statik kepada klip animasi pendek — dan sistem ini berubah dengan pantas.

Keupayaan video Midjourney ialah aliran kerja imej-ke-video yang menganimasikan satu imej menjadi klip pendek melalui aliran “Animate”, menghasilkan klip selama lima saat secara lalai dan membenarkan lanjutan sehingga ~21 saat. Ciri ini dilancarkan pada pertengahan 2025 sebagai model video V1 Midjourney dan tersedia melalui Midjourney Video V1 API CometAPI.

Apa itu Midjourney V1

Fungsi Midjourney V1 dan cara ia diakses oleh pengguna

Model video V1 Midjourney menukar satu imej statik (sama ada dijana dalam Midjourney atau imej yang dihoskan secara luaran) kepada klip animasi pendek — secara lalai kira-kira 5 saat — menggunakan mod animasi automatik atau manual dan penanda intensiti gerakan (--motion low / --motion high). Pengguna boleh memanjangkan klip dalam kenaikan 4 saat (sehingga ~21 saat) dan mengawal saiz kelompok, penggelungan dan bingkai akhir; output video ialah MP4. Model Video V1 Midjourney ialah model imej-ke-video yang dioptimumkan untuk klip pendek, berstail dan boleh digelungkan. Ciri lazim model V1 termasuk:

  • Panjang klip asas ~5 saat, dengan mekanisme lanjutan terkawal (penambahan 4 saat, sehingga had yang didokumenkan).
  • Penekanan pada pemeliharaan gaya artistik daripada imej sumber (sapuan berus, warna, suasana).
  • Pertukaran resolusi dan kualiti untuk iterasi pantas; V1 berorientasikan kandungan sosial dan web berbanding keluaran sinematik penuh.

Kekangan ini mempengaruhi cara anda mereka aset dan prompt: V1 paling sesuai untuk gerakan ringkas, gambar statik beranimasi, gelung produk hero, atau babak pendek watak berbanding adegan panjang.

Cara CometAPI mempersembahkan model Video Midjourney

CometAPI ialah gerbang multi-model yang menggabungkan akses kepada ratusan model AI (teks, imej, audio, dan kini imej-ke-video) di sebalik permukaan REST tunggal. Tawaran Video Midjourney CometAPI membungkus keupayaan Video V1 Midjourney supaya jurutera boleh memanggil penjanaan imej-ke-video secara programatik tanpa bergantung semata-mata pada interaksi Discord/web. Ini menjadikannya berguna untuk mengautomasi saluran kreatif, membina bukti konsep, dan menyepadukan aset animasi pendek ke dalam aplikasi atau aliran kerja pengeluaran kandungan.

Midjourney Video CometAPI membolehkan pembangun mengesahkan, memanggil endpoint /mj/submit/video dan menghantar parameter seperti prompt (yang boleh menyertakan URL imej permulaan), videoType (cth., vid_1.1_i2v_480), mode (fast/relax), dan animateMode (automatic/manual). CometAPI menawarkan harga per panggilan yang lebih rendah dan kemudahan (kunci API tunggal + antara muka REST) berbanding integrasi terus melalui aliran kerja berpusatkan Discord Midjourney.

Bagaimana saya perlu membuat persediaan sebelum memanggil API?

Kelayakan dan akaun apa yang diperlukan?

  1. Daftar di CometAPI dan jana kunci API daripada papan pemuka akaun anda (CometAPI menggunakan token bearer seperti sk-xxxxx).
  2. Pastikan anda mempunyai aset imej tersedia dalam talian (URL boleh diakses secara umum) jika anda merancang untuk menggunakan imej luaran sebagai bingkai permulaan. Midjourney memerlukan URL yang boleh dicapai untuk aliran kerja imej→video luaran.

Keputusan yang perlu dibuat terlebih dahulu

  • Imej permulaan — pilih imej dengan subjek dan komposisi yang jelas; nisbah aspek mempengaruhi resolusi/aspek video akhir (Midjourney memetakan nisbah aspek permulaan kepada saiz piksel SD/HD).
  • Gaya gerakan — tentukan gerakan Rendah vs Tinggi (--motion low vs --motion high) dan sama ada anda mahukan inferens automatik atau kawalan manual ke atas gerakan kamera/subjek.
  • Panjang & saiz kelompok — lalai ialah 5 saat; anda boleh memanjangkan sehingga ~21s. Saiz kelompok lalai ialah 4 (Midjourney mengembalikan 4 varian), tetapi anda boleh meminta 1 atau 2 untuk menjimatkan pengiraan.
  • Resolusi — V1 terutamanya SD (480p) secara lalai; HD (720p) memerlukan perihalan parameter, seperti vid_1.1_i2v_480.

Bagaimana memanggil endpoint video Midjourney CometAPI (langkah demi langkah dengan contoh)?

Apakah muatan permintaan minimum?

Sekurang-kurangnya, anda hantar:

  • prompt: URL imej permulaan dan prompt gerakan teks pilihan (cth., "https://.../frame.png tambah anjing berlari dari kiri ke kanan").
  • videoType: cth., vid_1.1_i2v_480.
  • mode: "fast" (atau "relax" jika dibenarkan oleh pelan).
  • animateMode: "automatic" atau "manual".

Ini ialah contoh curl yang menggambarkan POST ke https://api.cometapi.com/mj/submit/video. Berikut ialah contoh curl yang bersih dan sedia disalin yang diadaptasi daripada contoh CometAPI:

curl --location --request POST 'https://api.cometapi.com/mj/submit/video' \
  --header 'Authorization: Bearer sk-YOUR_COMETAPI_KEY' \
  --header 'Content-Type: application/json' \
  --data-raw '{
    "prompt": "https://cdn.midjourney.com/example/0_0.png A peaceful seaside scene — camera slowly zooms out and a gull flies by",
    "videoType": "vid_1.1_i2v_480",
    "mode": "fast",
    "animateMode": "manual",
    "motion": "low",
    "bs": 1
  }'

Contoh Python (requests)

Jika anda lebih suka Python, berikut ialah contoh mantap menggunakan requests yang menyerahkan tugas video dan memantau sehingga siap (gantikan placeholder). Ini ialah corak praktikal: hantar → pantau → muat turun. Contoh di bawah sengaja ringkas dan perlu disesuaikan dengan sistem async/tugas aplikasi anda dalam produksi.

import time
import requests

API_KEY = "sk-YOUR_COMETAPI_KEY"
BASE = "https://api.cometapi.com"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}

payload = {
    "prompt": "https://cdn.midjourney.com/example/0_0.png A calm city street — camera pans left, rain falling",
    "videoType": "vid_1.1_i2v_480",
    "mode": "fast",
    "animateMode": "manual",
    "motion": "low",
    "bs": 1
}

# Submit job
r = requests.post(f"{BASE}/mj/submit/video", json=payload, headers=HEADERS)
r.raise_for_status()
job = r.json()
job_id = job.get("id") or job.get("job_id")

# Poll for completion (example polling)
status_url = f"{BASE}/mj/status/{job_id}"
for _ in range(60):  # poll up to ~60 times
    s = requests.get(status_url, headers=HEADERS)
    s.raise_for_status()
    st = s.json()
    if st.get("status") == "completed":
        download_url = st.get("result", {}).get("video_url")
        print("Video ready:", download_url)
        break
    elif st.get("status") in ("failed", "error"):
        raise RuntimeError("Video generation failed: " + str(st))
    time.sleep(2)

Bagaimana menambah audio (suara, muzik, kesan bunyi) pada video Midjourney/CometAPI?

Adakah Midjourney menghasilkan audio secara asli?

Tidak — setakat V1, output video Midjourney adalah senyap (MP4 tanpa audio terbenam). Pengguna menambah bunyi secara luaran. (Terdapat sistem AI lain yang menjana audio/video bersama, tetapi V1 Midjourney menumpukan pada gerakan visual.)

Saluran kerja yang disyorkan untuk menambah suara dan bunyi

  1. Teks-ke-Pertuturan (TTS) untuk narasi/suara — Gunakan ElevenLabs, Replica, atau perkhidmatan TTS/pengklonan suara yang serupa untuk menjana trek pertuturan daripada skrip. Perkhidmatan ini membolehkan anda menghasilkan gaya pertuturan semula jadi dan kadangkala pada kos rendah per minit. (LinkedIn / komuniti mengesyorkan ElevenLabs sebagai pilihan ringan untuk suara.)
  2. Alat reka bentuk audio AI untuk muzik/SFX — Alat seperti MM Audio, Magicshot atau penjana SFX khusus boleh menjana suasana latar dan kesan yang sesuai dengan klip. Panduan komuniti dan tutorial menunjukkan kualiti yang baik daripada MM Audio dan AI audio lain.
  3. Pendekatan DAW/Penyunting manual (kawalan halus) — Import MP4 yang dijana ke dalam DaVinci Resolve / Premiere / Audacity, tambah audio TTS, kesan bunyi, dan campur. Ini ialah laluan terbaik untuk penyelarasan bibir dan masa yang tepat. Tutorial komuniti dan video YouTube menunjukkan langkah demi langkah cara memadankan audio dengan video Midjourney.

Contoh cepat: gabungkan audio + video dengan ffmpeg

Dengan andaian video.mp4 (senyap) dan speech.mp3 (TTS) telah sedia:

# Normalize audio length (optional), then combine:
ffmpeg -i video.mp4 -i speech.mp3 -c:v copy -c:a aac -shortest output_with_audio.mp4

Untuk campuran yang lebih maju (muzik latar + dialog + kesan bunyi), hasilkan satu trek audio campuran daripada DAW anda dan kemudian mux ke dalam video seperti di atas.

Bagaimana menulis prompt gerakan untuk mengawal animasi?

Corak prompt gerakan

Prompt gerakan dalam Midjourney V1 dipacu oleh bahasa semula jadi. Corak berguna:

  • Arah / aksi: “kamera dolly ke kiri sementara subjek berjalan ke hadapan”
  • Gerakan objek: “daun jatuh dari pokok dan hanyut ke arah kamera”
  • Arahan kamera: “zum perlahan ke dalam, parallax ringan, kelajuan 2x”
  • Kualiti temporal: “gerakan halus, boleh digelungkan, ritma sinematik”

Mulakan dengan ayat gerakan yang ringkas, kemudian tambah kata sifat untuk gaya dan pemasaan: cth., "start_frame_url animate: 'kamera berputar perlahan, subjek bergerak lembut, boleh digelungkan', style: 'butiran filem, sinematik, tempo 2 fps'". Eksperimen dan iterasi kecil adalah penting.

Animasi manual vs automatik

  • Automatik: Biarkan model membuat inferens gerakan yang munasabah. Terbaik untuk percubaan pantas.
  • Manual: Bekalkan laluan kamera dan vektor subjek yang jelas untuk hasil yang konsisten dan boleh diulang — berguna apabila anda memerlukan koreografi yang boleh diramal atau untuk memadankan rakaman aksi sebenar.

Bagaimana memanjangkan video, menukar saiz kelompok, atau mencipta gelung?

Memanjangkan panjang video

Selepas penjanaan, Midjourney (dan pembungkus seperti CometAPI) menyediakan kawalan "Extend". UI Midjourney membolehkan anda memanjangkan klip 5 saat sebanyak 4 saat setiap lanjutan (sehingga ~21 saat). Secara programatik, anda sama ada memanggil endpoint yang sama dengan bendera extend atau menyerahkan tugas extend baharu yang merujuk klip asal (dokumen CometAPI menunjukkan endpoint berparameter dan butang dalam gambaran keseluruhan mereka). Jangka kos lanjutan serupa dengan penjanaan awal.

Mencipta video berulang atau menentukan bingkai akhir

  • Untuk menggelung, gunakan semula bingkai permulaan sebagai bingkai akhir atau tambah parameter --loop.
  • Untuk bingkai akhir yang berbeza, sediakan URL imej lain (sebagai end) dan pastikan ia serasi dalam nisbah aspek. Midjourney menyokong parameter --end. Pertimbangkan menggunakan lanjutan manual untuk melaras prompt semasa lanjutan bagi kesinambungan.

Saiz kelompok dan kawalan kos

Midjourney menjana berbilang varian secara lalai (saiz kelompok 4). Untuk produksi atau aliran yang sensitif kos, tetapkan bs:1 untuk mengurangkan pengiraan. Dokumen Midjourney menyertakan anggaran masa GPU untuk SD vs HD dan saiz kelompok berbeza (berguna untuk ramalan kos). CometAPI menyediakan harga yang kompetitif.

Kesimpulan

Model Video V1 Midjourney ialah langkah awam pertama ke dalam video programatik — ia konservatif secara reka bentuk tetapi menjanjikan. Kami menjangkakan kemas kini model berulang yang meningkatkan urutan lebih panjang, fideliti lebih tinggi, dan rig kamera yang lebih boleh dikawal. Peranan CometAPI sebagai pengagregat menurunkan halangan integrasi untuk pembangun yang mahu menambah video Midjourney ke dalam aplikasi tanpa berurusan dengan pelbagai pengesahan khusus penyedia dan keanehan konkurensi.

Pembangun boleh mengakses MIdjourney Video API melalui CometAPI. Untuk bermula, terokai keupayaan model CometAPI dalam Playground dan rujuk panduan API untuk arahan terperinci. Sebelum mengakses, pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga yang jauh lebih rendah daripada harga rasmi untuk membantu anda membuat integrasi.

Sedia untuk bermula?→ Percubaan percuma Midjourney!

Baca Lagi

500+ Model dalam Satu API

Sehingga 20% Diskaun