Midjourneys satsing på video har vært en av 2025s største historier innen kreativ teknologi. Det som startet som et elsket, bilde-først-verktøy har fått en «Image-to-Video»-arbeidsflyt som gjør stillbilder om til korte animerte klipp — og systemet utvikler seg raskt.
Midjourneys videofunksjon er en image-to-video-arbeidsflyt som animerer ett enkelt bilde til et kort klipp via en «Animate»-flyt, som som standard produserer femsekunders klipp og tillater utvidelser opp til ~21 sekunder. Funksjonen ble lansert midt i 2025 som Midjourneys V1 videomodell og er tilgjengelig via CometAPIs Midjourney Video V1 API.
Hva er Midjourney V1
Hva Midjourney V1 gjør og hvordan den eksponeres for brukere
Midjourneys V1 videomodell gjør et enkelt stillbilde (enten generert i Midjourney eller et eksternt hostet bilde) om til korte animerte klipp — som standard rundt 5 sekunder — ved å bruke enten automatiske eller manuelle animasjonsmoduser og bevegelsesintensitetsflagg (--motion low / --motion high). Brukere kan forlenge klipp i 4-sekunders trinn (opp til ~21 sekunder) og styre batchstørrelse, looping og sluttbilder; videoene leveres som MP4. Midjourneys V1 Video-modell er en image-to-video-modell optimalisert for korte, stiliserte, loopbare klipp. Typiske kjennetegn ved V1-modellen inkluderer:
- Grunnlengde på klipp ~5 sekunder, med en kontrollert utvidelsesmekanisme (4-sekunders trinn, opp til en dokumentert grense).
- Vekt på å bevare kunstnerisk stil fra kildebildet (penselstrøk, farge, stemning).
- Avveiinger mellom oppløsning og kvalitet for rask iterasjon; V1 er orientert mot sosialt og web-innhold heller enn fullverdig filmatisk output.
Disse begrensningene påvirker hvordan du utformer ressurser og promper: V1 egner seg best til konsis bevegelse, animerte stillbilder, produkt-hero-looper eller korte karaktersekvenser fremfor lange scener.
Hvordan CometAPI eksponerer Midjourney Video-modellen
CometAPI er en multimodell-gateway som samler tilgang til hundrevis av KI-modeller (tekst, bilde, lyd og nå image-to-video) bak én REST-overflate. Deres Midjourney Video-tilbud kapsler inn Midjourneys V1 Video-kapasitet slik at ingeniører kan kalle image-to-video-generering programmatisk i stedet for å være avhengig utelukkende av Discord/nett-interaksjon. Det gjør den nyttig for å automatisere kreative rørledninger, bygge proof-of-concepts og integrere korte animerte ressurser i apper eller innholdsproduksjonsarbeidsflyter.
CometAPIs Midjourney Video lar utviklere autentisere, kalle et /mj/submit/video-endepunkt og sende parametere som prompt (som kan inkludere en startbilde-URL), videoType (f.eks. vid_1.1_i2v_480), mode (fast/relax) og animateMode (automatic/manual). CometAPI har lavere pris per kall og er mer praktisk (én API-nøkkel + REST-grensesnitt) sammenlignet med å integrere direkte via Midjourneys Discord-sentriske arbeidsflyt.
Hvordan forbereder jeg meg før jeg kaller API-et?
Hvilke legitimasjoner og kontoer trenger jeg?
- Registrer deg hos CometAPI og generer en API-nøkkel fra kontodashboardet ditt (CometAPI bruker en bearer-token som
sk-xxxxx). - Sørg for at du har bildemateriale tilgjengelig på nettet (en offentlig tilgjengelig URL) hvis du planlegger å bruke eksterne bilder som startbilde. Midjourney trenger tilgjengelige URL-er for eksterne bilde→video-arbeidsflyter.
Hvilke valg bør tas på forhånd
- Startbilde — velg et bilde med tydelig motiv og komposisjon; sideforhold påvirker endelig videooppløsning/-format (Midjourney mapper startsideforhold til SD/HD-pikselstørrelser).
- Bevegelsesstil — bestem Low vs High motion (
--motion lowvs--motion high) og om du vil ha automatisk inferens eller manuell kontroll av kamera-/motivbevegelse. - Lengde og batchstørrelse — standard er 5 sekunder; du kan utvide opp til ~21 s. Batchstørrelse er som standard 4 (Midjourney returnerer 4 varianter), men du kan be om 1 eller 2 for å spare beregning.
- Oppløsning — V1 er primært SD (480p) som standard; HD (720p) krever parameterbeskrivelse, slik som vid_1.1_i2v_480.
Hvordan kaller jeg CometAPIs Midjourney video-endepunkt (trinn for trinn med eksempler)?
Hva er det minimale forespørsels-payloadet?
Minst sender du:
prompt: startbilde-URL og valgfri tekstlig bevegelsesprompt (f.eks. "https://.../frame.png legg til en hund som løper fra venstre mot høyre").videoType: f.eks.vid_1.1_i2v_480.mode: "fast" (eller "relax" hvis planen tillater det).animateMode: "automatic" eller "manual".
Dette er et eksempel med curl som viser en POST til[https://api.cometapi.com/mj/submit/video. Her er et rengjort, kopi-klart curl-eksempel tilpasset fra CometAPIs eksempel:
curl --location --request POST 'https://api.cometapi.com/mj/submit/video' \
--header 'Authorization: Bearer sk-YOUR_COMETAPI_KEY' \
--header 'Content-Type: application/json' \
--data-raw '{
"prompt": "https://cdn.midjourney.com/example/0_0.png A peaceful seaside scene — camera slowly zooms out and a gull flies by",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}'
Python-eksempel (requests)
Om du foretrekker Python, er her et robust eksempel som bruker requests til å sende inn en videojobb og polle for fullføring (erstatt plassholdere). Dette er et praktisk mønster: send inn → poll → last ned. Eksemplet nedenfor er med vilje enkelt og bør tilpasses appens async-/jobbsystem i produksjon.
import time
import requests
API_KEY = "sk-YOUR_COMETAPI_KEY"
BASE = "https://api.cometapi.com"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}
payload = {
"prompt": "https://cdn.midjourney.com/example/0_0.png A calm city street — camera pans left, rain falling",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}
# Submit job
r = requests.post(f"{BASE}/mj/submit/video", json=payload, headers=HEADERS)
r.raise_for_status()
job = r.json()
job_id = job.get("id") or job.get("job_id")
# Poll for completion (example polling)
status_url = f"{BASE}/mj/status/{job_id}"
for _ in range(60): # poll up to ~60 times
s = requests.get(status_url, headers=HEADERS)
s.raise_for_status()
st = s.json()
if st.get("status") == "completed":
download_url = st.get("result", {}).get("video_url")
print("Video ready:", download_url)
break
elif st.get("status") in ("failed", "error"):
raise RuntimeError("Video generation failed: " + str(st))
time.sleep(2)
Hvordan legger jeg til lyd (stemme, musikk, lydeffekter) i en Midjourney/CometAPI-video?
Produserer Midjourney lyd nativt?
Nei — per V1 er Midjourneys videoutgang stille (MP4 uten innebygd lyd). Brukere legger til lyd eksternt. (Det finnes andre KI-systemer som genererer lyd og video sammen, men Midjourneys V1 fokuserer på visuell bevegelse.)
Anbefalte prosesser for å legge til stemme og lyd
- Text-to-Speech (TTS) for fortellerstemme/stemme — Bruk ElevenLabs, Replica eller lignende stemmeklonings-/TTS-tjenester til å generere tale fra manus. Disse tjenestene lar deg produsere naturlige talestiler, ofte til lav kostnad per minutt. (LinkedIn-/community-innlegg anbefaler ElevenLabs som et lettvektsvalg for stemme.)
- KI-lyddesignverktøy for musikk/SFX — Verktøy som MM Audio, Magicshot eller spesialiserte SFX-generatorer kan generere bakgrunnsambienser og effekter som passer til klippet. Community-guider og opplæringer viser god kvalitet fra MM Audio og andre lyd-KI-er.
- Manuell DAW-/redigeringsmetode (fin kontroll) — Importer den genererte MP4-en i DaVinci Resolve / Premiere / Audacity, legg til TTS-lyd, lydeffekter og miks. Dette er den beste veien for presis leppesynk og timing. Community-veiledninger og YouTube-gjennomganger viser trinnvise fremgangsmåter for å matche lyd til Midjourney-videoer.
Raskt eksempel: kombiner lyd + video med ffmpeg
# Normalize audio length (optional), then combine:
ffmpeg -i video.mp4 -i speech.mp3 -c:v copy -c:a aac -shortest output_with_audio.mp4
For mer avanserte mikser (bakgrunnsmusikk + dialog + lydeffekter), render én mikset lydspor fra DAW-en og mux det deretter inn i videoen som over.
Hvordan bør jeg skrive bevegelsesprompter for å styre animasjon?
Mønstre for bevegelsesprompter
Bevegelsesprompting i Midjourney V1 er drevet av naturlig språk. Nyttige mønstre:
- Retning / handling: «kamera dolly til venstre mens motivet går fremover»
- Objektbevegelse: «et blad faller fra treet og driver mot kameraet»
- Kamerainstruks: «langsom zoom inn, lett parallakse, 2x hastighet»
- Tidsmessig kvalitet: «subtil bevegelse, loopbar, filmatisk rytme»
Start med en konsis bevegelsessetning, og legg deretter til adjektiver for stil og timing: f.eks., "start_frame_url animate: 'slow spiral camera, subject bobs gently, loopable', style: 'film grain, cinematic, 2 fps tempo'". Eksperimentering og små iterasjoner er essensielt.
Manuell vs automatisk animasjon
- Automatisk: La modellen utlede plausibel bevegelse. Best for raske eksperimenter.
- Manuell: Angi eksplisitte kamerabaner og motivvektorer for konsistente, repeterbare resultater — nyttig når du trenger forutsigbar koreografi eller å matche live-action-opptak.
Hvordan forlenger jeg videoer, endrer batchstørrelse eller lager looper?
Forlenge videolengde
Etter generering eksponerer Midjourney (og innpakkere som CometAPI) «Extend»-kontroller. Midjourneys grensesnitt lar deg forlenge et 5-sekunders klipp med 4 sekunder per utvidelse (opp til ~21 sekunder). Programmatisk kaller du enten det samme endepunktet med et extend-flagg eller sender inn en ny extend-jobb som refererer til det opprinnelige klippet (CometAPIs dokumentasjon viser de parameteriserte endepunktene og knappene i oversikten). Forvent at kostnaden for utvidelse er lik en førstegenerering.
Lage loopede videoer eller angi sluttbilder
- For å loope, gjenbruk startbildet som sluttbilde eller legg til parameteren
--loop. - For et annet sluttbilde, oppgi en annen bilde-URL (som
end) og sørg for at sideforholdet er kompatibelt. Midjourney støtter parameteren--end. Vurder å brukemanualextend for å finjustere prompter under utvidelsen for kontinuitet.
Batchstørrelse og kostnadskontroll
Midjourney genererer flere varianter som standard (batchstørrelse 4). For produksjon eller kostnadssensitive løp, sett bs:1 for å redusere beregning. Midjourneys dokumentasjon inkluderer estimater for GPU-tid for SD vs HD og ulike batchstørrelser (nyttig for kostnadsprognoser). CometAPI tilbyr konkurransedyktige priser.
Konklusjon
Midjourneys V1 Video-modell er det første offentlige steget inn i programmatisk video — den er konservativ av design, men lovende. Vi forventer iterative modelloppdateringer som forbedrer lengre sekvenser, høyere fidelitet og mer kontrollerbare kamerarigger. CometAPIs rolle som aggregator senker integrasjonsbarrieren for utviklere som vil legge til Midjourney-video i apper uten å håndtere flere leverandørspesifikke autentiserings- og samtidighetsidiosynkrasier.
Utviklere kan få tilgang til MIdjourney Video API via CometAPI. For å komme i gang, utforsk modellkapabilitetene til CometAPI i Playground og se i API-guiden for detaljerte instruksjoner. Før du får tilgang, sørg for at du har logget inn på CometAPI og skaffet API-nøkkelen. CometAPI tilbyr en pris som er langt lavere enn den offisielle prisen for å hjelpe deg med integrasjonen.
Klar til å starte?→ Gratis prøve av Midjourney!
