Midjourneys satsing på video har vært en av 2025s største historier innen kreativ teknologi. Det som startet som et elsket, bilde-først verktøy har fått en «Image-to-Video»-arbeidsflyt som gjør stillbilder om til korte animerte klipp — og systemet endrer seg raskt.
Midjourneys videofunksjon er en image-to-video-arbeidsflyt som animerer ett enkelt bilde til et kort klipp via «Animate»-flyten, som som standard produserer femsekunders klipp og tillater utvidelser opp til ~21 sekunder. Funksjonen ble lansert i midten av 2025 som Midjourneys V1 videomodell og er tilgjengelig via CometAPIs Midjourney Video V1 API.
Hva er Midjourney V1
Hva Midjourney V1 gjør og hvordan det presenteres for brukere
Midjourneys V1 videomodell gjør ett enkelt stillbilde (enten generert i Midjourney eller et eksternt hostet bilde) om til korte animerte klipp — som standard rundt 5 sekunder — ved hjelp av enten automatiske eller manuelle animasjonsmoduser og bevegelsesintensitetsflagg (--motion low / --motion high). Brukere kan forlenge klipp i 4-sekunders trinn (opp til ~21 sekunder) og styre batchstørrelse, sløyfing og sluttbilder; videoresultater er MP4. Midjourneys V1 Video-modell er en image-to-video-modell optimalisert for korte, stiliserte, sløyfbare klipp. Typiske kjennetegn ved V1-modellen inkluderer:
- Basis klipplengde ~5 sekunder, med en kontrollert utvidelsesmekanisme (4-sekunders trinn, opp til en dokumentert grense).
- Vekt på å bevare kunstnerisk stil fra kildebildet (penselstrøk, farger, stemning).
- Oppløsnings- og kvalitetsavveininger for rask iterasjon; V1 er rettet mot sosialt og webinnhold snarere enn fullverdig filmatisk output.
Disse begrensningene påvirker hvordan du designer ressurser og prompts: V1 egner seg best til konsis bevegelse, animerte stillbilder, produkt-«hero»-sløyfer eller korte karakterklipp snarere enn lange scener.
Hvordan CometAPI eksponerer Midjourney Video-modellen
CometAPI er en multimodell-gateway som samler tilgang til hundrevis av KI-modeller (tekst, bilde, lyd og nå image-to-video) bak en enkelt REST-overflate. Tilbudet Midjourney Video kapsler inn Midjourneys V1 Video-kapasitet slik at ingeniører kan kalle image-to-video-generering programmatisk i stedet for å være avhengige utelukkende av Discord/nettinteraksjon. Det gjør det nyttig for å automatisere kreative pipelines, bygge proof-of-concepts og integrere korte animerte ressurser i apper eller innholdsproduksjonsarbeidsflyter.
CometAPIs Midjourney Video lar utviklere autentisere, kalle endepunktet /mj/submit/video og sende parametere som prompt (som kan inkludere en startbilde-URL), videoType (f.eks. vid_1.1_i2v_480), mode (fast/relax) og animateMode (automatic/manual). CometAPI har lavere pris per kall og høy bekvemmelighet (én API-nøkkel + REST-grensesnitt) sammenlignet med direkte integrasjon via Midjourneys Discord-sentrerte arbeidsflyt.
Hvordan forbereder jeg meg før jeg kaller API-et?
Hvilke påloggingsdata og kontoer trenger jeg?
- Registrer deg hos CometAPI og generer en API-nøkkel fra kontodashboardet (CometAPI bruker en bearer-token som
sk-xxxxx). - Sørg for at du har bildeaktiva tilgjengelig på nett (en offentlig tilgjengelig URL) hvis du planlegger å bruke eksterne bilder som startframe. Midjourney trenger nåbare URL-er for eksterne bilde→video-arbeidsflyter.
Hvilke beslutninger å ta på forhånd
- Startbilde — velg et bilde med klart motiv og komposisjon; sideforhold påvirker endelig videooppløsning/format (Midjourney mapper start-sideforhold til SD/HD-pikselstørrelser).
- Bevegelsesstil — bestem Low vs High motion (
--motion lowvs--motion high) og om du vil ha automatisk inferens eller manuell kontroll av kamera-/motivbevegelse. - Lengde og batchstørrelse — standard er 5 sekunder; du kan utvide opp til ~21 s. Batchstørrelse er som standard 4 (Midjourney returnerer 4 varianter), men du kan be om 1 eller 2 for å spare regnekraft.
- Oppløsning — V1 er primært SD (480p) som standard; HD (720p) trenger parameterbeskrivelse, slik som vid_1.1_i2v_480.
Hvordan kaller jeg CometAPIs Midjourney video-endepunkt (trinn for trinn med eksempler)?
Hva er det minimale forespørselspayloadet?
Som minimum sender du:
prompt: startbilde-URL og valgfri tekstlig bevegelsesprompt (f.eks. "https://.../frame.png legg til en hund som løper fra venstre til høyre").videoType: f.eks.vid_1.1_i2v_480.mode: "fast" (eller "relax" hvis tillatt av planen).animateMode: "automatic" eller "manual".
Dette er et eksempel på curl som viser en POST til https://api.cometapi.com/mj/submit/video. Her er et ryddet, kopi-klart curl-eksempel tilpasset fra CometAPIs eksempel:
curl --location --request POST 'https://api.cometapi.com/mj/submit/video' \
--header 'Authorization: Bearer sk-YOUR_COMETAPI_KEY' \
--header 'Content-Type: application/json' \
--data-raw '{
"prompt": "https://cdn.midjourney.com/example/0_0.png A peaceful seaside scene — camera slowly zooms out and a gull flies by",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}'
Python-eksempel (requests)
Hvis du foretrekker Python, er her et robust eksempel med requests som sender en videojobb og poller for ferdigstillelse (erstatt plassholdere). Dette er et praktisk mønster: send → poll → last ned. Eksempelet under er bevisst enkelt og bør tilpasses appens async/jobbsystem i produksjon.
import time
import requests
API_KEY = "sk-YOUR_COMETAPI_KEY"
BASE = "https://api.cometapi.com"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}
payload = {
"prompt": "https://cdn.midjourney.com/example/0_0.png A calm city street — camera pans left, rain falling",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}
# Submit job
r = requests.post(f"{BASE}/mj/submit/video", json=payload, headers=HEADERS)
r.raise_for_status()
job = r.json()
job_id = job.get("id") or job.get("job_id")
# Poll for completion (example polling)
status_url = f"{BASE}/mj/status/{job_id}"
for _ in range(60): # poll up to ~60 times
s = requests.get(status_url, headers=HEADERS)
s.raise_for_status()
st = s.json()
if st.get("status") == "completed":
download_url = st.get("result", {}).get("video_url")
print("Video ready:", download_url)
break
elif st.get("status") in ("failed", "error"):
raise RuntimeError("Video generation failed: " + str(st))
time.sleep(2)
Hvordan legger jeg til lyd (stemme, musikk, lydeffekter) i en Midjourney/CometAPI-video?
Produserer Midjourney lyd nativt?
Nei — per V1 er Midjourneys videooutput stille (MP4 uten innebygd lyd). Brukere legger til lyd eksternt. (Det finnes andre KI-systemer som genererer lyd/video sammen, men Midjourneys V1 fokuserer på visuell bevegelse.)
Anbefalte prosesser for å legge til stemme og lyd
- Text-to-Speech (TTS) for fortellerstemme/stemme — Bruk ElevenLabs, Replica eller lignende stemmekloning/TTS-tjenester til å generere tale fra manus. Disse tjenestene lar deg produsere naturlige talestiler og ofte til lav kostnad per minutt. (LinkedIn / community-innlegg anbefaler ElevenLabs som et lettvektsvalg for stemme.)
- KI-verktøy for lyddesign til musikk/SFX — Verktøy som MM Audio, Magicshot eller spesialiserte SFX-generatorer kan lage bakgrunnsambienser og effekter som passer klippet. Community-guider og tutorials viser god kvalitet fra MM Audio og andre lyd-KI-er.
- Manuell DAW/Editor-tilnærming (fin kontroll) — Importer den genererte MP4-en i DaVinci Resolve / Premiere / Audacity, legg til TTS-lyd, lydeffekter og miks. Dette er den beste veien for presis lipsync og timing. Community-tutorials og YouTube-gjennomganger viser trinnvise fremgangsmåter for å matche lyd til Midjourney-videoer.
Raskt eksempel: kombiner lyd + video med ffmpeg
Forutsatt at video.mp4 (stille) og speech.mp3 (TTS) er klare:
# Normalize audio length (optional), then combine:
ffmpeg -i video.mp4 -i speech.mp3 -c:v copy -c:a aac -shortest output_with_audio.mp4
For mer avanserte mikser (bakgrunnsmusikk + dialog + lydeffekter), render en enkelt mikset lydspor fra DAW-en din og mux det inn i videoen som over.
Hvordan bør jeg skrive bevegelsesprompter for å styre animasjonen?
Mønstre for bevegelsesprompter
Bevegelsesprompting i Midjourney V1 er styrt av naturlig språk. Nyttige mønstre:
- Retning / handling: «kamera dolly til venstre mens motivet går fremover»
- Objektbevegelse: «blad faller fra treet og driver mot kameraet»
- Kamerainstruksjon: «langsom zoom inn, lett parallax, 2x hastighet»
- Temporal kvalitet: «subtil bevegelse, sløyfbar, filmatisk rytme»
Start med en konsis bevegelsessetning, og legg deretter til adjektiver for stil og timing: f.eks. "start_frame_url animate: 'langsom spiralbevegelse i kameraet, motivet beveger seg forsiktig opp og ned, sløyfbar', style: 'film grain, filmatisk, 2 fps tempo'". Eksperimentering og små iterasjoner er essensielt.
Manuell vs automatisk animasjon
- Automatisk: La modellen utlede plausibel bevegelse. Best for raske eksperimenter.
- Manuell: Gi eksplisitte kamerabaner og motivvektorer for konsistente, repeterbare resultater — nyttig når du trenger forutsigbar koreografi eller skal matche live-action-opptak.
Hvordan utvider jeg videoer, endrer batchstørrelse eller lager sløyfer?
Utvide videolengde
Etter generering eksponerer Midjourney (og wrappers som CometAPI) "Extend"-kontroller. Midjourneys UI lar deg utvide et 5-sekunders klipp med 4 sekunder per utvidelse (opp til ~21 sekunder). Programmatisk enten kaller du samme endepunkt med et extend-flagg eller sender en ny extend-jobb med referanse til det opprinnelige klippet (CometAPIs dokumentasjon viser parameteriserte endepunkter og knapper i oversikten). Forvent utvidelseskostnader som ligner på en initial generering.
Lage loopede videoer eller spesifisere sluttbilder
- For å loope, bruk startbildet som sluttbilde eller legg til parameteren
--loop. - For et annet sluttbilde, oppgi en annen bilde-URL (som
end) og sørg for at den er kompatibel i sideforhold. Midjourney støtter parameteren--end. Vurder å bruke manual extend for å finjustere prompts under utvidelsen for kontinuitet.
Batchstørrelse og kostnadskontroll
Midjourney genererer flere varianter som standard (batchstørrelse 4). For produksjon eller kostnadsfølsomme løp, sett bs:1 for å redusere regnekraft. Midjourneys dokumentasjon inkluderer GPU-tidsestimater for SD vs HD og ulike batchstørrelser (nyttig for kostnadsprognoser). CometAPI tilbyr konkurransedyktige priser.
Konklusjon
Midjourneys V1 Video-modell er det første offentlige steget inn i programmatiske videoer — den er konservativ av design, men lovende. Vi forventer iterative modelloppdateringer som forbedrer lengre sekvenser, høyere fidelitet og mer kontrollerbare kamerarigger. CometAPIs rolle som aggregator senker integrasjonsbarrieren for utviklere som vil legge til Midjourney-video i apper uten å måtte håndtere flere leverandørspesifikke autentiserings- og samtidighetsidiosynkrasier.
Utviklere kan få tilgang til MIdjourney Video API via CometAPI. For å komme i gang, utforsk modellkapabilitetene til CometAPI i Playground og se API-veiledningen for detaljert instruksjon. Før tilgang, sørg for at du er logget inn på CometAPI og har hentet API-nøkkelen. CometAPI tilbyr en pris langt lavere enn den offisielle for å hjelpe deg å integrere.
Klar til å starte?→ Gratis prøve av Midjourney!
