Midjourneys indtog i video har været en af 2025’s største historier inden for kreativ teknologi. Det, der startede som et elsket billede‑først‑værktøj, har tilføjet et “Image-to-Video”-workflow, der forvandler stillbilleder til korte animerede klip — og systemet ændrer sig hurtigt.
Midjourneys videofunktion er et image-to-video‑workflow, der animerer et enkelt billede til et kort klip via et “Animate”-flow, som som standard producerer femsekunders klip og tillader forlængelser op til ~21 sekunder. Funktionen blev lanceret midt i 2025 som Midjourneys V1‑videomodel og er tilgængelig via CometAPI’s Midjourney Video V1 API.
Hvad er Midjourney V1
Hvad Midjourney V1 gør, og hvordan det præsenteres for brugerne
Midjourneys V1‑videomodel forvandler et enkelt stillbillede (enten genereret i Midjourney eller et eksternt hostet billede) til korte animerede klip — som standard omkring 5 sekunder — med enten automatiske eller manuelle animationsmåder og bevægelsesintensitetsflag (--motion low / --motion high). Brugere kan forlænge klip i 4‑sekunders trin (op til ~21 sekunder) og styre batchstørrelse, looping og slutrammer; videouddata er MP4. Midjourneys V1 Video‑model er en image-to-video‑model optimeret til korte, stiliserede, loopbare klip. Typiske kendetegn ved V1‑modellen omfatter:
- Basis kliplængde ~5 sekunder, med en kontrolleret forlængelsesmekanisme (4‑sekunders trin, op til en dokumenteret grænse).
- Vægt på at bevare den kunstneriske stil fra kildebilledet (penselstrøg, farver, stemning).
- Afvejninger mellem opløsning og kvalitet for hurtig iteration; V1 er orienteret mod sociale medier og webindhold frem for fuld filmisk output.
Disse begrænsninger former, hvordan du designer aktiver og prompts: V1 er bedst til koncentreret bevægelse, animerede stills, produkt‑hero‑loops eller korte karakter‑klip frem for lange scener.
Hvordan CometAPI eksponerer Midjourney Video‑modellen
CometAPI er en multi‑model gateway, der samler adgang til hundreder af AI‑modeller (tekst, billede, lyd og nu image‑to‑video) bag en enkelt REST‑grænseflade. Dets Midjourney Video‑tilbud wrapper Midjourneys V1 Video‑kapabilitet, så ingeniører kan kalde image‑to‑video‑generering programmæssigt i stedet for kun at være afhængige af Discord/web‑interaktion. Det gør det nyttigt til at automatisere kreative pipelines, bygge proof‑of‑concepts og integrere korte animerede aktiver i apps eller indholdsproduktions‑workflows.
CometAPI’s Midjourney Video kan lade udviklere autentificere, kalde et /mj/submit/video‑endpoint og sende parametre som prompt (som kan inkludere en startbilled‑URL), videoType (f.eks. vid_1.1_i2v_480), mode (fast/relax) og animateMode (automatic/manual). CometAPI har lavere pris per kald og bekvemmelighed (én API‑nøgle + REST‑interface) sammenlignet med at integrere direkte via Midjourneys Discord‑centriske workflow.
Hvordan forbereder jeg mig, før jeg kalder API’et?
Hvilke legitimationsoplysninger og konti har jeg brug for?
- Tilmeld dig hos CometAPI og generér en API‑nøgle fra din kontos dashboard (CometAPI bruger et bearer‑token som
sk-xxxxx). - Sørg for, at du har billedaktiver tilgængelige online (en offentligt tilgængelig URL), hvis du planlægger at bruge eksterne billeder som startramme. Midjourney kræver tilgængelige URL’er til eksterne billede→video‑workflows.
Hvilke beslutninger skal træffes på forhånd
- Startbillede — vælg et billede med et klart motiv og komposition; billedformat påvirker den endelige videos opløsning/format (Midjourney mapper startformater til SD/HD‑pixelstørrelser).
- Bevægelsesstil — vælg lav vs høj bevægelse (
--motion lowvs--motion high) og om du ønsker automatisk inferens eller manuel kontrol af kamera-/motivbevægelse. - Længde og batchstørrelse — standard er 5 sekunder; du kan forlænge op til ~21 s. Batchstørrelsen er som standard 4 (Midjourney returnerer 4 varianter), men du kan bede om 1 eller 2 for at spare compute.
- Opløsning — V1 er primært SD (480p) som standard; HD (720p) kræver parameterangivelse, såsom vid_1.1_i2v_480.
Hvordan kalder jeg CometAPI’s Midjourney‑video‑endpoint (trin for trin med eksempler)?
Hvad er den minimale request‑payload?
Som minimum sender du:
prompt: startbilledets URL og valgfri tekstlig bevægelsesprompt (f.eks." add a dog running from left to right").videoType: f.eks.vid_1.1_i2v_480.mode:"fast"(eller"relax"hvis planen tillader det).animateMode:"automatic"eller"manual".
Dette er et eksempel på curl, der illustrerer et POST‑kald til[ Her er et ryddet, kopi‑klart curl‑eksempel tilpasset fra CometAPI’s eksempel:
curl --location --request POST ' \
--header 'Authorization: Bearer sk-YOUR_COMETAPI_KEY' \
--header 'Content-Type: application/json' \
--data-raw '{
"prompt": " A peaceful seaside scene — camera slowly zooms out and a gull flies by",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}'
Python‑eksempel (requests)
Hvis du foretrækker Python, er her et robust eksempel med requests, der indsender et videojob og poller for fuldførelse (erstat pladsholdere). Dette er et praktisk mønster: submit → poll → download. Eksemplet nedenfor er bevidst enkelt og bør tilpasses til din apps async/job‑system i produktion.
import time
import requests
API_KEY = "sk-YOUR_COMETAPI_KEY"
BASE = "https://api.cometapi.com"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}
payload = {
"prompt": " A calm city street — camera pans left, rain falling",
"videoType": "vid_1.1_i2v_480",
"mode": "fast",
"animateMode": "manual",
"motion": "low",
"bs": 1
}
# Submit job
r = requests.post(f"{BASE}/mj/submit/video", json=payload, headers=HEADERS)
r.raise_for_status()
job = r.json()
job_id = job.get("id") or job.get("job_id")
# Poll for completion (example polling)
status_url = f"{BASE}/mj/status/{job_id}"
for _ in range(60): # poll up to ~60 times
s = requests.get(status_url, headers=HEADERS)
s.raise_for_status()
st = s.json()
if st.get("status") == "completed":
download_url = st.get("result", {}).get("video_url")
print("Video ready:", download_url)
break
elif st.get("status") in ("failed", "error"):
raise RuntimeError("Video generation failed: " + str(st))
time.sleep(2)
Hvordan tilføjer jeg lyd (stemme, musik, lydeffekter) til en Midjourney/CometAPI‑video?
Producerer Midjourney lyd nativt?
Nej — fra og med V1 er Midjourneys videouddata lydløse (MP4 uden indlejret lyd). Brugere tilføjer lyd eksternt. (Der findes andre AI‑systemer, der genererer lyd/video sammen, men Midjourneys V1 fokuserer på visuel bevægelse.)
Anbefalede pipelines til at tilføje stemme og lyd
- Text‑to‑Speech (TTS) til fortælling/stemme — Brug ElevenLabs, Replica eller lignende stemmekloning/TTS‑tjenester til at generere taletracks ud fra manuskripter. Disse tjenester kan producere naturlige stemmestile og nogle gange til lav pris per minut. (LinkedIn-/communityopslag anbefaler ElevenLabs som et letvægtsvalg til stemme.)
- AI‑lyddesignværktøjer til musik/SFX — Værktøjer som MM Audio, Magicshot eller specialiserede SFX‑generatorer kan generere baggrundsambiencer og effekter, der passer til klippet. Community‑guides og tutorials viser god kvalitet fra MM Audio og andre audio‑AI’er.
- Manuel DAW/editor‑tilgang (fin kontrol) — Importér den genererede MP4 i DaVinci Resolve / Premiere / Audacity, tilføj TTS‑lyd, lydeffekter og mix. Dette er den bedste vej for præcis læbesynk og timing. Community‑tutorials og YouTube‑walkthroughs viser trin‑for‑trin‑metoder til at matche lyd til Midjourney‑videoer.
Hurtigt eksempel: kombiner lyd + video med ffmpeg
Antag at video.mp4 (lydløs) og speech.mp3 (TTS) er klar:
# Normalize audio length (optional), then combine:
ffmpeg -i video.mp4 -i speech.mp3 -c:v copy -c:a aac -shortest output_with_audio.mp4
Til mere avancerede mixes (baggrundsmusik + dialog + lydeffekter), render en enkelt mixet lydspor fra din DAW og mux det derefter ind i videoen som ovenfor.
Hvordan bør jeg skrive bevægelses‑prompter for at styre animation?
Mønstre for bevægelsesprompter
Bevægelsesprompting i Midjourney V1 drives af naturligt sprog. Nyttige mønstre:
- Retning/handling: “kameraet dolly’er mod venstre, mens motivet går fremad”
- Objektbevægelse: “et blad falder fra træet og driver mod kameraet”
- Kamarainstruktion: “langsom zoom ind, let parallax, 2x hastighed”
- Tidslig kvalitet: “diskret bevægelse, loopbar, filmisk rytme”
Start med en kortfattet bevægelsessætning, og tilføj derefter adjektiver for stil og timing: f.eks. "start_frame_url animate: 'slow spiral camera, subject bobs gently, loopable', style: 'film grain, cinematic, 2 fps tempo'". Eksperimenter og små iterationer er afgørende.
Manuel vs automatisk animation
- Automatisk: Lad modellen udlede plausibel bevægelse. Bedst til hurtige eksperimenter.
- Manuel: Giv eksplicitte kamerapaths og motivvektorer for konsistente, reproducerbare resultater — nyttigt når du har brug for forudsigelig koreografi eller skal matche live‑action‑optagelser.
Hvordan forlænger jeg videoer, ændrer batchstørrelse eller laver loops?
Forlængelse af videolængde
Efter generering eksponerer Midjourney (og wrappers som CometAPI) “Extend”-kontroller. Midjourneys UI lader dig forlænge et 5‑sekunders klip med 4 sekunder per forlængelse (op til ~21 sekunder). Programmæssigt kalder du enten det samme endpoint med et extend‑flag eller indsender et nyt extend‑job med reference til det oprindelige klip (CometAPI’s dokumentation viser de parameteriserede endpoints og knapper i deres overblik). Forvent forlængelsesomkostninger på linje med en initial generering.
Oprettelse af loopede videoer eller angivelse af slutrammer
- For at loope, genbrug startrammen som slutramme eller tilføj parameteren
--loop. - For en anden slutramme, angiv en anden billed‑URL (som
end) og sørg for, at den er kompatibel i billedformat. Midjourney understøtter en--end‑parameter. Overvej at brugemanualextend for at finjustere prompts midt i forlængelsen for kontinuitet.
Batchstørrelse og omkostningskontrol
Midjourney genererer flere varianter som standard (batchstørrelse 4). Til produktion eller omkostningsfølsomme flows, sæt bs:1 for at reducere compute. Midjourneys dokumentation inkluderer GPU‑tidsestimater for SD vs HD og forskellige batchstørrelser (nyttigt til omkostningsforecasting). CometAPI tilbyder konkurrencedygtige priser.
Konklusion
Midjourneys V1 Video‑model er det første offentlige skridt ind i programmérbar video — den er konservativ af design, men lovende. Vi forventer iterative modelopdateringer, der forbedrer længere sekvenser, højere troværdighed og mere kontrollerbare kamerarigs. CometAPI’s rolle som aggregator sænker integrationsbarrieren for udviklere, der vil tilføje Midjourney‑video i apps uden at håndtere flere udbyderspecifikke autentificerings‑ og konkurrence‑ejendommeligheder.
Udviklere kan få adgang til Midjourney Video API via CometAPI. For at komme i gang, udforsk modelkapabiliteterne i CometAPI i Playground og konsulter API‑guiden for detaljerede instruktioner. Før adgang, sørg for at du er logget ind på CometAPI og har fået API‑nøglen. CometAPI tilbyder en pris langt lavere end den officielle pris for at hjælpe dig med integrationen.
Klar til at gå i gang?→ Gratis prøve af Midjourney!
