Hvordan opretter man en video i midjourney API?

CometAPI
AnnaDec 29, 2025
Hvordan opretter man en video i midjourney API?

Midjourney’s bevægelse ind i video har været en af 2025’s største historier inden for kreativ teknologi. Det, der startede som et elsket billedefokuseret værktøj, har tilføjet en “Image-to-Video”-arbejdsgang, der gør stillbilleder til korte animerede klip — og systemet ændrer sig hurtigt.

Midjourney’s videofunktion er en image-to-video-arbejdsgang, der animerer et enkelt billede til et kort klip via en “Animate”-flow, som som standard producerer femsekunders klip og tillader udvidelser op til ~21 sekunder. Funktionen blev lanceret midt i 2025 som Midjourney’s V1-videomodel og er tilgængelig via CometAPI's Midjourney Video V1 API.

Hvad er Midjourney V1

Hvad Midjourney V1 gør, og hvordan det præsenteres for brugere

Midjourney’s V1-videomodel forvandler et enkelt stillbillede (enten et genereret inde i Midjourney eller et eksternt hostet billede) til korte animerede klip — som standard omkring 5 sekunder — ved hjælp af enten automatiske eller manuelle animationsformer og bevægelsesintensitetsflag (--motion low / --motion high). Brugere kan forlænge klip i 4-sekunders trin (op til ~21 sekunder) og styre batchstørrelse, looping og slutframes; videooutput er MP4. Midjourney’s V1 Video-model er en billede-til-video-model optimeret til korte, stiliserede, loopbare klip. Typiske karakteristika for V1-modellen omfatter:

  • Basis kliplængde ~5 sekunder med en kontrolleret udvidelsesmekanisme (4-sekunders trin, op til en dokumenteret grænse).
  • Vægt på at bevare den kunstneriske stil fra kildebilledet (penselstrøg, farve, stemning).
  • Opløsning- og kvalitetstilsyn for hurtig iteration; V1 er orienteret mod sociale medier og webindhold frem for fuld filmisk output.

Disse begrænsninger former, hvordan du designer assets og prompts: V1 bruges bedst til kortfattet bevægelse, animerede stills, produkt-hero-loops eller korte karaktersekvenser frem for lange scener.

Hvordan CometAPI præsenterer Midjourney Video-modellen

CometAPI er en multimodel-gateway, der samler adgang til hundredvis af AI-modeller (tekst, billede, lyd og nu billede-til-video) bag en enkelt REST-grænseflade. CometAPI’s Midjourney Video-tilbud indpakker Midjourney’s V1 Video-kapabilitet, så ingeniører kan kalde billede-til-video-generering programmæssigt i stedet for udelukkende at være afhængige af Discord/web-interaktion. Det gør det nyttigt til at automatisere kreative pipelines, bygge proof-of-concepts og integrere korte animerede assets i apps eller indholdsproduktions-workflows.

CometAPI’s Midjourney Video lader udviklere autentificere, kalde et /mj/submit/video-endpoint og videregive parametre såsom prompt (som kan inkludere en startbilled-URL), videoType (f.eks. vid_1.1_i2v_480), mode (fast/relax) og animateMode (automatic/manual). CometAPI har lavere pris pr. kald og bekvemmeligheden (enkelt API-nøgle + REST-grænseflade) sammenlignet med direkte integration via Midjourney’s Discord-centriske workflow.

Hvordan forbereder jeg mig, før jeg kalder API'et?

Hvilke legitimationsoplysninger og konti behøver jeg?

  1. Opret en konto hos CometAPI og generér en API-nøgle fra din kontodashboard (CometAPI bruger en bearer token som sk-xxxxx).
  2. Sørg for at have billedassets tilgængelige online (en offentligt tilgængelig URL), hvis du planlægger at bruge eksterne billeder som startframe. Midjourney behøver tilgængelige URLs til eksterne billede→video-arbejdsgange.

Hvilke beslutninger skal træffes på forhånd

  • Startbillede — vælg et billede med et klart motiv og komposition; aspektforholdet påvirker den endelige videooløsning/aspekt (Midjourney kortlægger start-aspektforhold til SD/HD-pixelstørrelser).
  • Bevægelsesstil — beslut Low vs High motion (--motion low vs --motion high) og om du ønsker automatisk inferens eller manuel kontrol over kamera-/motivbevægelse.
  • Længde og batchstørrelse — standard er 5 sekunder; du kan forlænge op til ~21s. Batchstørrelse er som standard 4 (Midjourney returnerer 4 varianter), men du kan bede om 1 eller 2 for at spare compute.
  • Opløsning — V1 er primært SD (480p) som standard; HD (720p) kræver parameterangivelse, såsom vid_1.1_i2v_480.

Hvordan kalder jeg CometAPI’s Midjourney video-endpoint (trin for trin med eksempler)?

Hvad er den minimale request-payload?

Som minimum sender du:

  • prompt: startbilled-URL og valgfri tekstlig bevægelsesprompt (f.eks. "https://.../frame.png tilføj en hund, der løber fra venstre mod højre").
  • videoType: f.eks. vid_1.1_i2v_480.
  • mode: "fast" (eller "relax" hvis tilladt af din plan).
  • animateMode: "automatic" eller "manual".

Dette er et eksempel på curl, der illustrerer en POST til https://api.cometapi.com/mj/submit/video. Her er et renset, kopi-klar curl-eksempel tilpasset fra CometAPI’s eksempel:

curl --location --request POST 'https://api.cometapi.com/mj/submit/video' \
  --header 'Authorization: Bearer sk-YOUR_COMETAPI_KEY' \
  --header 'Content-Type: application/json' \
  --data-raw '{
    "prompt": "https://cdn.midjourney.com/example/0_0.png A peaceful seaside scene — camera slowly zooms out and a gull flies by",
    "videoType": "vid_1.1_i2v_480",
    "mode": "fast",
    "animateMode": "manual",
    "motion": "low",
    "bs": 1
  }'

Python-eksempel (requests)

Hvis du foretrækker Python, er her et robust eksempel med requests, der indsender et videojob og poller for fuldførelse (udskift pladsholdere). Dette er et praktisk mønster: submit → poll → download. Eksemplet nedenfor er bevidst enkelt og bør tilpasses til din apps async/job-system i produktion.

import time
import requests

API_KEY = "sk-YOUR_COMETAPI_KEY"
BASE = "https://api.cometapi.com"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}

payload = {
    "prompt": "https://cdn.midjourney.com/example/0_0.png A calm city street — camera pans left, rain falling",
    "videoType": "vid_1.1_i2v_480",
    "mode": "fast",
    "animateMode": "manual",
    "motion": "low",
    "bs": 1
}

# Submit job
r = requests.post(f"{BASE}/mj/submit/video", json=payload, headers=HEADERS)
r.raise_for_status()
job = r.json()
job_id = job.get("id") or job.get("job_id")

# Poll for completion (example polling)
status_url = f"{BASE}/mj/status/{job_id}"
for _ in range(60):  # poll up to ~60 times
    s = requests.get(status_url, headers=HEADERS)
    s.raise_for_status()
    st = s.json()
    if st.get("status") == "completed":
        download_url = st.get("result", {}).get("video_url")
        print("Video ready:", download_url)
        break
    elif st.get("status") in ("failed", "error"):
        raise RuntimeError("Video generation failed: " + str(st))
    time.sleep(2)

Hvordan tilføjer jeg lyd (stemme, musik, lydeffekter) til en Midjourney/CometAPI-video?

Producerer Midjourney lyd nativt?

Nej — per V1 er Midjourney’s videooutput stillet (MP4 uden indlejret lyd). Brugere tilføjer lyd eksternt. (Der er andre AI-systemer, der genererer lyd/video sammen, men Midjourney’s V1 fokuserer på visuel bevægelse.)

Anbefalede pipelines til at tilføje stemme og lyd

  1. Text-to-Speech (TTS) til fortælling/stemme — Brug ElevenLabs, Replica eller lignende stemmekloning/TTS-tjenester til at generere taletrack fra manuskripter. Disse tjenester lader dig producere naturlige talestile og nogle gange til lav pris pr. minut. (LinkedIn / community-indlæg anbefaler ElevenLabs som et letvægtsvalg til stemme.)
  2. AI-lyddesignværktøjer til musik/SFX — Værktøjer som MM Audio, Magicshot eller specialiserede SFX-generatorer kan generere baggrundsambience og effekter, der passer til klippet. Community-guides og tutorials viser god kvalitet fra MM Audio og andre audio-AI’er.
  3. Manuel DAW/Editor-tilgang (fin kontrol) — Importér den genererede MP4 i DaVinci Resolve / Premiere / Audacity, tilføj TTS-lyd, lydeffekter og mix. Dette er den bedste vej til præcis læbesynk og timing. Community-tutorials og YouTube-walkthroughs viser trin-for-trin tilgange til at matche lyd til Midjourney-videoer.

Hurtigt eksempel: kombinér lyd + video med ffmpeg

Forudsat at video.mp4 (stillet) og speech.mp3 (TTS) er klar:

# Normalize audio length (optional), then combine:
ffmpeg -i video.mp4 -i speech.mp3 -c:v copy -c:a aac -shortest output_with_audio.mp4

For mere avancerede mixes (baggrundsmusik + dialog + lydeffekter), render en enkelt mixet lydtrack fra din DAW og mux den ind i videoen som ovenfor.

Hvordan bør jeg skrive bevægelsesprompter for at styre animationen?

Mønstre for bevægelsesprompter

Bevægelsesprompting i Midjourney V1 er drevet af naturligt sprog. Nyttige mønstre:

  • Retning / handling: “kameraet kører til venstre, mens motivet går fremad”
  • Objektbevægelse: “et blad falder fra træet og driver mod kameraet”
  • Kamerainstruktion: “langsom zoom ind, let parallakse, 2x hastighed”
  • Tidslig kvalitet: “subtil bevægelse, loopbar, filmisk rytme”

Start med en kortfattet bevægelsessætning, og tilføj derefter adjektiver for stil og timing: f.eks. "start_frame_url animate: 'slow spiral camera, subject bobs gently, loopable', style: 'film grain, cinematic, 2 fps tempo'". Eksperimenter og små iterationer er afgørende.

Manuel vs. automatisk animation

  • Automatisk: Lad modellen udlede plausibel bevægelse. Bedst til hurtige eksperimenter.
  • Manuel: Angiv eksplicitte kamerabaner og subjektvektorer for ensartede, reproducerbare resultater — nyttigt, når du behøver forudsigelig koreografi eller skal matche live-action-optagelser.

Hvordan forlænger jeg videoer, ændrer batchstørrelse eller laver loops?

Forlængelse af videolængde

Efter generering tilbyder Midjourney (og wrappers som CometAPI) “Extend”-kontroller. Midjourney’s UI lader dig forlænge et 5-sekunders klip med 4 sekunder pr. forlængelse (op til ~21 sekunder). Programmæssigt kalder du enten det samme endpoint med et extend-flag eller indsender et nyt extend-job med reference til det originale klip (CometAPI’s dokumentation viser de parameteriserede endpoints og knapper i deres oversigt). Forvent udvidelsesomkostninger, der ligner en initial generering.

Oprette loopede videoer eller angive slutframes

  • For at loope, genbrug startframen som slutframe eller tilføj parameteren --loop.
  • For en anden slutframe, angiv en anden billed-URL (som end) og sørg for, at den er kompatibel i aspektforhold. Midjourney understøtter en --end-parameter. Overvej at bruge manual extend for at justere prompts under forlængelsen for kontinuitet.

Batchstørrelse og omkostningskontrol

Midjourney genererer flere varianter som standard (batchstørrelse 4). Til produktion eller omkostningsfølsomme flows: sæt bs:1 for at reducere compute. Midjourney’s dokumentation inkluderer GPU-tidsestimater for SD vs. HD og forskellige batchstørrelser (nyttigt til omkostningsprognoser). CometAPI tilbyder konkurrencedygtig prissætning.

Konklusion

Midjourney’s V1 Video-model er det første offentlige skridt ind i programmæssig video — den er konservativ af design, men lovende. Vi forventer iterative modelopdateringer, der forbedrer længere sekvenser, højere fidelitet og mere kontrollerbare kamerarigge. CometAPI’s rolle som aggregator sænker integrationsbarrieren for udviklere, der vil tilføje Midjourney-video i apps uden at skulle håndtere flere udbyder-specifikke autentificerings- og samtidigheds-idiosynkrasier.

Udviklere kan få adgang til MIdjourney Video API via CometAPI. For at komme i gang, udforsk modelkapabiliteterne hos CometAPI i Playground og konsulter API-guiden for detaljerede instruktioner. Før adgang, sørg venligst for at du er logget ind på CometAPI og har fået API-nøglen. CometAPI tilbyder en pris langt under den officielle pris for at hjælpe dig med at integrere.

Klar til at gå i gang?→ Gratis prøve af Midjourney!

Læs mere

500+ modeller i én API

Op til 20% rabat