Hoe maak je een video met de midjourney API?

CometAPI
AnnaDec 29, 2025
Hoe maak je een video met de midjourney API?

De stap van Midjourney naar video is een van de grootste creatieve-technologieverhalen van 2025 geweest. Wat begon als een geliefde tool die primair op afbeeldingen was gericht, heeft een “Image-to-Video”-workflow toegevoegd die stilstaande beelden omzet in korte geanimeerde clips — en het systeem ontwikkelt zich snel.

De videomogelijkheid van Midjourney is een image-to-video-workflow die één enkele afbeelding animeert tot een korte clip via een “Animate”-flow, standaard vijf seconden lang, met uitbreidingsopties tot ~21 seconden. De functie werd medio 2025 gelanceerd als Midjourney’s V1-videomodel en is beschikbaar via CometAPI's Midjourney Video V1 API.

Wat is Midjourney V1

Wat Midjourney V1 doet en hoe het aan gebruikers wordt aangeboden

Midjourney’s V1-videomodel zet één stilstaande afbeelding (een afbeelding die in Midjourney is gegenereerd of een extern gehoste afbeelding) om in korte geanimeerde clips — standaard ongeveer 5 seconden — met automatische of handmatige animatiemodi en bewegingsintensiteitsvlaggen (--motion low / --motion high). Gebruikers kunnen clips verlengen in stappen van 4 seconden (tot ~21 seconden) en batchgrootte, looping en eindframes regelen; video-uitvoer is MP4. Midjourney’s V1 Video-model is een beeld-naar-video-model, geoptimaliseerd voor korte, gestileerde, loopbare clips. Typische kenmerken van het V1-model zijn:

  • Basiscliplengte ~5 seconden, met een gecontroleerd verlengingsmechanisme (stappen van 4 seconden, tot een gedocumenteerde limiet).
  • Nadruk op het behouden van de artistieke stijl van de bronafbeelding (penseelvoering, kleur, sfeer).
  • Afwegingen in resolutie en kwaliteit voor snelle iteratie; V1 is gericht op sociale media en webcontent in plaats van volledige cinematografische output.

Deze beperkingen bepalen hoe je assets en prompts ontwerpt: V1 is het meest geschikt voor beknopte beweging, geanimeerde stilstaand-naar-levend-beelden, product-hero-loops of korte karakteranimaties in plaats van lange scènes.

Hoe CometAPI het Midjourney Video-model aanbiedt

CometAPI is een multi-model gateway die toegang tot honderden AI-modellen (tekst, beeld, audio en nu image-to-video) bundelt achter één REST-oppervlak. De Midjourney Video-dienst van CometAPI omhult Midjourney’s V1 Video-capabiliteit zodat engineers image-to-video-generatie programmatisch kunnen aanroepen in plaats van uitsluitend te vertrouwen op Discord/webinteractie. Dat maakt het bruikbaar voor het automatiseren van creatieve pipelines, het bouwen van proof-of-concepts en het integreren van korte geanimeerde assets in apps of contentproductieworkflows.

CometAPI’s Midjourney Video stelt ontwikkelaars in staat zich te authenticeren, een /mj/submit/video-endpoint aan te roepen en parameters door te geven zoals de prompt (die een startafbeelding-URL kan bevatten), videoType (bijv. vid_1.1_i2v_480), mode (fast/relax) en animateMode (automatic/manual). CometAPI biedt lagere kosten per call en gemak (één API-sleutel + REST-interface) vergeleken met directe integratie via Midjourney’s Discord-gerichte workflow.

Hoe bereid ik me voor voordat ik de API aanroep?

Welke inloggegevens en accounts heb ik nodig?

  1. Meld je aan bij CometAPI en genereer een API-sleutel via je accountdashboard (CometAPI gebruikt een bearer token zoals sk-xxxxx).
  2. Zorg dat je afbeeldingsassets online beschikbaar zijn (een publiek toegankelijke URL) als je externe afbeeldingen als startframe wilt gebruiken. Midjourney heeft bereikbare URLs nodig voor externe image→video-workflows.

Welke beslissingen neem je vooraf

  • Startafbeelding — kies een afbeelding met een duidelijke hoofdonderwerp en compositie; de beeldverhouding beïnvloedt de uiteindelijke videoresolutie/-aspect (Midjourney mappt startbeeldverhoudingen naar SD/HD-pixelgroottes).
  • Bewegingsstijl — beslis Low versus High motion (--motion low versus --motion high) en of je automatische inferentie wilt of handmatige controle over camera-/onderwerpbeweging.
  • Lengte & batchgrootte — standaard is 5 seconden; je kunt verlengen tot ~21 s. De batchgrootte is standaard 4 (Midjourney retourneert 4 varianten), maar je kunt 1 of 2 aanvragen om compute te besparen.
  • Resolutie — V1 is primair SD (480p) standaard; HD (720p) vereist parameteropgave, zoals vid_1.1_i2v_480.

Hoe roep ik CometAPI’s Midjourney-video-endpoint aan (stap voor stap met voorbeelden)?

Wat is de minimale request payload?

Minimaal verstuur je:

  • prompt: de startafbeelding-URL en optionele tekstuele motion-prompt (bijv. "https://.../frame.png add a dog running from left to right").
  • videoType: bijv. vid_1.1_i2v_480.
  • mode: "fast" (of "relax" indien toegestaan door je plan).
  • animateMode: "automatic" of "manual".

Dit is een voorbeeld curl die een POST illustreert naar https://api.cometapi.com/mj/submit/video. Hier is een opgeschoond, kopieerklaar curl-voorbeeld, aangepast van CometAPI’s voorbeeld:

curl --location --request POST 'https://api.cometapi.com/mj/submit/video' \
  --header 'Authorization: Bearer sk-YOUR_COMETAPI_KEY' \
  --header 'Content-Type: application/json' \
  --data-raw '{
    "prompt": "https://cdn.midjourney.com/example/0_0.png A peaceful seaside scene — camera slowly zooms out and a gull flies by",
    "videoType": "vid_1.1_i2v_480",
    "mode": "fast",
    "animateMode": "manual",
    "motion": "low",
    "bs": 1
  }'

Python-voorbeeld (requests)

Als je de voorkeur geeft aan Python, vind je hier een robuust voorbeeld met requests dat een videojob indient en voor voltooiing pollt (vervang placeholders). Dit is een praktische aanpak: submit → poll → download. Het onderstaande voorbeeld is bewust eenvoudig en moet in productie worden aangepast aan het async/job-systeem van je app.

import time
import requests

API_KEY = "sk-YOUR_COMETAPI_KEY"
BASE = "https://api.cometapi.com"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}

payload = {
    "prompt": "https://cdn.midjourney.com/example/0_0.png A calm city street — camera pans left, rain falling",
    "videoType": "vid_1.1_i2v_480",
    "mode": "fast",
    "animateMode": "manual",
    "motion": "low",
    "bs": 1
}

# Submit job
r = requests.post(f"{BASE}/mj/submit/video", json=payload, headers=HEADERS)
r.raise_for_status()
job = r.json()
job_id = job.get("id") or job.get("job_id")

# Poll for completion (example polling)
status_url = f"{BASE}/mj/status/{job_id}"
for _ in range(60):  # poll up to ~60 times
    s = requests.get(status_url, headers=HEADERS)
    s.raise_for_status()
    st = s.json()
    if st.get("status") == "completed":
        download_url = st.get("result", {}).get("video_url")
        print("Video ready:", download_url)
        break
    elif st.get("status") in ("failed", "error"):
        raise RuntimeError("Video generation failed: " + str(st))
    time.sleep(2)

Hoe voeg ik audio (stem, muziek, geluidseffecten) toe aan een Midjourney/CometAPI-video?

Maakt Midjourney native audio?

Nee — vanaf V1 is de video-uitvoer van Midjourney stil (MP4 zonder ingesloten audio). Gebruikers voegen geluid extern toe. (Er zijn andere AI-systemen die audio en video samen genereren, maar Midjourney’s V1 richt zich op visuele beweging.)

Aanbevolen pipelines om stem en geluid toe te voegen

  1. Text-to-Speech (TTS) voor narratie/stem — Gebruik ElevenLabs, Replica of vergelijkbare voice-cloning/TTS-diensten om spraaktracks op basis van scripts te genereren. Deze diensten maken natuurlijke spreekstijlen mogelijk en soms tegen lage kosten per minuut. (LinkedIn / communityposts bevelen ElevenLabs aan als lichtgewicht keuze voor stem.)
  2. AI-audiodesigntools voor muziek/SFX — Tools zoals MM Audio, Magicshot of gespecialiseerde SFX-generators kunnen achtergrondambiance en effecten genereren die bij de clip passen. Communitygidsen en tutorials tonen goede kwaliteit van MM Audio en andere audio-AI's.
  3. Handmatige DAW/Editor-aanpak (fijne controle) — Importeer de gegenereerde MP4 in DaVinci Resolve / Premiere / Audacity, voeg TTS-audio en geluidseffecten toe en mix. Dit is de beste route voor precieze lipsync en timing. Communitytutorials en YouTube-walkthroughs tonen stapsgewijze aanpakken om audio af te stemmen op Midjourney-video’s.

Snel voorbeeld: audio + video combineren met ffmpeg

Uitgaande van video.mp4 (stil) en speech.mp3 (TTS) die klaar zijn:

# Normalize audio length (optional), then combine:
ffmpeg -i video.mp4 -i speech.mp3 -c:v copy -c:a aac -shortest output_with_audio.mp4

Voor meer geavanceerde mixes (achtergrondmuziek + dialoog + geluidseffecten), render één gemixte audiotrack vanuit je DAW en mux die vervolgens in de video zoals hierboven.

Hoe schrijf ik bewegingsprompts om animatie te sturen?

Patronen voor bewegingsprompts

Bewegingsprompting in Midjourney V1 is op natuurlijke taal gebaseerd. Nuttige patronen:

  • Richting/actie: “camera dolly naar links terwijl het onderwerp vooruit loopt”
  • Objectbeweging: “blad valt van de boom en drijft richting camera”
  • Camerainstructie: “langzame zoom-in, lichte parallax, 2x snelheid”
  • Tijdsdynamiek: “subtiele beweging, loopbaar, cinematografisch ritme”

Begin met een beknopte zin over de beweging en voeg vervolgens bijvoeglijke naamwoorden toe voor stijl en timing: bijv. "start_frame_url animate: 'slow spiral camera, subject bobs gently, loopable', style: 'film grain, cinematic, 2 fps tempo'". Experimenteren en kleine iteraties zijn essentieel.

Handmatige vs automatische animatie

  • Automatisch: Laat het model plausibele beweging afleiden. Het beste voor snelle experimenten.
  • Handmatig: Lever expliciete camerapaden en subjectvectoren voor consistente, herhaalbare resultaten — nuttig wanneer je voorspelbare choreografie nodig hebt of live-action wilt matchen.

Hoe verleng ik video's, wijzig ik de batchgrootte of maak ik loops?

Videolengte verlengen

Na generatie bieden Midjourney (en wrappers zoals CometAPI) “Extend”-bedieningen. De UI van Midjourney laat je een clip van 5 seconden verlengen met 4 seconden per keer (tot ~21 seconden). Programmatisch roep je ofwel hetzelfde endpoint aan met een extend-flag, of dien je een nieuwe extend-job in die verwijst naar de originele clip (CometAPI’s documentatie toont de geparametriseerde endpoints en knoppen in hun overzicht). Reken op verlengingskosten die vergelijkbaar zijn met een eerste generatie.

Video's loopen of eindframes specificeren

  • Om te loopen, hergebruik het startframe als eindframe of voeg de parameter --loop toe.
  • Voor een ander eindframe geef je een andere afbeelding-URL op (als end) en zorg je dat de beeldverhouding compatibel is. Midjourney ondersteunt een --end-parameter. Overweeg manual extend om prompts halverwege de verlenging bij te sturen voor continuïteit.

Batchgrootte en kostenbeheersing

Midjourney genereert standaard meerdere varianten (batchgrootte 4). Voor productie of kostenbewuste flows stel je bs:1 in om compute te verminderen. De documentatie van Midjourney bevat schattingen van GPU-tijd voor SD versus HD en verschillende batchgroottes (handig voor kostenprognoses). CometAPI biedt concurrerende prijzen.

Conclusie

Midjourney’s V1 Video-model is de eerste publieke stap richting programmatische video — conservatief van opzet maar veelbelovend. We verwachten iteratieve modelupdates die langere sequenties, hogere fideliteit en beter controleerbare camerarigs verbeteren. De rol van CometAPI als aggregator verlaagt de integratiedrempel voor ontwikkelaars die Midjourney-video aan apps willen toevoegen zonder te hoeven omgaan met meerdere provider-specifieke authenticatie- en concurrency-eigenheden.

Ontwikkelaars hebben via CometAPI toegang tot de MIdjourney Video API. Begin met het verkennen van de modelmogelijkheden van CometAPI in de Playground en raadpleeg de API-gids voor gedetailleerde instructies. Zorg ervoor dat je bent ingelogd bij CometAPI en een API-sleutel hebt verkregen voordat je toegang krijgt. CometAPI biedt een veel lagere prijs dan de officiële prijs om je te helpen integreren.

Ready to Go?→ Gratis proef van Midjourney!

Lees Meer

500+ modellen in één API

Tot 20% korting