Midjourney rystet AI-kunstmiljøet i midten av juni 2025 ved å avduke sin første videomodell, V1, som markerte en betydelig utvidelse fra generering av statiske bilder til animert innhold. Denne lenge etterlengtede funksjonen ble offisielt annonsert 18. juni 2025 via Midjourneys blogg, med bred tilgjengelighet gitt 19. juni 2025. I praksis lar V1 skapere transformere enkeltbilder – enten AI-genererte eller brukeropplastede – til dynamiske korte klipp, en funksjon som lover å omdefinere visuelle historiefortellingsarbeidsflyter for både digitale kunstnere, markedsførere og filmskapere.
Denne artikkelen sammenfatter den nyeste utviklingen rundt V1, forklarer hvordan den brukes effektivt, og utforsker dens tekniske grunnlag, prising, brukstilfeller og juridiske hensyn.
Hva er Midjourneys V1-videomodell, og hvorfor er den viktig?
Midjourneys V1-videomodell representerer plattformens første satsing innen AI-drevet video, og tilbyr en Bilde-til-video en arbeidsflyt som animerer et stillbilde til et fem sekunder langt videoklipp som standard, og som kan utvides til opptil 21 sekunder i trinn på fire sekunder. Dette lar brukerne puste liv i sine statiske bilder, lage filmatiske looper, animerte GIF-er eller videoer klare for sosiale medier uten å trenge tradisjonell videoredigeringsprogramvare.
Betydningen av AI-drevet video
- Demokratisering av animasjonTidligere krevde animasjon av bilder spesialiserte verktøy og ferdigheter; V1 senker inngangsbarrieren for skapere på alle nivåer.
- Hurtig prototypingGrafiske designere og innholdsteam kan iterere på visuelle konsepter raskere, og integrere bevegelse for å teste publikumsengasjement uten kostbare produksjonsprosesser.
- Kreativ eksperimenteringVerktøyet oppfordrer ikke-eksperter til å eksperimentere med bevegelsesdynamikk, og utvider omfanget av AI-kunstnerskap utover statiske komposisjoner.
Hvordan kan jeg få tilgang til og aktivere V1-videomodellen?
For å bruke V1-videomodellen må du ha et Midjourney-abonnement og få tilgang til funksjonen. utelukkende gjennom Midjourney-nettgrensesnittet – Discord-kommandoer støtter ikke videogenerering ennå.
Abonnementskrav
- Alle planerKan generere videoer i Rask modus, som bruker GPU-tidskreditter åtte ganger raskere enn standardbilder (dvs. 8 GPU-minutter vs. 1 GPU-minutt for bilder).
- Pro- og Mega-abonnementer: Få tilgang til Slapp av-modus, som ikke bruker kreditter, men opererer med lavere prioritet og langsommere gjengivelsestider.
Aktivering av funksjonen
- Logg på kontoen din på midjourney.com og naviger til Opprett side.
- Generer eller last opp et bilde som første ramme av videoen din.
- Klikk på den nye "Animer" knappen som vises under fullførte bildegjengivelser, og som starter arbeidsflyten for bilde-til-video.
- Velg mellom Automatisk or Håndbok animasjonsmoduser (detaljert nedenfor).
Disse enkle trinnene gir deg muligheten til å gjøre ethvert statisk bilde om til en bevegelig sekvens, og utnytte det samme intuitive grensesnittet som skapere bruker for bildegenerering.
Hvilke forskjellige moduser og parametere er tilgjengelige i V1 Video?
Midjourney V1 tilbyr to primære animasjonsmoduser—Automatisk og Håndbok– og to innstillinger for bevegelsesintensitet –Lav bevegelse og Høy bevegelse– sammen med spesialiserte parametere for å finjustere utganger.
Animasjonsmoduser
- Automatisk modusSystemet genererer automatisk en «bevegelsesmelding» basert på innholdet i bildet ditt, og krever ingen ytterligere inndata utover å velge modus.
- Manuell modusDu skriver en tekstlig instruksjon som beskriver hvordan elementer skal bevege seg, på samme måte som vanlige Midjourney-ledetekster, og gir presis kreativ kontroll.
Bevegelsesintensitet
- Lav bevegelseIdeelt for omgivelsesbevegelser eller subtile bevegelser der kameraet stort sett forblir statisk og motivet beveger seg sakte. Imidlertid kan det av og til produsere ubetydelig bevegelse.
- Høy bevegelsePasser for dynamiske scener der både kamera og motiv beveger seg kraftig; kan introdusere visuelle artefakter eller «skårne» bilder hvis det brukes for mye.
Videospesifikke parametere
--motion lowor--motion highå angi intensitet.--rawfor å omgå standard stiliseringspipeline, noe som gir deg ufiltrert utdata for videre etterbehandling.
Disse alternativene gir brukerne muligheten til å skreddersy animasjonsstil og kompleksitet til prosjektets behov, fra subtile parallakseeffekter til fullverdig filmatisk bevegelse.
Slik kommer du i gang med Midjourney-video
1. Discord Bot-kommandoer
/imagine https://your.image.url --motion high --raw --v 1
- Legger ved inngangsbildet som startbilde, setter høy bevegelse, rå promptpåvirkning, og velger Video V1.
2. Nettgrensesnitt
Klikk "animereunder et hvilket som helst bilde i galleriet ditt, velg Auto or Håndbok, sett bevegelsesnivå, og send inn.
1. /imagine <your prompt or image URL>
2. Click the “Animate” button in the web UI
3. Choose Automatic or Manual mode, set High/Low Motion
4. Extend by +4 seconds up to 4 times
Ingen offentlige REST-stil-endepunkter er ennå utgitt; all interaksjon flyter gjennom Discords skråstrekkommandoer og webgrensesnittet.
3. CometAPI
CometAPI er en enhetlig API-plattform som samler over 500 AI-modeller fra ledende leverandører – som OpenAIs GPT-serie, Googles Gemini, Anthropics Claude, Midjourney, Suno og flere – i ett enkelt, utviklervennlig grensesnitt. Ved å tilby konsistent autentisering, forespørselsformatering og svarhåndtering, forenkler CometAPI dramatisk integreringen av AI-funksjoner i applikasjonene dine. Enten du bygger chatboter, bildegeneratorer, musikkomponister eller datadrevne analysepipeliner, lar CometAPI deg iterere raskere, kontrollere kostnader og forbli leverandøruavhengig – alt samtidig som du utnytter de nyeste gjennombruddene på tvers av AI-økosystemet.
Utviklere har tilgang Midjourney Video API gjennom CometAPI, de nyeste modellene som er oppført er per artikkelens publiseringsdato. For å begynne, utforsk modellens muligheter i lekeplass og konsulter API-veiledning for detaljerte instruksjoner. Før du får tilgang, må du sørge for at du har logget inn på CometAPI og fått API-nøkkelen. CometAPI tilby en pris som er langt lavere enn den offisielle prisen for å hjelpe deg med å integrere.
Utviklere kan integrere videogenerering via RESTful API. En typisk forespørselsstruktur (illustrativ):
curl --
location
--request POST 'https://api.cometapi.com/mj/submit/video' \
--header 'Authorization: Bearer {{api-key}}' \
--header 'Content-Type: application/json' \
--data-raw '{ "prompt": "https://cdn.midjourney.com/f9e3db60-f76c-48ca-a4e1-ce6545d9355d/0_0.png add a dog", "videoType": "vid_1.1_i2v_480", "mode": "fast", "animateMode": "manual" }'
Hvordan genererer jeg en video trinn for trinn ved hjelp av Midjourney V1 (Discord)?
Å lage en video med V1 følger en strukturert arbeidsflyt, som speiler tradisjonelle Midjourney-bildeprompter, men forsterket med animasjonssignaler.
Trinn 1: Forbered bildet ditt
- Generere et bilde via
/imaginespør eller laste opp et tilpasset bilde via webgrensesnittet. - eventuelt forbedre bildet med oppskalere eller bruk variasjoner for å forbedre det visuelle før animering.
Trinn 2: Aktiver Animate-funksjonen
- Når renderingen er fullført, klikker du "Animer".
- Velg Automatisk for rask bevegelse eller Håndbok for å legge inn en bevegelsesfokusert ledetekst.
- Velg
--motion lowor--motion highi henhold til ønsket effekt.
Trinn 3: Konfigurer varighet og utvidelser
- Som standard er videoer 5 sekunder lang.
- For å utvide, bruk nettglidebryteren eller legg til parameteren
--video-extendi trinn på fire sekunder, opptil maksimalt 21 sekunder.
Trinn 4: Render og last ned
- Klikk «Generer video»; gjengivelsestiden vil variere basert på modus og abonnementsnivå.
- Når du er ferdig, klikker du på nedlasting ikonet for å lagre .mp4 arkiv på 480p oppløsning, som samsvarer med det originale bildets sideforhold.
Denne strømlinjeformede prosessen gjør det mulig for selv nybegynnere å produsere animerte klipp på få minutter, noe som fremmer rask kreativ iterasjon.
Hvordan kan jeg optimalisere videoutgangene mine for kvalitet og varighet?
Å oppnå profesjonelle videoer med V1 innebærer å balansere bevegelsesinnstillinger, spesifisitet og etterbehandlingsteknikker.
Balansering av bevegelse og stabilitet
- For scener med detaljerte motiver (f.eks. ansikter eller produktbilder), start med Lav bevegelse for å bevare klarheten, og øk deretter trinnvis til Høy bevegelse hvis det er behov for mer dynamisk bevegelse.
- Bruk Manuell modus for kritiske sekvenser – som karakterbevegelser eller kamerapanoreringer – for å unngå uforutsigbare artefakter fra den automatiske promptgeneratoren.
Behandle varighet
- Planlegg sekvensen din: kortere klipp (5–9 sekunder) passer til sosiale medier-looper, mens lengre klipp (10–21 sekunder) fungerer bedre for narrativt eller presentasjonsinnhold.
- Bruk utvidelsesfunksjonen med omhu for å unngå overdrevne gjengivelseskostnader og for å opprettholde konsistens i utdataene.
Tips for etterbehandling
- StabiliseringKjør de nedlastede klippene dine gjennom videoredigeringsprogramvare (f.eks. Adobe Premiere Pros Warp Stabilizer) for å jevne ut mindre skjelving.
- FargegraderingForbedre grafikken ved å bruke LUT-er eller manuelle fargejusteringer, ettersom V1-utgangene er bevisst nøytrale for å maksimere kompatibiliteten med redigeringsprogrammer.
- RammeinterpolasjonBruk verktøy som Flowframes eller Twixtor for å øke bildefrekvensen for ultrajevn avspilling om nødvendig.
Ved å kombinere innstillinger på plattformen med eksterne redigeringsarbeidsflyter kan skaperne løfte V1-klipp fra nyskapende animasjoner til polert, profesjonelt innhold.
Hva er kostnadene og abonnementsdetaljene for bruk av V1 Video?
Det er avgjørende for både vanlige brukere og bedriftsteam å forstå de økonomiske implikasjonene av V1.
Abonnementsnivåer og priser
- Grunnleggende plan ($10/måned): Gir tilgang til video kun i hurtigmodus, med standard GPU-minuttforbruk (8× bildekostnad).
- Pro plan og Mega plan (høyere nivåer): Inkluder videogenerering i avslapningsmodus, som ikke bruker kreditter, men setter jobber i kø bak hurtigmodusoppgaver, noe som er gunstig for masse- eller ikke-hastergjengivelse.
Kostnadsoversikt
| Plan | Video Mode | GPU-minuttkostnad per 5s-klipp | Forlengelseskostnad per 4-sekunders |
|---|---|---|---|
| Basic | Bare raskt | 8 minutter | +8 minutter |
| Proff / Mega | Raskt og avslappende | 8 minutter (raskt) / 0 (avslapning) | +8 / 0 minutter |
- I gjennomsnitt, a 21 sekunder klippet i hurtigmodus forbruker 32 GPU-minutter, tilsvarende å generere 32 statiske bilder.
Bedriftshensyn
- Massegenerering i stor skala kan berettige tilpassede bedriftsavtaler, spesielt for team som trenger videoutganger i sanntid eller høyt volum.
- Evaluer kredittbruk kontra tidsfrister: Avslappingsmodus tilbyr kostnadsbesparelser, men økte behandlingstider.
Ved å tilpasse abonnementsnivåer til prosjektets krav, kan brukerne optimalisere både budsjett og produksjonstidslinjer.
Konklusjon
Midjourneys V1-videomodell står i skjæringspunktet mellom innovasjon og kontrovers, og tilbyr skapere en enestående måte å animere bilder på mens de navigerer i komplekst opphavsrettsterreng. Fra enkle bilde-til-video-arbeidsflyter til avanserte manuelle kontroller, gir V1 brukerne mulighet til å produsere engasjerende, korte animasjoner med minimal teknisk overhead. Etter hvert som juridiske utfordringer og etiske hensyn utfolder seg, vil informert bruk og overholdelse av beste praksis være avgjørende. Midjourneys veikart lover rikere 3D-opplevelser, lengre formater og resultater med høyere gjengivelse, noe som understreker plattformens forpliktelse til å flytte grensene for AI-drevet kreativitet.



