Midjourneys HD-videotilstand går live — højere kvalitet, højere pris, bredere tilgængelighed: Midjourney har officielt lanceret en HD-videotilstand til sine nyligt introducerede videoværktøjer, hvilket åbner op for AI-videogengivelse i højere opløsning for betalende professionelle brugere. Tilføjelsen opgraderer Midjourneys billede-til-video-workflow med en mulighed for højere pixel, som virksomheden siger er rettet mod skabere, der har brug for skarpere og mere produktionsklare klip. Den første udrulning var rettet mod Pro- og Mega-abonnenter den 7. august, før den blev udvidet til Standard-abonnementer den 13. august for at imødekomme fællesskabets krav om tilgængelighed.
Hvad er Midjourneys HD-videofunktion, og hvordan fungerer den?
Midjourneys HD-videotilstand repræsenterer en betydelig opgradering fra standard definition (SD)-tilbuddene, der transformerer statiske AI-genererede billeder til dynamiske bevægelsessekvenser i høj kvalitet. Brugere kan nu animere prompts med forbedret opløsning via Midjourneys Discord-bot eller webgrænseflade, hvilket gør den velegnet til professionelle applikationer som reklamer, kortfilm og indhold på sociale medier.
Kernespecifikationer og forbedringer
I sin kerne leverer HD-tilstand cirka 4 gange flere pixels end SD og opnår en opløsning på 720p med 24 billeder i sekundet (FPS). Dette resulterer i mærkbart skarpere billeder og færre visuelle artefakter i korte klip – almindelige problemer i tidligere AI-videoer. Funktionen understøtter problemfri loop-animationer, moodboards til inspiration og integration med parametre som –raw for mere naturlige bevægelser. Brugere kan generere videoer ud fra tekstprompter eller uploadede billeder med en varighed på typisk omkring 5 sekunder, som kan forlænges gennem avancerede arbejdsgange.
En vigtig innovation er tilpasningen af batchstørrelsen: Med standardindstillingen på 4 videoer pr. generation kan brugerne nu vælge mindre batches (1 eller 2) via indstillinger eller kommandoer som –bs 1, hvilket reducerer GPU-omkostningerne med op til 75 % for målrettede kreationer. Forbedret moderering filtrerer upassende indhold fra mere præcist, mens miniaturebilleder nu viser den sidste frame (med planer om forhåndsvisning af midterste frame i loops).
Sammenligning med standardtilstand
I SD-tilstand koster videoer omkring 2 GPU-minutter hver, men HD eskalerer til 6 minutter – cirka 3.2 gange prisen – hvilket afspejler beregningsintensiteten. For et Pro-abonnement til $60/måned betyder det omkring 72 HD-iterationer (hvilket giver 288 videoer i batches af 4), men mindre batches optimerer for effektivitet. Tidlige benchmarks viser, at HD overgår SD i detaljebevarelse, hvilket gør det ideelt til filmiske output, selvom det mangler native lydunderstøttelse – brugere lægger ofte lyd i lag via værktøjer som Adobe Premiere.
Workflow: Den centrale video-workflow forbliver billede-til-video: brugerne leverer et startbillede (genereret i Midjourney eller uploadet) og bruger en "Animate"-workflow (automatiske eller manuelle bevægelsesprompter) til at producere korte klip. Basisklip starter ved cirka fem sekunder og kan forlænges i intervaller.
Omkostnings- og ydeevneafvejninger
Midjourney advarer om, at HD-video er betydeligt dyrere at gengive end standardvideo: Virksomheden og tidlige rapporter anslår prisen til cirka 3.2 gange den normale videopris (og kommentatorer bemærker, at det svarer til cirka fire gange pixels), hvilket betyder, at skabere bør forvente en betydelig stigning i udgifterne til HD-output. Midjourneys team anser HD for at være en professionel mulighed - højere kvalitet til højere beregningsomkostninger. Midjourney præciserede også, at HD-generering ikke er beregnet til at køre i afslapningstilstand og primært er rettet mod projekter med højere produktionsbudgetter.
Teknisk kontekst og køreplan
HD-tilstanden bygger på Midjourneys V1-videomodel (udgivet tidligere i 2025), som introducerede virksomhedens første offentlige billed-til-video-funktion. Midjourney beskriver V1 som et tidligt skridt i en bredere videokøreplan, der vil tilføje funktioner og skalere over tid; HD præsenteres som en forbedring rettet mod produktionsbrugsscenarier snarere end en separat model.
Brug MidJourney i CometAPI
CometAPI er en samlet API-platform, der samler over 500 AI-modeller fra førende udbydere – såsom OpenAIs GPT-serie, Googles Gemini, Anthropics Claude, Midjourney, Suno og flere – i en enkelt, udviklervenlig grænseflade. Ved at tilbyde ensartet godkendelse, formatering af anmodninger og svarhåndtering forenkler CometAPI dramatisk integrationen af AI-funktioner i dine applikationer. Uanset om du bygger chatbots, billedgeneratorer, musikkomponister eller datadrevne analysepipelines, giver CometAPI dig mulighed for at iterere hurtigere, kontrollere omkostninger og forblive leverandøruafhængig – alt imens du udnytter de seneste gennembrud på tværs af AI-økosystemet.
CometAPI tilbyde en pris langt lavere end den officielle pris for at hjælpe dig med at integrere Midjourney API og Midjourney Video APIVelkommen til at registrere dig og opleve CometAPI. For at begynde, udforsk modellens muligheder i Legeplads og konsulter API guide for detaljerede instruktioner. Før du får adgang, skal du sørge for at være logget ind på CometAPI og have fået API-nøglen.
Kaldemetode: Brug parameteren videoType=vid_1.1_i2v_720.
Midjourney V1-videogeneration: Udviklere kan integrere videogenerering via RESTful API. En typisk anmodningsstruktur (illustrativ)
curl --
location
--request POST 'https://api.cometapi.com/mj/submit/video' \
--header 'Authorization: Bearer {{api-key}}' \
--header 'Content-Type: application/json' \
--data-raw '{ "prompt": "https://cdn.midjourney.com/f9e3db60-f76c-48ca-a4e1-ce6545d9355d/0_0.png add a dog", "videoType": "vid_1.1_i2v_720", "mode": "fast", "animateMode": "manual" }'
