Hvordan bruger man Omni-Reference i Midjourney V7? Brugervejledning

CometAPI
AnnaMay 6, 2025
Hvordan bruger man Omni-Reference i Midjourney V7? Brugervejledning

Midjourneys version 7 (V7) har indledt en transformerende funktion for skabere: Omni-Reference. Dette nye værktøj, der blev lanceret den 3. maj 2025, giver dig mulighed for at låse specifikke visuelle elementer – hvad enten det er karakterer, objekter eller væsner – fra et enkelt referencebillede og problemfrit blande dem ind i dit AI-genererede kunstværk. Denne artikel kombinerer de seneste officielle opdateringer og indsigt fra fællesskabet for at guide dig trin for trin gennem brugen af ​​Omni-Reference i Midjourney V7.

Vi vil udforske hvad, hvorfor, hvordan og bedste praksis, alt sammen indrammet af læservenlige Q&A-lignende afsnitstitler (sekundære overskrifter) og detaljerede underemner (tertiære overskrifter). Til sidst vil du være klar til at udnytte Omni-Reference til at producere ensartede billeder i høj kvalitet til ethvert kreativt eller professionelt projekt.

Hvad er Omni-Reference i Midjourney V7?

Hvordan fungerer Omni-Reference?

Med Omni-Reference kan du integrere et enkelt billede – f.eks. et fotografi af en person, et produktbillede eller et væsendesign – direkte i dine Midjourney-prompter. V7-modellen refererer derefter til dette billede for at gengive dets kerneelementer (form, farve, anatomi) i nygenererede scener.

Hvilke elementer kan du referere til?

Du kan referere til stort set alt: menneskeansigter, kæledyr, køretøjer, rekvisitter eller mytologiske væsner. I modsætning til tidligere "karakterreferencer" i V6 er Omni-Reference universel – deraf "omni" – og fungerer sammen med stil- og moodboard-funktioner for at opretholde visuel konsistens.

Hvad er de tekniske begrænsninger?

Omni-Reference understøtter i øjeblikket en referencebillede pr. prompt. Det er uforenelige med indmaling, udmaling (begge stadig på V6.1), Hurtig/Kladde/Samtaletilstande og --q 4 kvalitetsindstilling. Derudover bruger hver Omni-Reference-gengivelse dobbelt så meget GPU-tid som et standard V7-job.

Hvorfor blev Omni-Reference introduceret?

Hvilke huller udfylder det?

Før V7 kæmpede skabere med at opretholde karakter- eller objektkonsistens på tværs af flere gengivelser og tyede ofte til besværlige løsninger. Omni-Reference adresserer dette ved at tilbyde en direkte og pålidelig måde at "fortælle" AI'en præcis, hvilke visuelle elementer der skulle bevares.

Hvad siger early adopters?

Brancheobservatører som Erik Knobl bemærker, at Omni-Reference dramatisk forbedrer kvaliteten af ​​tilbagevendende karakterer i storyboards og spilgrafik, hvilket reducerer revisionsloops med op til 50% i tidlige tests.

Hvordan har samfundet reageret?

På Product Hunt rangerede Omni-Reference som nummer 4 den 3. maj 2025 og fik ros for sin præcise kontrol og brugervenlighed – 291 positive stemmer i løbet af de første 24 timer vidner om bred entusiasme blandt både designere og hobbyfolk.

Hvordan kan jeg få adgang til Omni-Reference?

På webgrænsefladen

  1. Skift til V7Vælg V7-modellen i Indstillinger.
  2. Upload eller vælg et billedeKlik på billedikonet i Imagine-bjælken for at åbne dit uploadbibliotek.
  3. Træk ind i Omni-Reference-boksenSlip dit billede i det markerede "Omni-Reference"-felt.
  4. Juster indflydelseBrug skyderen på skærmen eller --ow parameter til at indstille referencestyrke.

Med Discord-kommandoer

  1. ModelflagSørg for at du er på --v 7.
  2. Referenceparameter: Tilføj --oref <image_url> til din prompt (URL'en skal pege på et allerede hostet billede).
  3. Vægtkontrol: Tilføje --ow <value> (1–1000, standard 100) for at finjustere, hvor strengt AI'en overholder din reference.

Hvad er fordelene ved at bruge Omni-Reference?

Forbedret konsistens og troskab

Ved at referere direkte til et billede garanterer du, at vigtige træk (ansigtskarakteristika, logoer, rekvisitformer) vises præcist på tværs af flere gengivelser. Dette er uvurderligt for branding, sekventiel kunst og karakterdrevne fortællinger.

Kreativ kontrol gennem vægtning

--ow Parameteren (omni-weight), der spænder fra 1 til 1,000, giver dig mulighed for at justere indflydelse fra subtil (25-50) til dominerende (400+). Lavere vægte fremmer stilisering; højere vægte håndhæver streng overholdelse. Denne fleksibilitet understøtter alt fra løs konceptkunst til præcise produktmockups.

Integration med personalisering og stilreferencer

Omni-Reference integreres pænt sammen med V7's personaliseringssystem og moodboard-funktioner, hvilket giver dig mulighed for at kombinere menneskelig lighed, miljømæssig stemning og stilistiske detaljer i én sammenhængende arbejdsgang.

Hvordan konfigurerer jeg Omni-Reference for at opnå de bedste resultater?

Indstilling af optimal omnivægt

  • 25-50Ideel til stiloverførsel (f.eks. foto → anime).
  • 100-300Balanceret indflydelse til scenevejledning.
  • 400-1000Maksimal kvalitet – afgørende ved gengivelse af indviklede detaljer som et firmalogo eller en figurs ansigtstræk (midt på rejsen).

Udarbejdelse af effektive prompter

Sørg altid for at have klare tekstprompter til din Omni-Reference. Beskriv positur, belysning, omgivelser og eventuelle yderligere elementer. For eksempel:

/imagine a steampunk airship sailing at sunset — oref https://…/airship.png —ow 200 —v 7

Dette sikrer, at AI'en forstår både "hvad" der skal medtages, og "hvor" det skal placeres.

Kombination med stil og personalisering

  • Brug stilreferencer (--style <name>) for at ændre den kunstneriske stemning (f.eks. "i stil med oliemaleri").
  • Udnyt personaliseringstokens (f.eks, <lora:name>) for at genkalde brugerdefinerede trænede elementer.
  • Sænk omni-vægten en smule, hvis du ønsker, at stiliseringen skal dominere; øg den, hvis kvaliteten er altafgørende.

Hvilke praktiske anvendelsesscenarier udmærker sig ved Omni-Reference?

Branding- og marketingaktiver

Skab ensartede produktbilleder – f.eks. et sneakerdesign i forskellige omgivelser – uden at skulle tegne om manuelt hver gang. Omni-Reference sikrer, at skoens nøjagtige form og farvekombination forbliver fastlåst.

Karakterdesign og animation

Bevar karakterernes udseende på tværs af konceptscener, storyboards eller miniatureskitser. Instruktører og animatorer kan iterere hurtigere, velvidende at AI'en vil holde frisurer, kostumer og proportioner ensartede.

Produktmodeller og prototyping

Visualiser en ny gadget fra forskellige vinkler eller i forskellige miljøer (studie, livsstil, teknisk diagram), mens du bevarer de centrale designdetaljer – afgørende for at præsentere idéer til interessenter.

Fortælling og tegneseriekunst

Forfattere og illustratorer kan placere tilbagevendende hovedpersoner i flere paneler, baggrunde eller dramatiske scener og dermed opretholde narrativ kontinuitet uden manuel omtegning.

Hvilke fejlfindingstips og tips bør jeg kende?

Fælles faldgruber

  • Ugyldige webadresserSørg for, at dit referencebillede er hostet og offentligt tilgængeligt.
  • OvervægtningVægte over 400 kan give uforudsigelige artefakter; start lavere og øg gradvist.
  • TilstandskonflikterOmni-Reference ignorerer lydløst prompter i inkompatible tilstande (Hurtig, Kladde, Samtale).

Modereringsovervejelser

Midjourneys modereringsfiltre kan markere visse referencebilleder (f.eks. ophavsretligt beskyttede tegn eller følsomt indhold). Blokerede job medfører ingen kreditomkostninger – GPU-tid fratrækkes kun ved vellykkede gengivelser.

Optimering af GPU-tid

Da Omni-Reference fordobler GPU-forbruget, skal du bruge det med omtanke under idégenerering. Skift til Fast Mode eller Draft Mode for hurtig prototyping (uden referencer), og anvend derefter Omni-Reference i V7 til de endelige gengivelser.

Hvordan vil Omni-Reference udvikle sig i fremtidige opdateringer?

Planlagte kompatibilitetsudvidelser

Ifølge rapporter fra fællesskabet arbejder Midjourneys udviklere aktivt på at bringe Omni-Reference-understøttelse til inpainting/outpainting og hurtigere tilstande, hvilket reducerer de nuværende begrænsninger i arbejdsgangen.

Forbedrede referencer til flere billeder

Tidlige hvisken antyder en Omni-Reference-funktion med flere billeder, der muliggør samtidig referencer til flere karakterer eller objekter – hvilket åbner døre til komplekse gruppescener og rigere fortællinger.

Smartere vægtjusteringer

Fremtidige forbedringer af brugergrænsefladen kan introducere adaptive vægttips, hvor Midjourney foreslår optimale --ow værdier baseret på billedkompleksitet og stiliseringsbehov, hvilket strømliner læringskurven.

Se også Midjourney V7: Nye funktioner og hvordan man bruger dem


Konklusion

Med disse indsigter er du rustet til at integrere Omni-Reference i din Midjourney V7-workflow. Uanset om du er designer, historiefortæller eller hobbyist, tilbyder denne funktion hidtil uset kontrol over din AI-genererede kunst – hvilket sikrer konsistens, troskab og kreativ frihed i hver gengivelse. Eksperimenter med vægte, prompts og kombinerede referencer for at finde din ideelle balance mellem præcision og stil. Fremtiden for AI-kunstnerisk udfoldelse er her – snup dit referencebillede og dyk ned i det!

Brug MidJourney V7 i CometAPI

CometAPI giver adgang til over 500 AI-modeller, inklusive open source og specialiserede multimodale modeller til chat, billeder, kode og mere. Dens primære styrke ligger i at forenkle den traditionelt komplekse proces med AI-integration. Med den er adgang til førende AI-værktøjer som Claude, OpenAI, Deepseek og Gemini tilgængelig gennem et enkelt, samlet abonnement.

CometAPI tilbyde en pris langt lavere end den officielle pris for at hjælpe dig med at integrere Midjourney API, og du vil få $1 på din konto efter registrering og login! Velkommen til at registrere og opleve CometAPI.CometAPI betaler mens du går.

Vigtig forudsætning: Før du bruger MidJourney V7, skal du begynde at bygge videre CometAPI i dag – tilmeld dig her for fri adgang. Besøg venligst docs

Det er meget enkelt at komme i gang med MidJourney V7 - bare tilføj --v 7 parameter i slutningen af ​​din prompt. Denne enkle kommando fortæller CometAPI at bruge den nyeste V7-model til at generere dit billede.

Vær sød at henvise til Midjourney API for integrationsdetaljer.

Læs mere

500+ modeller i én API

Op til 20% rabat