Wie verwende ich Omni-Reference in Midjourney V7? Benutzerhandbuch

CometAPI
AnnaMay 6, 2025
Wie verwende ich Omni-Reference in Midjourney V7? Benutzerhandbuch

Midjourney Version 7 (V7) bringt eine bahnbrechende Funktion für Kreative: Omni‑Reference. Dieses neue Tool, das am 3. Mai 2025 eingeführt wurde, ermöglicht es Ihnen, bestimmte visuelle Elemente – ob Figuren, Objekte oder Kreaturen – aus einem einzigen Referenzbild zu sperren und nahtlos in Ihre KI-generierten Grafiken zu integrieren. Dieser Artikel kombiniert die neuesten offiziellen Updates und Community-Einblicke und führt Sie Schritt für Schritt durch die Verwendung von Omni‑Reference in Midjourney V7.

Wir untersuchen das Was, Warum, Wie und Best Practices, eingerahmt von leserfreundlichen Abschnittsüberschriften im Frage-und-Antwort-Stil (sekundäre Überschriften) und detaillierten Unterthemen (tertiäre Überschriften). Am Ende sind Sie bereit, Omni-Reference zu nutzen, um konsistente, hochauflösende Bilder für jedes kreative oder professionelle Projekt zu erstellen.

Was ist Omni‑Reference in Midjourney V7?

Wie funktioniert Omni‑Reference?

Mit Omni‑Reference können Sie ein einzelnes Bild – beispielsweise ein Personenfoto, eine Produktaufnahme oder das Design einer Kreatur – direkt in Ihre Midjourney-Eingabeaufforderungen einbetten. Das V7-Modell referenziert dann dieses Bild, um dessen Kernelemente (Form, Farbe, Anatomie) in neu generierten Szenen zu reproduzieren.

Auf welche Elemente können Sie verweisen?

Sie können auf praktisch alles verweisen: menschliche Gesichter, Haustiere, Fahrzeuge, Requisiten oder mythologische Kreaturen. Im Gegensatz zu früheren „Charakterreferenzen“ in V6 ist Omni-Reference universell – daher „omni“ – und arbeitet mit Stil- und Moodboard-Funktionen zusammen, um die visuelle Konsistenz zu gewährleisten.

Was sind die technischen Einschränkungen?

Omni‑Reference unterstützt derzeit dank One Referenzbild pro Eingabeaufforderung. Es ist unvereinbar mit Inpainting, Outpainting (beide noch in V6.1), Fast/Draft/Conversational Modes und dem --q 4 Qualitätseinstellung. Darüber hinaus benötigt jeder Omni-Reference-Render die doppelte GPU-Zeit eines Standard-V7-Jobs.

Warum wurde Omni‑Reference eingeführt?

Welche Lücken füllt es?

Vor V7 hatten Entwickler Schwierigkeiten, die Konsistenz von Charakteren oder Objekten über mehrere Renderings hinweg aufrechtzuerhalten, und griffen häufig auf umständliche Workarounds zurück. Omni‑Reference behebt dieses Problem, indem es eine direkte, zuverlässige Möglichkeit bietet, der KI genau mitzuteilen, welche visuellen Elemente erhalten bleiben sollen.

Was sagen Early Adopters?

Branchenbeobachter wie Erik Knobl weisen darauf hin, dass Omni‑Reference die Wiedergabetreue wiederkehrender Charaktere in Storyboards und Spielgrafiken erheblich verbessert und die Revisionsschleifen in frühen Tests um bis zu 50 % reduziert.

Wie hat die Community reagiert?

Bei Product Hunt erreichte Omni‑Reference am 4. Mai 3 Platz 2025 und erntete Lob für seine präzise Steuerung und Benutzerfreundlichkeit – 291 Upvotes in den ersten 24 Stunden zeugen von der großen Begeisterung sowohl unter Designern als auch Bastlern.

Wie kann ich auf Omni‑Reference zugreifen?

Auf der Weboberfläche

  1. Wechseln Sie zu V7: Wählen Sie in den Einstellungen das Modell V7 aus.
  2. Bild hochladen oder auswählen: Klicken Sie auf das Bildsymbol in der Imagine-Leiste, um Ihre Upload-Bibliothek zu öffnen.
  3. In den Omni-Reference-Bereich ziehen: Legen Sie Ihr Bild in den Steckplatz mit der Bezeichnung „Omni-Reference“ ab.
  4. Einfluss anpassen: Verwenden Sie den Schieberegler auf dem Bildschirm oder die --ow Parameter zum Einstellen der Referenzstärke.

Mit Discord-Befehlen

  1. Modellflagge: Stellen Sie sicher, dass Sie eingeschaltet sind --v 7.
  2. Referenzparameter: Anhängen --oref <image_url> zu Ihrer Eingabeaufforderung (die URL muss auf ein bereits gehostetes Bild verweisen).
  3. Gewichtskontrolle: Hinzufügen --ow <value> (1–1000, Standard 100), um die Genauigkeit der KI-Einhaltung Ihrer Referenz zu optimieren.

Welche Vorteile bietet die Verwendung von Omni‑Reference?

Verbesserte Konsistenz und Wiedergabetreue

Durch die direkte Referenzierung eines Bildes stellen Sie sicher, dass wesentliche Merkmale (Gesichtsmerkmale, Logos, Requisitenformen) in mehreren Renderings korrekt dargestellt werden. Dies ist von unschätzbarem Wert für Branding, sequentielle Kunst und charakterbasierte Erzählungen.

Kreative Kontrolle durch Gewichtung

Die --ow Mit dem Omni-Stärken-Parameter (1 bis 1,000) können Sie den Einfluss von subtil (25–50) bis dominant (400+) einstellen. Niedrigere Stärkewerte fördern die Stilisierung, höhere Stärkewerte erzwingen strikte Einhaltung. Diese Flexibilität unterstützt alles von lockerer Konzeptkunst bis hin zu präzisen Produktmodellen.

Integration mit Personalisierungs- und Stilreferenzen

Omni‑Reference fügt sich nahtlos in das Personalisierungssystem und die Moodboard-Funktionen von V7 ein und ermöglicht Ihnen, menschliche Ähnlichkeit, Umgebungsstimmung und stilistische Schnörkel in einem zusammenhängenden Arbeitsablauf zu kombinieren.

Wie konfiguriere ich Omni‑Reference für optimale Ergebnisse?

Einstellen des optimalen Omni‑Weight

  • 25-50: Ideal für Stilübertragung (z. B. Foto → Anime).
  • 100-300: Ausgewogener Einfluss zur Szenenführung.
  • 400-1000: Maximale Wiedergabetreue – unerlässlich bei der Wiedergabe komplexer Details wie eines Firmenlogos oder der Gesichtszüge einer Figur (Zwischendurch).

Effektive Aufforderungen erstellen

Fügen Sie Ihrer Omni-Reference immer klare Texthinweise bei. Beschreiben Sie Pose, Beleuchtung, Umgebung und alle weiteren Elemente. Zum Beispiel:

/imagine a steampunk airship sailing at sunset — oref https://…/airship.png —ow 200 —v 7

Dadurch wird sichergestellt, dass die KI sowohl versteht, „was“ sie einschließen muss, als auch, „wo“ sie es platzieren muss.

Kombinieren mit Stil und Personalisierung

  • Nutzen Sie Stilreferenzen (--style <name>), um die künstlerische Stimmung zu verändern (z. B. „im Stil der Ölmalerei“).
  • Nutzen Personalisierungs-Token (z.B, <lora:name>), um individuell trainierte Elemente abzurufen.
  • Verringern Sie die Omni-Gewichtung leicht, wenn die Stilisierung dominieren soll; erhöhen Sie sie, wenn die Wiedergabetreue im Vordergrund steht.

Welche praktischen Anwendungsfälle glänzen mit Omni‑Reference?

Branding- und Marketing-Assets

Erstellen Sie konsistente Produktaufnahmen – z. B. ein Sneaker-Design in verschiedenen Umgebungen – ohne jedes Mal manuell neu zeichnen zu müssen. Omni‑Reference stellt sicher, dass die exakte Form und Farbgebung des Schuhs erhalten bleibt.

Charakterdesign und Animation

Behalten Sie das Erscheinungsbild der Figuren über Konzeptszenen, Storyboards oder Miniaturskizzen hinweg bei. Regisseure und Animatoren können schneller iterieren, da die KI für einheitliche Frisuren, Kostüme und Proportionen sorgt.

Produktmodelle und Prototyping

Visualisieren Sie ein neues Gadget aus verschiedenen Blickwinkeln oder in unterschiedlichen Umgebungen (Studio, Lifestyle, technisches Diagramm), während Sie gleichzeitig die zentralen Designdetails beibehalten – entscheidend für die Präsentation von Ideen bei Stakeholdern.

Geschichtenerzählen und Comic-Kunst

Autoren und Illustratoren können wiederkehrende Protagonisten in mehrere Panels, Hintergründe oder dramatische Szenen einfügen und so die erzählerische Kontinuität aufrechterhalten, ohne manuell neu zeichnen zu müssen.

Welche Fehlerbehebung und Tipps sollte ich kennen?

Häufige Fehler

  • Ungültige URLs: Stellen Sie sicher, dass Ihr Referenzbild gehostet und öffentlich zugänglich ist.
  • Übergewichtung: Gewichte über 400 können zu unvorhersehbaren Artefakten führen; beginnen Sie mit einem niedrigeren Wert und erhöhen Sie diesen schrittweise.
  • Moduskonflikte: Omni‑Reference ignoriert Eingabeaufforderungen in inkompatiblen Modi (Schnell, Entwurf, Konversationell) stillschweigend.

Überlegungen zur Moderation

Die Moderationsfilter von Midjourney können bestimmte Referenzbilder (z. B. urheberrechtlich geschützte Charaktere oder sensible Inhalte) kennzeichnen. Blockierte Jobs verursachen nicht Kreditkosten – GPU-Zeit wird nur bei erfolgreichem Rendering abgezogen.

Optimieren der GPU-Zeit

Da Omni‑Reference die GPU-Auslastung verdoppelt, sollten Sie es bei der Ideenfindung mit Bedacht einsetzen. Wechseln Sie für schnelles Prototyping (ohne Referenzen) in den Schnellmodus oder Entwurfsmodus und wenden Sie Omni‑Reference in V7 für das endgültige Rendering an.

Wie wird sich Omni‑Reference in zukünftigen Updates weiterentwickeln?

Geplante Kompatibilitätserweiterungen

Laut Berichten aus der Community arbeiten die Entwickler von Midjourney aktiv daran, Omni‑Reference-Unterstützung für Inpainting/Outpainting und schnellere Modi bereitzustellen und so die aktuellen Einschränkungen des Workflows zu reduzieren.

Verbesserte Mehrfachbildreferenzen

Erste Gerüchte deuten auf eine Omni-Reference-Funktion für mehrere Bilder hin, die die gleichzeitige Referenzierung mehrerer Charaktere oder Objekte ermöglicht und so Türen zu komplexen Gruppenszenen und reichhaltigeren Erzählungen öffnet.

Intelligentere Gewichtsanpassungen

Zukünftige UI-Verbesserungen könnten adaptive Gewichtshinweise einführen, bei denen Midjourney optimale --ow Werte basierend auf der Bildkomplexität und den Stilisierungsanforderungen, wodurch die Lernkurve optimiert wird.

Web Link Midjourney V7: Neue Funktionen und Nutzung


Fazit

Mit diesen Erkenntnissen sind Sie bestens gerüstet, Omni-Reference in Ihren Midjourney V7-Workflow zu integrieren. Ob Designer, Geschichtenerzähler oder Hobbykünstler – diese Funktion bietet Ihnen beispiellose Kontrolle über Ihre KI-generierte Kunst und sorgt für Konsistenz, Wiedergabetreue und kreative Freiheit bei jedem Rendering. Experimentieren Sie mit Gewichtungen, Eingabeaufforderungen und kombinierten Referenzen, um die ideale Balance zwischen Präzision und Stil zu finden. Die Zukunft der KI-Kunst ist da – schnappen Sie sich Ihr Referenzbild und tauchen Sie ein!

Verwenden Sie MidJourney V7 in CometAPI

CometAPI bietet Zugriff auf über 500 KI-Modelle, darunter Open-Source- und spezialisierte multimodale Modelle für Chat, Bilder, Code und mehr. Die größte Stärke liegt in der Vereinfachung des traditionell komplexen Prozesses der KI-Integration. Mit CometAPI erhalten Sie Zugriff auf führende KI-Tools wie Claude, OpenAI, Deepseek und Gemini über ein einziges, einheitliches Abonnement.

CometAPI bieten einen Preis weit unter dem offiziellen Preis an, um Ihnen bei der Integration zu helfen Midjourney-API, und Sie erhalten 1 $ auf Ihr Konto, nachdem Sie sich registriert und angemeldet haben! Willkommen bei der Registrierung und beim Ausprobieren von CometAPI. CometAPI zahlt sich aus, sobald Sie es nutzen.

Wichtige Voraussetzung: Bevor Sie MidJourney V7 verwenden, müssen Sie mit dem Aufbau beginnen CometAPI noch heute – melden Sie sich an Hier erhalten Sie kostenlosen Zugang. Besuchen Sie docs

Der Einstieg in MidJourney V7 ist ganz einfach: Fügen Sie einfach die --v 7 Parameter am Ende Ihrer Eingabeaufforderung. Dieser einfache Befehl weist CometAPI an, das neueste V7-Modell zur Generierung Ihres Images zu verwenden.

Bitte beachten Sie Midjourney-API für Integrationsdetails.

Mehr lesen

500+ Modelle in einer API

Bis zu 20% Rabatt