如何在 Midjourney V7 中使用 Omni-Reference?使用指南

CometAPI
AnnaMay 6, 2025
如何在 Midjourney V7 中使用 Omni-Reference?使用指南

Midjourney 的第 7 版(V7)为创作者带来了一项变革性功能:Omni‑Reference。该新工具于 2025 年 5 月 3 日发布,能够让你从一张参考图像中锁定特定视觉元素——无论是角色、物体还是生物——并将其无缝融入你的 AI 生成作品中。本文结合官方最新更新与社区见解,将一步步引导你在 Midjourney V7 中使用 Omni‑Reference。

我们将以读者友好的问答式小标题(二级标题)与细分话题(三级标题)为框架,探讨是什么、为什么、怎么用以及最佳实践。读完后,你将能借助 Omni‑Reference,为任何创意或专业项目产出一致且高保真的图像。

Midjourney V7 中的 Omni‑Reference 是什么?

Omni‑Reference 如何工作?

Omni‑Reference 允许你将单张图像(如人物照片、产品照或生物设计)直接嵌入 Midjourney 提示词中。V7 模型会参考这张图像,在新生成的场景中复现其核心元素(形状、颜色、解剖结构)。

可以引用哪些元素?

几乎任何东西都可以引用:人脸、宠物、车辆、道具或神话生物。与 V6 先前的“角色引用”不同,Omni‑Reference 是通用的——因此称为“omni”——并与风格与情绪板功能协同工作,以保持视觉一致性。

技术限制有哪些?

Omni‑Reference 目前每个提示仅支持一张参考图。它与 inpainting、outpainting(两者仍在 V6.1 上)、Fast/Draft/Conversational 模式以及 --q 4 质量设置不兼容。此外,每次启用 Omni‑Reference 的渲染将消耗标准 V7 任务两倍的 GPU 时间。

为什么引入 Omni‑Reference?

它填补了哪些空白?

在 V7 之前,创作者难以在多次渲染中保持角色或物体的一致性,往往需要采用繁琐的权宜之计。Omni‑Reference 通过提供一种直接、可靠的方式来“告诉”AI 需要保留哪些视觉元素,解决了这一问题。

早期使用者怎么说?

业界观察者 Erik Knobl 指出,Omni‑Reference 显著提升了分镜与游戏美术中重复角色的保真度,在早期测试中将修改循环减少了多达 50%。

社区如何反应?

在 Product Hunt 上,Omni‑Reference 于 2025 年 5 月 3 日获得第 4 名,因其精确控制与易用性广受好评——上线 24 小时内获得 291 个赞,显示出设计师与爱好者的普遍热情。

如何获取 Omni‑Reference?

在网页端界面

  1. 切换至 V7:在设置中选择 V7 模型。
  2. 上传或选择图像:点击 Imagine 栏中的图片图标打开上传库。
  3. 拖入 Omni‑Reference 区:将图像拖入标有“Omni‑Reference”的槽位。
  4. 调整影响力:使用屏幕上的滑块或 --ow 参数设置引用强度。

通过 Discord 命令

  1. 模型标志:确保使用 --v 7
  2. 引用参数:在提示词后追加 --oref <image_url>(URL 必须指向已托管的图像)。
  3. 权重控制:添加 --ow <value>(1–1000,默认 100)以微调 AI 对参考的遵循程度。

使用 Omni‑Reference 的优势是什么?

提升一致性与保真度

通过直接引用图像,你可以确保关键特征(面部特征、Logo、道具形状)在多次渲染中准确呈现。这对于品牌展示、连续艺术与角色驱动叙事非常重要。

通过权重实现创意控制

--ow(omni‑weight)参数范围为 1 到 1000,可将影响力从细微(25–50)调至主导(400+)。较低权重鼓励风格化;较高权重则强制严格遵循。这种灵活性既适用于松散的概念草图,也适用于精确的产品模型图。

与个性化与风格引用的整合

Omni‑Reference 与 V7 的个性化系统和情绪板功能贴合良好,可在同一工作流中结合人物相貌、环境氛围与风格修饰,实现整体一致。

如何配置 Omni‑Reference 以获得最佳效果?

设定最佳 Omni‑Weight

  • 25–50:适合风格迁移(例如,照片 → 动漫)。
  • 100–300:影响力平衡,用于场景引导。
  • 400–1000:最大保真度——在复现复杂细节(如企业 Logo 或角色面部特征)时至关重要(Midjourney)。

编写有效的提示词

务必在 Omni‑Reference 的基础上提供清晰的文本提示。描述姿势、光照、环境与其他元素。例如:

/imagine a steampunk airship sailing at sunset — oref https://…/airship.png —ow 200 —v 7

这可确保 AI 同时理解需要“包含什么”以及“放在哪里”。

与风格与个性化结合

  • 使用风格引用(--style <name>)改变艺术风格(如“油画风格”)。
  • 使用个性化令牌(如 <lora:name>)调用自定义训练元素。
  • 若希望风格化效果占主导,可适当降低 omni‑weight;若保真度优先,则提高权重。

哪些实际用例最能体现 Omni‑Reference 的优势?

品牌与营销素材

创建一致的产品图——例如在不同场景中的运动鞋设计——无需每次手工重绘。Omni‑Reference 能确保鞋子的准确造型与配色被锁定。

角色设计与动画

在概念场景、分镜或缩略草图中保持角色外观一致。导演与动画师可更快迭代,同时确信 AI 会保持发型、服装与比例的统一。

产品模型与原型

在不同角度或多样环境(棚拍、生活方式、技术示意)中可视化新设备,同时保留核心设计细节——这对向利益相关者展示创意至关重要。

叙事与漫画艺术

作者与插画师可将反复出现的主角置于多个分镜、背景或戏剧化场景中,在无需手工重绘的前提下维持叙事连续性。

我需要了解哪些排障与技巧?

常见陷阱

  • 无效 URL:确保你的参考图像已托管且可公开访问。
  • 过度加权:权重高于 400 可能产生不可预期的伪影;从较低值开始并逐步提高。
  • 模式冲突:在不兼容模式(Fast、Draft、Conversational)下,Omni‑Reference 会静默忽略提示。

审核考虑

Midjourney 的审核过滤器可能会标记某些参考图像(例如受版权保护的角色或敏感内容)。被阻止的任务不消耗额度——只有成功渲染才会扣除 GPU 时间。

优化 GPU 时间

由于 Omni‑Reference 会使 GPU 消耗翻倍,请在创意发散阶段谨慎使用。你可以在不使用引用的情况下切换到 Fast 模式或 Draft 模式进行快速原型迭代,随后在 V7 中启用 Omni‑Reference 进行最终渲染。

未来更新中 Omni‑Reference 将如何演进?

计划中的兼容性扩展

据社区报道,Midjourney 的开发者正积极推进对 inpainting/outpainting 与更快模式的支持,以减少当前的工作流限制。

更强的多图像引用

早期动向显示可能会引入多图像 Omni‑Reference 功能,可同时引用多个角色或物体——为复杂群像与更丰富的叙事打开大门。

更智能的权重调整

未来的 UI 改进可能会加入自适应权重提示,Midjourney 将根据图像复杂度与风格化需求建议最优 --ow 值,从而降低上手门槛。

参见 Midjourney V7 : New Features & How to Utilize


结论

掌握以上内容后,你已准备好将 Omni‑Reference 融入 Midjourney V7 的工作流。无论你是设计师、叙事者还是爱好者,这项功能都能为你的 AI 艺术创作提供前所未有的控制力——确保每次渲染都兼具一致性、保真度与创作自由。请大胆尝试不同权重、提示词与组合引用,找到你理想的精确度与风格平衡点。AI 艺术创作的未来已至——拿起你的参考图像,立即上手!

在 CometAPI 中使用 MidJourney V7

CometAPI 提供访问 500 多个 AI 模型的能力,包括用于聊天、图像、代码等的开源与专用多模态模型。其核心优势在于大幅简化传统上复杂的 AI 集成流程。借助它,你可以通过单一统一订阅访问 Claude、OpenAI、Deepseek 与 Gemini 等领先 AI 工具。

CometAPI 提供远低于官方价格的方案,帮助你集成 Midjourney API,注册并登录后你的账户将获得 $1!欢迎注册体验 CometAPI。CometAPI 按使用量计费。

重要前提:在使用 MidJourney V7 之前,你需要先在此处免费访问并开始使用——CometAPI today – sign up。请访问 docs

开始使用 MidJourney V7 非常简单——只需在提示词末尾添加 --v 7 参数。这个简单命令会告诉 CometAPI 使用最新的 V7 模型来生成你的图像。

集成细节请参阅 Midjourney API

阅读更多

一个 API 中超 500 个模型

最高 20% 折扣