Midjourney 的第 7 版(V7)为创作者带来了一项变革性功能:Omni‑Reference。该新工具于 2025 年 5 月 3 日发布,能够让你从一张参考图像中锁定特定视觉元素——无论是角色、物体还是生物——并将其无缝融入你的 AI 生成作品中。本文结合官方最新更新与社区见解,将一步步引导你在 Midjourney V7 中使用 Omni‑Reference。
我们将以读者友好的问答式小标题(二级标题)与细分话题(三级标题)为框架,探讨是什么、为什么、怎么用以及最佳实践。读完后,你将能借助 Omni‑Reference,为任何创意或专业项目产出一致且高保真的图像。
Midjourney V7 中的 Omni‑Reference 是什么?
Omni‑Reference 如何工作?
Omni‑Reference 允许你将单张图像(如人物照片、产品照或生物设计)直接嵌入 Midjourney 提示词中。V7 模型会参考这张图像,在新生成的场景中复现其核心元素(形状、颜色、解剖结构)。
可以引用哪些元素?
几乎任何东西都可以引用:人脸、宠物、车辆、道具或神话生物。与 V6 先前的“角色引用”不同,Omni‑Reference 是通用的——因此称为“omni”——并与风格与情绪板功能协同工作,以保持视觉一致性。
技术限制有哪些?
Omni‑Reference 目前每个提示仅支持一张参考图。它与 inpainting、outpainting(两者仍在 V6.1 上)、Fast/Draft/Conversational 模式以及 --q 4 质量设置不兼容。此外,每次启用 Omni‑Reference 的渲染将消耗标准 V7 任务两倍的 GPU 时间。
为什么引入 Omni‑Reference?
它填补了哪些空白?
在 V7 之前,创作者难以在多次渲染中保持角色或物体的一致性,往往需要采用繁琐的权宜之计。Omni‑Reference 通过提供一种直接、可靠的方式来“告诉”AI 需要保留哪些视觉元素,解决了这一问题。
早期使用者怎么说?
业界观察者 Erik Knobl 指出,Omni‑Reference 显著提升了分镜与游戏美术中重复角色的保真度,在早期测试中将修改循环减少了多达 50%。
社区如何反应?
在 Product Hunt 上,Omni‑Reference 于 2025 年 5 月 3 日获得第 4 名,因其精确控制与易用性广受好评——上线 24 小时内获得 291 个赞,显示出设计师与爱好者的普遍热情。
如何获取 Omni‑Reference?
在网页端界面
- 切换至 V7:在设置中选择 V7 模型。
- 上传或选择图像:点击 Imagine 栏中的图片图标打开上传库。
- 拖入 Omni‑Reference 区:将图像拖入标有“Omni‑Reference”的槽位。
- 调整影响力:使用屏幕上的滑块或
--ow参数设置引用强度。
通过 Discord 命令
- 模型标志:确保使用
--v 7。 - 引用参数:在提示词后追加
--oref <image_url>(URL 必须指向已托管的图像)。 - 权重控制:添加
--ow <value>(1–1000,默认 100)以微调 AI 对参考的遵循程度。
使用 Omni‑Reference 的优势是什么?
提升一致性与保真度
通过直接引用图像,你可以确保关键特征(面部特征、Logo、道具形状)在多次渲染中准确呈现。这对于品牌展示、连续艺术与角色驱动叙事非常重要。
通过权重实现创意控制
--ow(omni‑weight)参数范围为 1 到 1000,可将影响力从细微(25–50)调至主导(400+)。较低权重鼓励风格化;较高权重则强制严格遵循。这种灵活性既适用于松散的概念草图,也适用于精确的产品模型图。
与个性化与风格引用的整合
Omni‑Reference 与 V7 的个性化系统和情绪板功能贴合良好,可在同一工作流中结合人物相貌、环境氛围与风格修饰,实现整体一致。
如何配置 Omni‑Reference 以获得最佳效果?
设定最佳 Omni‑Weight
- 25–50:适合风格迁移(例如,照片 → 动漫)。
- 100–300:影响力平衡,用于场景引导。
- 400–1000:最大保真度——在复现复杂细节(如企业 Logo 或角色面部特征)时至关重要(Midjourney)。
编写有效的提示词
务必在 Omni‑Reference 的基础上提供清晰的文本提示。描述姿势、光照、环境与其他元素。例如:
/imagine a steampunk airship sailing at sunset — oref https://…/airship.png —ow 200 —v 7
这可确保 AI 同时理解需要“包含什么”以及“放在哪里”。
与风格与个性化结合
- 使用风格引用(
--style <name>)改变艺术风格(如“油画风格”)。 - 使用个性化令牌(如
<lora:name>)调用自定义训练元素。 - 若希望风格化效果占主导,可适当降低 omni‑weight;若保真度优先,则提高权重。
哪些实际用例最能体现 Omni‑Reference 的优势?
品牌与营销素材
创建一致的产品图——例如在不同场景中的运动鞋设计——无需每次手工重绘。Omni‑Reference 能确保鞋子的准确造型与配色被锁定。
角色设计与动画
在概念场景、分镜或缩略草图中保持角色外观一致。导演与动画师可更快迭代,同时确信 AI 会保持发型、服装与比例的统一。
产品模型与原型
在不同角度或多样环境(棚拍、生活方式、技术示意)中可视化新设备,同时保留核心设计细节——这对向利益相关者展示创意至关重要。
叙事与漫画艺术
作者与插画师可将反复出现的主角置于多个分镜、背景或戏剧化场景中,在无需手工重绘的前提下维持叙事连续性。
我需要了解哪些排障与技巧?
常见陷阱
- 无效 URL:确保你的参考图像已托管且可公开访问。
- 过度加权:权重高于 400 可能产生不可预期的伪影;从较低值开始并逐步提高。
- 模式冲突:在不兼容模式(Fast、Draft、Conversational)下,Omni‑Reference 会静默忽略提示。
审核考虑
Midjourney 的审核过滤器可能会标记某些参考图像(例如受版权保护的角色或敏感内容)。被阻止的任务不消耗额度——只有成功渲染才会扣除 GPU 时间。
优化 GPU 时间
由于 Omni‑Reference 会使 GPU 消耗翻倍,请在创意发散阶段谨慎使用。你可以在不使用引用的情况下切换到 Fast 模式或 Draft 模式进行快速原型迭代,随后在 V7 中启用 Omni‑Reference 进行最终渲染。
未来更新中 Omni‑Reference 将如何演进?
计划中的兼容性扩展
据社区报道,Midjourney 的开发者正积极推进对 inpainting/outpainting 与更快模式的支持,以减少当前的工作流限制。
更强的多图像引用
早期动向显示可能会引入多图像 Omni‑Reference 功能,可同时引用多个角色或物体——为复杂群像与更丰富的叙事打开大门。
更智能的权重调整
未来的 UI 改进可能会加入自适应权重提示,Midjourney 将根据图像复杂度与风格化需求建议最优 --ow 值,从而降低上手门槛。
参见 Midjourney V7 : New Features & How to Utilize
结论
掌握以上内容后,你已准备好将 Omni‑Reference 融入 Midjourney V7 的工作流。无论你是设计师、叙事者还是爱好者,这项功能都能为你的 AI 艺术创作提供前所未有的控制力——确保每次渲染都兼具一致性、保真度与创作自由。请大胆尝试不同权重、提示词与组合引用,找到你理想的精确度与风格平衡点。AI 艺术创作的未来已至——拿起你的参考图像,立即上手!
在 CometAPI 中使用 MidJourney V7
CometAPI 提供访问 500 多个 AI 模型的能力,包括用于聊天、图像、代码等的开源与专用多模态模型。其核心优势在于大幅简化传统上复杂的 AI 集成流程。借助它,你可以通过单一统一订阅访问 Claude、OpenAI、Deepseek 与 Gemini 等领先 AI 工具。
CometAPI 提供远低于官方价格的方案,帮助你集成 Midjourney API,注册并登录后你的账户将获得 $1!欢迎注册体验 CometAPI。CometAPI 按使用量计费。
重要前提:在使用 MidJourney V7 之前,你需要先在此处免费访问并开始使用——CometAPI today – sign up。请访问 docs
开始使用 MidJourney V7 非常简单——只需在提示词末尾添加 --v 7 参数。这个简单命令会告诉 CometAPI 使用最新的 V7 模型来生成你的图像。
集成细节请参阅 Midjourney API。
