不可以。GPT-image-1 不支持生成或编辑 NSFW(色情、性露骨)内容,并会拒绝相关请求,包括成人性内容、性化裸露以及任何涉及未成年人的性内容。它仅支持合规、安全的图像生成与编辑。

CometAPI
AnnaMay 10, 2025
不可以。GPT-image-1 不支持生成或编辑 NSFW(色情、性露骨)内容,并会拒绝相关请求,包括成人性内容、性化裸露以及任何涉及未成年人的性内容。它仅支持合规、安全的图像生成与编辑。

OpenAI 新近发布的 GPT-image-1 模型承诺在文本到图像与图像到图像的转换中实现前所未有的保真度。然而一个紧迫的问题仍在:这一强大工具是否可能被用于生成不适合在工作场合(NSFW)的内容?如果是,其效果如何?在本文中,我们将深入探讨 GPT-image-1 的架构、其内置安全机制、绕过过滤的现实尝试、与竞品平台的比较,以及围绕 AI 生成成人内容的更广泛伦理图景。


GPT-Image-1 的官方能力与限制是什么?

模型概览

GPT-Image-1 于 2025 年 5 月上旬作为 OpenAI 的 API 产品推出,通过简单的文本提示支持图像生成(“create” 端点)和图像编辑(“edit” 端点)。与 DALL·E 等扩散式系统不同,GPT-Image-1 采用类似于语言模型的自回归方法,在不依赖外部管线的情况下,实现对构图、风格和文件格式的更精细控制。

安全指南

OpenAI 自第一天起就在 GPT-Image-1 的架构中嵌入了严格的内容政策。用户发起的情色或其他 NSFW 内容请求被明确禁止:“助手不应生成色情作品、描绘非法或非自愿的性活动,或极端血腥暴力”。此外,任何上传的图像若包含水印、明显裸露或其他不被允许的内容,都会在 API 层面被拒绝。这些防护措施体现了 OpenAI 对“安全且有益”AI 的更广泛承诺,但也引发了关于执行与潜在绕过的疑问。


GPT-image-1 如何防止生成 NSFW 内容?

内容审核层

OpenAI 实施了两阶段的安全堆栈以防生成不被允许的图像。首先,“初始政策验证(IPV)”组件会分析传入提示中与 NSFW 内容相关的触发词或短语。其次,“内容审核(CM)”端点会审查文本描述或生成输出的视觉特征,标记或拒绝任何不符合 OpenAI 使用政策的内容。

对于图像,审核管线同时利用算法式模式识别与元数据检查。如果提示或输出被标记,API 可能返回拒绝响应,或以较低保真度的“安全”占位图替换。对于更宽松的使用场景,开发者可以降低过滤敏感度,但 OpenAI 警告这将带来更高风险,仅适用于必须进行人工审核的受信环境。

明确内容的政策禁令

OpenAI 的官方政策明确禁止生成色情、深度伪造的性内容,以及非自愿或未成年裸露。这一立场与公司防止儿童性虐待材料(CSAM)与非自愿私密影像的更广泛承诺一致。所有 API 客户都必须同意这些条款,任何违反行为都可能导致访问权限的立即撤销与潜在法律行动。

在公开讨论中,包括 CEO Sam Altman 在内的 OpenAI 领导层已承认负责任地审核成人内容的复杂性。尽管内部文件暗示正在“探索”在安全、年龄核验的框架下生成情色内容的可能性,公司仍重申“AI 生成的色情作品将继续被禁止”,且短期内无意改变这一政策。


用户是否在绕过 GPT-image-1 的过滤机制?

社区推动的变通方法

尽管有强健的防护措施,Reddit 等论坛上的用户仍分享了绕过内容过滤的技巧。策略包括:

  • 迂回描述:使用间接语言或隐喻(例如,用“毛巾和起雾的镜子”替代“淋浴中的裸女”)来暗示性场景,而不触发敏感关键词。
  • 艺术语境:在提示前置艺术风格指令(如“以文艺复兴时期裸体画的风格绘制,但使用粉彩色”),可能绕过初始验证。
  • 批量生成与筛选:提交大量略有变化的提示,然后人工挑选任何接近目标 NSFW 内容的图像。

然而,这些方法的结果往往不稳定且质量较低,因为审核堆栈仍会标记许多输出为不安全。此外,人工筛选给用户带来额外负担,破坏了 GPT-image-1 所追求的无缝创作流程。

误报与质量权衡

在一些社区帖子中,用户报告遇到“误报”,即良性或艺术性的提示被错误屏蔽。示例包括:

  • 艺术学习:在学术语境下进行古典裸体人物研究的提示被标记为成人内容。
  • 历史艺术复现:试图重现包含裸露的名画(例如 Michelangelo’s David)被模型拒绝。

这些事件凸显了内容过滤的脆弱性,为避免 NSFW 泄漏,过滤器可能选择过度审核的保守策略。此类保守做法会阻碍正当用例,促使人们呼吁更细致、更具语境感知的审核机制。

PromptGuard 与软提示审核

PromptGuard 代表了抵御 NSFW 生成的前沿防线:通过在模型的嵌入空间插入一个“安全软提示”,形成隐式的系统级指令,在请求到达解码器之前中和恶意或情色需求。实验报告显示,不安全生成率低至 5.8%,而良性图像质量几乎不受影响。

Jailbreaking Prompt Attack

相反,Jailbreaking Prompt Attack 利用文本嵌入空间中的基于反义词的搜索,并对离散标记进行梯度掩蔽优化,诱使扩散模型生成露骨内容。尽管该方法最初在开源与竞争性的闭源服务(如 Stable Diffusion v1.4、DALL·E 2、Midjourney)上展示,其底层原理同样适用于像 GPT-Image-1 这样的自回归模型。这凸显了内容过滤与恶意行为者之间的对抗性军备竞赛。


GPT-image-1 与其他平台相比如何?

Grok-2 与 GPT-image-1

像 Grok-2 这样的平台采取了截然不同的路径,提供最小化的 NSFW 限制且无水印。虽然这为用户带来更大的艺术自由,但也引发严重的伦理与法律担忧,包括可能被用于深度伪造色情与版权侵权。相比之下,GPT-image-1 的严格护栏与 C2PA 元数据嵌入为图像提供了溯源,抑制非法传播。

功能GPT-image-1Grok-3
NSFW 过滤严格(自动/低灵敏模式)最小
C2PA 元数据包含
深度伪造防护强制
行业合规性

DALL-E 与 Midjourney

DALL·E 3 与 Midjourney 均实施 PG-13 风格的政策,允许暗示性图像,但禁止露骨的成人内容。DALL·E 采用水印以抑制滥用,而 Midjourney 依赖社区举报进行审核。GPT-image-1 在执行力度上更接近 DALL·E,但在集成的元数据标准与多模态编辑功能方面超越两者。


伦理与法律影响是什么?

深度伪造与同意

NSFW 图像生成的风险之一是制作非自愿深度伪造,即在未经允许的情况下使用他人肖像。涉及名人的高调案例已导致声誉受损与法律诉讼。OpenAI 的政策明确禁止任何可能助长此类滥用的图像,并通过使用元数据来确保图像可追溯其 AI 来源,从而遏制不法行为者。

儿童保护

任何能够生成逼真人物图像的模型都必须严格防范生成儿童性虐待材料(CSAM)的潜在风险。OpenAI 强调,GPT-image-1 的审核堆栈经过训练,以识别并屏蔽任何描绘未成年人性场景的内容。这既包括文本提示,也包括视觉线索。违反该政策将带来严重后果,包括在法律要求时移交执法机构。


社会与创作表达

允许任何形式的 NSFW 内容通过 AI 生成会引发关于社会规范、艺术自由与数字权利的讨论。一些人认为,只要有稳健的防护与年龄核验,经过同意的情色艺术在数字媒体中具有正当位置。另一些人担心这会导致滑坡效应,任何放松过滤的举措都可能助长非法或有害内容。OpenAI 的谨慎立场——在探索年龄限制、负责任管理的情色可能性的同时,坚定禁止色情作品——反映了这种张力。


对开发者、设计师与用户的意义是什么?

负责任使用的最佳实践

将 GPT-Image-1 集成到产品中的开发者必须实施分层安全控制:

  1. 客户端过滤:预筛用户输入中的与 NSFW 内容相关的关键词或图像元数据。
  2. 服务器端执行:依赖 OpenAI 的审核 API 阻断不被允许的请求,并记录尝试以便审计与调查。
  3. 人工审核:将模糊案例标记为人工检查,尤其是在高风险领域(如成人内容平台)。

设计师与终端用户也应关注模型“漂移”与对抗性利用。定期更新提示指南并重新训练自定义审核层可缓解新兴威胁。

安全研究的未来方向

NSFW 风险的动态性需要持续创新。潜在研究方向包括:

联邦式安全学习:利用边缘设备上的分散用户反馈,在不损害隐私的前提下集体改进审核。

自适应软提示:将 PromptGuard 拓展为基于用户上下文(如年龄核验、地理区域)的实时自适应机制。

多模态一致性检查:将文本提示与生成图像进行交叉验证,检测指示越狱尝试的语义不一致。


结论

GPT-image-1 站在多模态 AI 的前沿,提供前所未有的图像生成与编辑能力。但强大能力伴随巨大责任。尽管技术防护与政策禁令坚决阻断露骨色情与深度伪造的生成,执意的用户仍在测试模型边界。与其他平台的对比凸显了元数据、严格审核与伦理治理的重要性。

当 OpenAI 与更广泛的 AI 社群共同应对 NSFW 内容的复杂性时,前进的道路将需要开发者、监管者与公民社会之间的合作,以确保创造性创新不以尊严、同意与安全为代价。通过保持透明、邀请公众对话并推进审核技术,我们可以在守护免遭滥用的前提下,充分发挥 GPT-image-1 的潜力。

入门指南

开发者可通过 CometAPI 访问 GPT-image-1 API。开始之前,可在 Playground 探索模型能力,并参考 API 指南(模型名:gpt-image-1)获取详细说明。请注意,部分开发者在使用该模型前可能需要完成组织验证。

GPT-Image-1 在 CometAPI 中的 API 定价,较官方价格优惠 20%:

输出令牌: $32/ M tokens

输入令牌: $8 / M tokens

阅读更多

一个 API 中超 500 个模型

最高 20% 折扣