Stable Diffusion 是一种强大的基于 AI 的文生图生成模型,凭借从文本描述生成高度细致且逼真的图像的能力而备受关注。由 Stability AI 开发并以开源模型发布,Stable Diffusion 已被艺术家、研究人员和开发者广泛用于各种应用。然而,围绕该模型最具争议的话题之一是它是否允许生成 NSFW(不适合在工作环境中)内容。本文深入探讨 Stable Diffusion 生态系统中关于 NSFW 内容的政策、伦理考量与技术方面。

什么是 Stable Diffusion?
Stable Diffusion 是一种深度学习模型,基于海量图像及其文本描述的数据集进行训练。它使用一种称为潜空间扩散(latent diffusion)的过程,根据给定的文本提示从噪声中逐步细化出图像。该模型能够生成多种风格的图像,从逼真的写实渲染到艺术化的诠释皆可胜任。
Stable Diffusion 的开源属性推动了其快速普及,但也引发了关于其负责任使用的质疑。与 OpenAI 的 DALL·E 等专有模型拥有严格的内容审核政策不同,Stable Diffusion 可以由用户自定义和微调,从而导致多样化的实现与伦理困境。
Stable Diffusion 是否允许 NSFW 内容?
Stability AI 对 NSFW 内容的官方立场
Stable Diffusion 背后的公司 Stability AI 制定了关于 NSFW 内容的一些指南。尽管模型本身能够生成露骨内容,Stability AI 在其官方发布的版本中实施了过滤器和政策,以限制生成色情、暴力或其他不当图像。公司旨在促进伦理的 AI 使用,防止潜在的滥用。
在发布 Stable Diffusion 时,Stability AI 包含了一个内置的内容过滤器,称为“Safety Classifier(安全分类器)”。该过滤器旨在通过检测并阻止某些类型的图像来限制露骨内容的生成。然而,由于该模型是开源的,开发者可以在自定义实现中修改或移除这些限制。
自定义实现与伦理问题
由于 Stable Diffusion 的开源特性,用户能够微调和修改模型,从而可能绕过内置的安全机制。这导致出现了允许生成 NSFW 内容(包括色情、血腥以及深度伪造影像)的各种第三方实现。
生成 NSFW 内容的能力引发了伦理与法律方面的担忧,尤其涉及同意、隐私以及潜在的伤害。例如,由 Stable Diffusion 支持的深度伪造技术曾被用于制作非自愿的露骨内容,招致广泛批评与法律审查。这促使人们讨论负责任的 AI 开发以及建立监管框架的必要性。
如何使用 Stable Diffusion 生成 NSFW 图像
尽管 Stability AI 在其官方模型中限制了 NSFW 内容生成,但希望创作此类内容的用户通常会通过以下方式修改 Stable Diffusion:
- 禁用 NSFW 过滤器:移除或调整模型代码中的 Safety Classifier(安全分类器) 设置。
- 使用第三方模型:一些由社区训练的模型明确允许 NSFW 内容。
- 微调模型:用户可以使用包含露骨图像的自定义数据集对 Stable Diffusion 进行训练。
- 修改提示词:即使在受审核的版本中,某些措辞技巧有时也能绕过过滤器。
在 CometAPI 中使用 Stable Diffusion API
由第三方平台集成的 API 可能帮助你绕过审核以创建 nsfw 图像。
CometAPI 提供的价格远低于官方价格,帮助你集成 Stable Diffusion API(model:stable-diffusion-3.5-large 等)。每次调用 RunwayAPI 仅需 $0.32,注册并登录后你将获得试用额度!欢迎注册体验 CometAPI。
更多细节与集成方法参见 Stable Diffusion XL 1.0 API 和 Stable Diffusion 3.5 Large API
生成 NSFW 内容的 6 个步骤
1.搭建自定义的 Stable Diffusion 环境
- 使用 AUTOMATIC1111’s WebUI 或 ComfyUI 等仓库在本地安装 Stable Diffusion。
- 确保具备必要的依赖,如 Python 和支持 CUDA 的 GPU。
- 下载支持 NSFW 的模型
- 某些 Stable Diffusion 版本(如 Stable Diffusion 1.5)更为宽松。
- 使用来自 CivitAI 或 Hugging Face 等网站的 NSFW 内容微调模型。
- 禁用安全功能
- 在模型源码中定位并修改
safety_checker函数。 - 或者,使用已移除内置 NSFW 限制的模型。
- 使用特定的提示工程技巧
- 避免使用会触发自动过滤的关键词。
- 尝试更具创意的措辞以生成期望结果。
- 微调并训练自定义模型
- 如果现有模型无法满足期望,可用 NSFW 数据集对 Stable Diffusion 进行微调。
- 训练 LoRA(低秩适配)模型可在保持主模型不变的同时提升 NSFW 图像质量。
- 使用外部工具和插件
- ControlNet 等扩展可让生成图像的控制更精细。
- 使用 Inpainting 工具对 NSFW 图像进行细化以获得更高质量的输出。
伦理考量
如果要生成 NSFW 内容,用户应确保其行为符合法律与伦理:
- 获得同意:避免将 AI 生成的 NSFW 图像用于非自愿用途。
- 遵守平台规则:一些 AI 艺术平台禁止露骨内容。
- 避免有害内容:不要创作或传播可能利用或伤害他人的材料。
什么是 Stable Diffusion 的 NSFW 过滤器?
Stable Diffusion 的 NSFW 过滤器,也称为 Safety Classifier(安全分类器),是一种内置的内容审核系统,旨在检测并阻止露骨内容,包括色情、暴力以及其他不当材料。Stability AI 在其官方版本中包含该过滤器,以促进伦理的 AI 使用并防止滥用。
该过滤器通过分析生成的图像并识别与 NSFW 内容相关的模式来工作。如果图像被标记为露骨,模型会阻止其生成或对其进行修改,使其符合安全内容指南。此外,一些实现还使用 关键词黑名单 来限制可能导致 NSFW 输出的提示词。
NSFW 过滤器的特性
Stable Diffusion 的 NSFW 过滤器包含多个关键特性:
- 自动检测:使用机器学习分类器识别并标记露骨内容。
- 基于关键词的过滤:阻止使用可能生成 NSFW 图像的特定术语。
- 内容审核日志:某些实现为透明度提供被标记内容的日志。
- 可自定义设置:高级用户可根据伦理和法律指南调整过滤器的敏感度。
- 与托管服务集成:使用 Stable Diffusion 的平台通常包含额外的审核层。
我如何开启/关闭 NSFW 过滤器?
在官方的 Stable Diffusion 实现中,NSFW 过滤器默认启用以限制露骨内容。然而,由于 Stable Diffusion 是开源的,用户可以在自定义实现中调整或禁用该功能。
开启 NSFW 过滤器
- 如果使用托管版本(如在 Stability AI 的服务器或第三方平台上),过滤器通常已启用。
- 对于本地安装的版本,请通过检查配置设置确保 Safety Classifier 处于激活状态。
- 使用来自可信来源的 预配置模型 以保持 NSFW 过滤。
关闭 NSFW 过滤器
- 在 Stable Diffusion 代码库中定位 Safety Classifier 的相关设置。
- 修改或移除过滤脚本以绕过限制。
- 有些用户会训练不包含 NSFW 过滤器的自定义模型,从而允许生成露骨内容。
AI 生成艺术中 NSFW 内容的未来
关于 AI 生成的 NSFW 内容的争论远未结束。随着 AI 模型不断演进,围绕内容审核、数字伦理与法律框架的讨论将塑造 AI 生成媒体的未来。
AI 安全与审核方面的潜在进展或将带来更复杂的工具,在控制露骨内容的同时保留艺术自由。与此同时,关于 AI 治理与监管的讨论也可能在塑造像 Stable Diffusion 这样的模型如何被使用方面发挥重要作用。
结论
Stable Diffusion 是生成 AI 图像的强大工具,但其生成 NSFW 内容的能力引发了法律与伦理方面的争论。尽管 Stability AI 实施了旨在限制露骨内容的安全措施,该模型的开源特性使得通过修改来绕过这些限制成为可能。确保伦理使用 AI 的责任在于开发者、用户与监管机构,确保 Stable Diffusion 的使用与法律与伦理标准相一致。
随着 AI 技术持续进步,在创作自由与负责任使用之间保持平衡仍将是关键议题。AI 生成的 NSFW 内容的未来将取决于持续的讨论、技术进步,以及整个 AI 社区为促进安全与伦理的 AI 应用而做出的共同努力。
