Stable Diffusion, một mô hình tạo văn bản thành hình ảnh mạnh mẽ dựa trên AI, đã thu hút được sự chú ý đáng kể do khả năng tạo ra hình ảnh có độ chi tiết cao và chân thực từ các mô tả văn bản. Được phát triển bởi AI ổn định và được phát hành dưới dạng mô hình mã nguồn mở, Stable Diffusion đã được các nghệ sĩ, nhà nghiên cứu và nhà phát triển đón nhận rộng rãi cho nhiều ứng dụng khác nhau. Tuy nhiên, một trong những chủ đề được tranh luận nhiều nhất xung quanh mô hình này là liệu nó có cho phép tạo nội dung NSFW (Not Safe for Work) hay không. Bài viết này đi sâu vào các chính sách, cân nhắc về mặt đạo đức và các khía cạnh kỹ thuật chi phối nội dung NSFW trong hệ sinh thái Stable Diffusion.

Sự khuếch tán ổn định là gì?
Stable Diffusion là một mô hình học sâu được đào tạo trên các tập dữ liệu lớn về hình ảnh và mô tả văn bản của chúng. Nó sử dụng một quy trình gọi là khuếch tán tiềm ẩn, dần dần tinh chỉnh hình ảnh từ nhiễu dựa trên lời nhắc văn bản nhất định. Mô hình này có thể tạo ra hình ảnh theo nhiều phong cách khác nhau, từ kết xuất ảnh chân thực đến diễn giải nghệ thuật.
Bản chất mã nguồn mở của Stable Diffusion đã dẫn đến việc áp dụng nhanh chóng, nhưng nó cũng đặt ra câu hỏi về việc sử dụng có trách nhiệm. Không giống như các mô hình độc quyền như DALL·E của OpenAI, có chính sách kiểm duyệt nội dung nghiêm ngặt, nó có thể được người dùng tùy chỉnh và tinh chỉnh, dẫn đến nhiều cách triển khai khác nhau và các vấn đề về đạo đức.
Stable Diffusion có cho phép nội dung NSFW không?
Quan điểm chính thức của Stability AI về nội dung NSFW
Stability AI, công ty đứng sau Stable Diffusion, đã đặt ra một số nguyên tắc nhất định liên quan đến nội dung NSFW. Mặc dù bản thân mô hình có khả năng tạo ra nội dung khiêu dâm, Stability AI đã triển khai các bộ lọc và chính sách để hạn chế việc tạo ra hình ảnh khiêu dâm, bạo lực hoặc không phù hợp trong các phiên bản phân phối chính thức của mình. Công ty đặt mục tiêu thúc đẩy việc sử dụng AI có đạo đức và ngăn chặn việc sử dụng sai mục đích tiềm ẩn.
Khi Stability AI phát hành Stable Diffusion, nó bao gồm một bộ lọc nội dung tích hợp được gọi là “Safety Classifier”. Bộ lọc này được thiết kế để hạn chế việc tạo ra nội dung rõ ràng bằng cách phát hiện và chặn một số loại hình ảnh nhất định. Tuy nhiên, vì mô hình là mã nguồn mở, nên các nhà phát triển có thể sửa đổi hoặc xóa các hạn chế này trong các triển khai tùy chỉnh của họ.
Triển khai tùy chỉnh và mối quan tâm về đạo đức
Do bản chất mã nguồn mở của Stable Diffusion, người dùng có khả năng tinh chỉnh và sửa đổi mô hình, có khả năng bỏ qua các cơ chế an toàn tích hợp. Điều này đã dẫn đến nhiều triển khai của bên thứ ba cho phép tạo nội dung NSFW, bao gồm nội dung khiêu dâm, máu me và hình ảnh deepfake.
Khả năng tạo nội dung NSFW làm dấy lên những lo ngại về mặt đạo đức và pháp lý, đặc biệt là về sự đồng ý, quyền riêng tư và khả năng gây hại. Ví dụ, công nghệ deepfake do Stable Diffusion cung cấp đã được sử dụng để tạo nội dung khiêu dâm không có sự đồng thuận, dẫn đến sự chỉ trích rộng rãi và sự giám sát pháp lý. Điều này đã thúc đẩy các cuộc thảo luận về phát triển AI có trách nhiệm và nhu cầu về khuôn khổ pháp lý.
Cách tạo hình ảnh NSFW với Stable Diffusion
Trong khi Stability AI hạn chế việc tạo nội dung NSFW trong mô hình chính thức của mình, người dùng muốn tạo nội dung như vậy thường sửa đổi Stable Diffusion bằng cách:
- Vô hiệu hóa bộ lọc NSFW: Xóa hoặc điều chỉnh Phân loại an toàn cài đặt trong mã mô hình.
- Sử dụng mô hình của bên thứ ba:Một số mô hình được cộng đồng đào tạo đặc biệt cho phép nội dung NSFW.
- Tinh chỉnh mô hình: Người dùng có thể đào tạo Stable Diffusion trên các tập dữ liệu tùy chỉnh có chứa hình ảnh rõ ràng.
- Sửa đổi lời nhắc:Một số kỹ thuật diễn đạt đôi khi có thể vượt qua bộ lọc ngay cả trong các phiên bản được kiểm duyệt.
Sử dụng Stable Diffusion API trong CometAPI
API được tích hợp bởi nền tảng của bên thứ ba có thể giúp bạn bỏ qua bước đánh giá để tạo hình ảnh nsfw.
CometAPI cung cấp mức giá thấp hơn nhiều so với giá chính thức để giúp bạn tích hợp Khuếch tán ổn định API (model:stable-diffusion-3.5-large, v.v.). Mỗi lệnh gọi đến RunwayAPI chỉ tốn 0.32 đô la và bạn sẽ được dùng thử ngay trong tài khoản sau khi đăng ký và đăng nhập! Chào mừng bạn đến đăng ký và trải nghiệm CometAPI.
Để biết thêm chi tiết và phương pháp tích hợp, hãy tham khảo API khuếch tán ổn định XL 1.0 và Phân tán ổn định 3.5 API lớn
6 bước để tạo nội dung NSFW
1.Thiết lập môi trường khuếch tán ổn định tùy chỉnh
- Cài đặt Stable Diffusion cục bộ bằng cách sử dụng các kho lưu trữ như WebUI của AUTOMATIC1111 or Giao diện người dùng thoải mái.
- Đảm bảo bạn có các phụ thuộc cần thiết, chẳng hạn như Python và GPU hỗ trợ CUDA.
- Tải xuống các mô hình tương thích NSFW
- Một số phiên bản của Stable Diffusion (như Khuếch tán ổn định 1.5) thì dễ dãi hơn.
- Sử dụng các mô hình được tinh chỉnh được đào tạo trên nội dung NSFW từ các trang web như dân sựAI or Ôm mặt.
- Tắt tính năng an toàn
- Xác định vị trí và sửa đổi
safety_checkerchức năng trong mã nguồn của mô hình. - Ngoài ra, hãy sử dụng những mẫu đã loại bỏ các hạn chế NSFW tích hợp sẵn.
- Sử dụng các kỹ thuật kỹ thuật nhắc nhở cụ thể
- Tránh các từ khóa kích hoạt tính năng lọc tự động.
- Thử nghiệm cách diễn đạt sáng tạo để tạo ra kết quả mong muốn.
- Tinh chỉnh và đào tạo một mô hình tùy chỉnh
- Nếu các mô hình hiện tại không đáp ứng được kỳ vọng, hãy tinh chỉnh Stable Diffusion với các tập dữ liệu NSFW.
- Việc đào tạo mô hình LoRA (Thích ứng bậc thấp) có thể nâng cao chất lượng hình ảnh NSFW trong khi vẫn giữ nguyên mô hình chính.
- Sử dụng Công cụ và Plugin bên ngoài
- Các tiện ích mở rộng như Kiểm soátNet cho phép kiểm soát tốt hơn các hình ảnh được tạo ra.
- Sử dụng Sơn công cụ để tinh chỉnh hình ảnh NSFW để có đầu ra chất lượng cao hơn.
Những cân nhắc về đạo đức
Nếu tạo nội dung NSFW, người dùng phải đảm bảo việc này được thực hiện một cách có đạo đức và hợp pháp:
- Được sự đồng ý:Tránh sử dụng hình ảnh NSFW do AI tạo ra cho các mục đích không được đồng ý.
- Thực hiện theo Quy tắc Nền tảng:Một số nền tảng nghệ thuật AI hạn chế nội dung nhạy cảm.
- Tránh nội dung có hại: Không tạo hoặc phân phối tài liệu có thể khai thác hoặc gây hại cho cá nhân.
Bộ lọc NSFW khuếch tán ổn định là gì?
Bộ lọc NSFW khuếch tán ổn định, còn được gọi là Phân loại an toàn, là hệ thống kiểm duyệt nội dung tích hợp được thiết kế để phát hiện và chặn nội dung khiêu dâm, bao gồm khiêu dâm, bạo lực và các nội dung không phù hợp khác. Stability AI đã đưa bộ lọc này vào các bản phát hành chính thức của mình để thúc đẩy việc sử dụng AI có đạo đức và ngăn chặn việc sử dụng sai mục đích.
Bộ lọc hoạt động bằng cách phân tích hình ảnh được tạo ra và xác định các mẫu liên quan đến nội dung NSFW. Nếu một hình ảnh được đánh dấu là khiêu dâm, mô hình sẽ ngăn chặn việc tạo hình ảnh đó hoặc sửa đổi hình ảnh đó để phù hợp với các nguyên tắc về nội dung an toàn. Ngoài ra, một số triển khai sử dụng danh sách đen từ khóa để hạn chế các lời nhắc có thể dẫn đến nội dung không an toàn khi sử dụng.
Tính năng của Bộ lọc NSFW
Bộ lọc NSFW trong Stable Diffusion bao gồm một số tính năng chính:
- Tự động phát hiện: Sử dụng bộ phân loại máy học để nhận dạng và đánh dấu nội dung khiêu dâm.
- Lọc dựa trên từ khóa: Ngăn chặn việc sử dụng các thuật ngữ cụ thể có thể tạo ra hình ảnh NSFW.
- Nhật ký kiểm duyệt nội dung:Một số triển khai cung cấp nhật ký nội dung được gắn cờ để đảm bảo tính minh bạch.
- Cài đặt có thể tùy chỉnh: Người dùng nâng cao có thể sửa đổi độ nhạy của bộ lọc dựa trên các nguyên tắc về đạo đức và pháp lý.
- Tích hợp với dịch vụ lưu trữ:Các nền tảng sử dụng Stable Diffusion thường bao gồm các lớp điều tiết bổ sung.
Làm thế nào để bật/tắt bộ lọc NSFW?
Theo mặc định, bộ lọc NSFW được bật trong các triển khai Stable Diffusion chính thức để hạn chế nội dung khiêu dâm. Tuy nhiên, vì Stable Diffusion là mã nguồn mở nên người dùng có thể điều chỉnh hoặc tắt tính năng này trong các triển khai tùy chỉnh.
Bật bộ lọc NSFW
- Nếu sử dụng phiên bản lưu trữ (chẳng hạn như trên máy chủ của Stability AI hoặc nền tảng của bên thứ ba), bộ lọc có khả năng đã được bật.
- Đối với các phiên bản được cài đặt cục bộ, hãy đảm bảo Phân loại an toàn được kích hoạt bằng cách kiểm tra các thiết lập cấu hình.
- Sử dụng mô hình được cấu hình trước từ những nguồn đáng tin cậy có bộ lọc NSFW.
Tắt bộ lọc NSFW
- Định vị Phân loại an toàn cài đặt trong cơ sở dữ liệu mã Stable Diffusion.
- Sửa đổi hoặc xóa tập lệnh lọc để bỏ qua các hạn chế.
- Một số người dùng đào tạo các mô hình tùy chỉnh mà không có bộ lọc NSFW, cho phép tạo nội dung rõ ràng.
Tương lai của nội dung NSFW trong nghệ thuật do AI tạo ra
Cuộc tranh luận về nội dung NSFW do AI tạo ra vẫn chưa có hồi kết. Khi các mô hình AI tiếp tục phát triển, các cuộc thảo luận xung quanh việc kiểm duyệt nội dung, đạo đức kỹ thuật số và khuôn khổ pháp lý sẽ định hình tương lai của phương tiện truyền thông do AI tạo ra.
Những tiến bộ tiềm năng trong an toàn và kiểm duyệt AI có thể dẫn đến các công cụ tinh vi hơn để kiểm soát nội dung khiêu dâm trong khi vẫn bảo vệ quyền tự do nghệ thuật. Đồng thời, các cuộc thảo luận về quản trị và quy định AI có thể sẽ đóng vai trò quan trọng trong việc định hình cách sử dụng các mô hình như Stable Diffusion trong tương lai.
Kết luận
Stable Diffusion là một công cụ mạnh mẽ cho hình ảnh do AI tạo ra, nhưng khả năng tạo nội dung NSFW của nó đã gây ra các cuộc tranh luận về mặt pháp lý và đạo đức. Trong khi Stability AI đã triển khai các biện pháp bảo vệ để hạn chế nội dung khiêu dâm, bản chất mã nguồn mở của mô hình cho phép các sửa đổi có thể bỏ qua các hạn chế này. Trách nhiệm về việc sử dụng AI có đạo đức thuộc về các nhà phát triển, người dùng và các cơ quan quản lý để đảm bảo rằng Stable Diffusion được sử dụng theo cách phù hợp với các tiêu chuẩn pháp lý và đạo đức.
Khi công nghệ AI tiếp tục phát triển, sự cân bằng giữa quyền tự do sáng tạo và sử dụng có trách nhiệm sẽ vẫn là một vấn đề quan trọng. Tương lai của nội dung NSFW do AI tạo ra sẽ phụ thuộc vào các cuộc thảo luận đang diễn ra, những tiến bộ công nghệ và những nỗ lực chung của cộng đồng AI nhằm thúc đẩy các ứng dụng AI an toàn và có đạo đức.



