حظي "الانتشار المستقر"، وهو نموذج قوي لتوليد النصوص إلى صور قائم على الذكاء الاصطناعي، باهتمام كبير بفضل قدرته على إنشاء صور واقعية ودقيقة للغاية من أوصاف نصية. طوّره الاستقرار AI تم إصدار نموذج "الانتشار المستقر" كنموذج مفتوح المصدر، وقد لاقى استحسانًا واسعًا من الفنانين والباحثين والمطورين لتطبيقات متنوعة. ومع ذلك، فإن أحد أكثر المواضيع إثارة للجدل حول هذا النموذج هو مدى سماحه بإنشاء محتوى غير مناسب للعمل (NSFW). تتناول هذه المقالة السياسات والاعتبارات الأخلاقية والجوانب التقنية التي تحكم محتوى غير مناسب للعمل ضمن منظومة "الانتشار المستقر".

ما هو الانتشار المستقر؟
الانتشار المستقر هو نموذج تعلّم عميق مُدرّب على مجموعات بيانات ضخمة من الصور وأوصافها النصية. يستخدم عملية تُسمى الانتشار الكامن، والتي تُحسّن الصورة تدريجيًا من التشويش بناءً على مُوجّه نصي مُحدّد. يُمكن لهذا النموذج توليد صور بأنماط مُتنوّعة، من العروض الواقعية إلى التفسيرات الفنية.
لقد أدى اعتماد Stable Diffusion بشكل سريع إلى طبيعته المفتوحة المصدر، إلا أنها تثير تساؤلات حول استخدامه المسؤول. فعلى عكس النماذج الحصرية، مثل DALL·E من OpenAI، والتي تتبع سياسات صارمة لإدارة المحتوى، يُمكن للمستخدمين تخصيصها وضبطها بدقة، مما يؤدي إلى تنوع في التطبيقات ومعضلات أخلاقية.
هل يسمح الانتشار المستقر بمحتوى NSFW؟
الموقف الرسمي لشركة Stability AI بشأن المحتوى غير الآمن للعمل (NSFW)
وضعت شركة Stability AI، الشركة المسؤولة عن Stable Diffusion، إرشاداتٍ مُحددة بشأن محتوى NSFW. مع أن نموذجها قادرٌ على توليد محتوى صريح، إلا أن Stability AI طبّقت مُرشّحاتٍ وسياساتٍ لتقييد توليد الصور الإباحية أو العنيفة أو غير اللائقة في إصداراتها المُوزّعة رسميًا. تهدف الشركة إلى تعزيز الاستخدام الأخلاقي للذكاء الاصطناعي ومنع إساءة استخدامه.
عندما أصدرت شركة Stability AI نظام Stable Diffusion، تضمّن مُرشِّح محتوى مُدمجًا يُعرف باسم "مُصنِّف الأمان". صُمِّم هذا المُرشِّح للحدّ من إنشاء المحتوى الصريح من خلال اكتشاف أنواع مُعيَّنة من الصور وحظرها. مع ذلك، ولأن النموذج مفتوح المصدر، يُمكن للمطورين تعديل هذه القيود أو إزالتها في تطبيقاتهم المُخصَّصة.
التنفيذات المخصصة والمخاوف الأخلاقية
بفضل طبيعة Stable Diffusion المفتوحة المصدر، يُمكن للمستخدمين ضبط النموذج وتعديله بدقة، مما قد يؤدي إلى تجاوز آليات الأمان المُدمجة. وقد أدى ذلك إلى ظهور تطبيقات خارجية مُتعددة تُتيح إنشاء محتوى غير مناسب للعمل، بما في ذلك المواد الإباحية، والمشاهد الدموية، والصور المُزيفة.
تُثير القدرة على إنتاج محتوى غير مناسب للعمل مخاوف أخلاقية وقانونية، لا سيما فيما يتعلق بالموافقة والخصوصية واحتمالية الضرر. على سبيل المثال، استُخدمت تقنية التزييف العميق المدعومة بتقنية الانتشار المستقر لإنشاء محتوى صريح دون موافقة، مما أثار انتقادات واسعة النطاق وتدقيقًا قانونيًا. وقد أثار هذا نقاشات حول التطوير المسؤول للذكاء الاصطناعي والحاجة إلى أطر تنظيمية.
كيفية إنشاء صور غير مناسبة للعمل باستخدام تقنية الانتشار المستقر
في حين أن Stability AI يقيد إنشاء محتوى NSFW في نموذجه الرسمي، فإن المستخدمين الذين يرغبون في إنشاء مثل هذا المحتوى غالبًا ما يقومون بتعديل Stable Diffusion من خلال:
- تعطيل مرشح NSFW:إزالة أو تعديل مصنف السلامة الإعدادات في رمز النموذج.
- استخدام نماذج الطرف الثالث:تسمح بعض النماذج التي تم تدريبها من قبل المجتمع بمحتوى NSFW على وجه التحديد.
- ضبط النموذج:يمكن للمستخدمين تدريب Stable Diffusion على مجموعات بيانات مخصصة تحتوي على صور صريحة.
- تعديل المطالبات:قد تتمكن بعض تقنيات الصياغة أحيانًا من تجاوز المرشحات حتى في الإصدارات المعتدلة.
استخدام واجهة برمجة التطبيقات Stable Diffusion في CometAPI
قد تساعدك واجهة برمجة التطبيقات المدمجة بواسطة منصة الطرف الثالث في تجاوز المراجعة لإنشاء صور غير مناسبة للعمل.
تقدم CometAPI سعرًا أقل بكثير من السعر الرسمي لمساعدتك على التكامل انتشار مستقر واجهة برمجة التطبيقات (النموذج: مستقر - انتشار - 3.5 - كبير، إلخ). تكلفة كل استدعاء لـ RunwayAPI 0.32 دولارًا أمريكيًا فقط، وستحصل على نسخة تجريبية في حسابك بعد التسجيل وتسجيل الدخول! مرحبًا بك في التسجيل وتجربة CometAPI.
لمزيد من التفاصيل وطرق التكامل راجع واجهة برمجة تطبيقات Stable Diffusion XL 1.0 و انتشار مستقر 3.5 واجهة برمجة تطبيقات كبيرة
6 خطوات لإنشاء محتوى غير مناسب للعمل
1.إعداد بيئة انتشار مستقرة مخصصة
- قم بتثبيت Stable Diffusion محليًا باستخدام مستودعات مثل واجهة المستخدم على الويب لـ AUTOMATIC1111 or comfyUI.
- تأكد من أن لديك التبعيات المطلوبة، مثل وحدات معالجة الرسومات الممكّنة لـ Python وCUDA.
- تنزيل النماذج المتوافقة مع NSFW
- بعض إصدارات Stable Diffusion (مثل الانتشار المستقر 1.5) أكثر تساهلاً.
- استخدم نماذج دقيقة تم تدريبها على محتوى NSFW من مواقع مثل سيفيتاي or وجه يعانق.
- تعطيل ميزات الأمان
- حدد موقع وتعديل
safety_checkerوظيفة في الكود المصدر للنموذج. - بدلاً من ذلك، استخدم النماذج التي أزالت بالفعل قيود NSFW المضمنة.
- استخدم تقنيات هندسية محددة
- تجنب الكلمات الرئيسية التي تؤدي إلى التصفية التلقائية.
- جرب استخدام العبارات الإبداعية للحصول على النتائج المرجوة.
- ضبط وتدريب نموذج مخصص
- إذا كانت النماذج الحالية لا تلبي التوقعات، فقم بضبط انتشار الاستقرار باستخدام مجموعات البيانات غير المناسبة للعمل.
- يمكن أن يؤدي تدريب نموذج LoRA (التكيف ذو الرتبة المنخفضة) إلى تعزيز جودة الصورة غير المناسبة للعمل مع الحفاظ على النموذج الرئيسي سليمًا.
- استخدام الأدوات والمكونات الإضافية الخارجية
- ملحقات مثل كونترول نت السماح بالتحكم بشكل أفضل في الصور المولدة.
- استعمل إنبينتينج أدوات لتحسين الصور غير المناسبة للعمل (NSFW) للحصول على جودة إخراج أعلى.
الاعتبارات الأخلاقية
إذا كنت تقوم بإنشاء محتوى NSFW، فيجب على المستخدمين التأكد من القيام بذلك بطريقة أخلاقية وقانونية:
- الحصول على الموافقة:تجنب استخدام الصور غير المناسبة للعمل التي تم إنشاؤها بواسطة الذكاء الاصطناعي لأغراض غير موافقة.
- اتبع قواعد المنصة:تقوم بعض منصات الفن القائمة على الذكاء الاصطناعي بتقييد المحتوى الصريح.
- تجنب المحتوى الضار:لا تقم بإنشاء أو توزيع أي مواد من شأنها استغلال الأفراد أو إيذائهم.
ما هو مرشح الانتشار المستقر NSFW؟
مرشح الانتشار المستقر NSFW، المعروف أيضًا باسم مصنف السلامة، هو نظام مُدمج لإدارة المحتوى مُصمم لاكتشاف وحظر المحتوى الصريح، بما في ذلك المواد الإباحية والعنف وغيرها من المواد غير اللائقة. وقد أدرجت شركة Stability AI هذا الفلتر في إصداراتها الرسمية لتعزيز الاستخدام الأخلاقي للذكاء الاصطناعي ومنع إساءة استخدامه.
يعمل الفلتر على تحليل الصور المُولّدة وتحديد الأنماط المرتبطة بمحتوى غير مناسب للعمل. إذا وُصفت صورة بأنها صريحة، يمنع النموذج إنشائها أو يُعدّلها لتتوافق مع إرشادات المحتوى الآمن. بالإضافة إلى ذلك، تستخدم بعض التطبيقات القائمة السوداء للكلمات الرئيسية لتقييد المطالبات التي قد تؤدي إلى مخرجات NSFW.
ميزات NSFW Filter
يتضمن مرشح NSFW في Stable Diffusion العديد من الميزات الرئيسية:
- كشف أوتوماتيكي:يستخدم مصنفات التعلم الآلي للتعرف على المحتوى الصريح ووضع علامة عليه.
- التصفية على أساس الكلمات الرئيسية:يمنع استخدام مصطلحات محددة يمكن أن تؤدي إلى إنشاء صور غير مناسبة للعمل.
- سجلات تعديل المحتوى:توفر بعض التطبيقات سجلات للمحتوى المميز من أجل الشفافية.
- إعدادات قابلة للتخصيص:يمكن للمستخدمين المتقدمين تعديل حساسية الفلتر استنادًا إلى الإرشادات الأخلاقية والقانونية.
- التكامل مع خدمات الاستضافة:تشتمل المنصات التي تستخدم Stable Diffusion غالبًا على طبقات تعديل إضافية.
كيف أقوم بتشغيل/إيقاف تشغيل مرشح NSFW؟
افتراضيًا، يكون مُرشِّح NSFW مُفعَّلاً في تطبيقات Stable Diffusion الرسمية لتقييد المحتوى الصريح. ولكن، بما أن Stable Diffusion مفتوح المصدر، يُمكن للمستخدمين تعديل هذه الميزة أو تعطيلها في التطبيقات المُخصَّصة.
تشغيل مرشح NSFW
- إذا كنت تستخدم إصدارًا مستضافًا (مثل خوادم Stability AI أو منصات الطرف الثالث)، فمن المحتمل أن يكون الفلتر ممكّنًا بالفعل.
- بالنسبة للإصدارات المثبتة محليًا، تأكد من مصنف السلامة يتم تنشيطه عن طريق التحقق من إعدادات التكوين.
- استعمل نماذج مُهيأة مسبقًا من مصادر موثوقة تحافظ على تصفية NSFW.
إيقاف تشغيل مرشح NSFW
- تحديد موقع مصنف السلامة الإعدادات في قاعدة بيانات Stable Diffusion.
- تعديل أو إزالة البرنامج النصي للتصفية لتجاوز القيود.
- يقوم بعض المستخدمين بتدريب نماذج مخصصة دون استخدام مرشحات NSFW، مما يسمح بإنشاء محتوى صريح.
مستقبل المحتوى غير الآمن للعمل في الفن المُولّد بالذكاء الاصطناعي
لا يزال الجدل حول المحتوى غير الآمن للعمل المُولّد بالذكاء الاصطناعي بعيدًا عن الحسم. ومع استمرار تطور نماذج الذكاء الاصطناعي، ستُشكّل النقاشات حول إدارة المحتوى، والأخلاقيات الرقمية، والأطر القانونية مستقبل الوسائط المُولّدة بالذكاء الاصطناعي.
قد تؤدي التطورات المحتملة في مجال سلامة الذكاء الاصطناعي ومراقبته إلى أدوات أكثر تطورًا للتحكم في المحتوى الصريح مع الحفاظ على الحرية الفنية. في الوقت نفسه، من المرجح أن تلعب مناقشات حوكمة الذكاء الاصطناعي وتنظيمه دورًا هامًا في صياغة كيفية استخدام نماذج مثل الانتشار المستقر في المستقبل.
الخاتمة
يُعدّ "الانتشار المستقر" أداةً فعّالةً للصور المُولّدة بالذكاء الاصطناعي، إلا أن قدرته على إنشاء محتوى غير مناسب للعمل أثارت جدلاً قانونياً وأخلاقياً. في حين أن "الانتشار المستقر" قد طبّق ضماناتٍ لتقييد المحتوى الصريح، فإن طبيعة النموذج مفتوحة المصدر تسمح بإجراء تعديلاتٍ تتجاوز هذه القيود. تقع مسؤولية الاستخدام الأخلاقي للذكاء الاصطناعي على عاتق المطورين والمستخدمين والهيئات التنظيمية لضمان استخدام "الانتشار المستقر" بما يتوافق مع المعايير القانونية والأخلاقية.
مع استمرار تطور تكنولوجيا الذكاء الاصطناعي، سيظل التوازن بين الحرية الإبداعية والاستخدام المسؤول مسألةً بالغة الأهمية. سيعتمد مستقبل المحتوى غير الآمن للعمل (NSFW) المُنتج بواسطة الذكاء الاصطناعي على المناقشات الجارية، والتطورات التكنولوجية، والجهود الجماعية لمجتمع الذكاء الاصطناعي لتعزيز تطبيقاته الآمنة والأخلاقية.



