في ظل التطور السريع للذكاء الاصطناعي، برز Sora 2 من OpenAI كأداة رائدة في مجال إنتاج الفيديو. سيُطرح هذا النموذج المتطور في 30 سبتمبر 2025، وهو مبني على سابقه، واعدًا بمخرجات فيديو أكثر دقةً وواقعيةً وقابليةً للتحكم. سنتعرف الآن على قواعد تعديل المحتوى في Sora 2، وهي قواعد بالغة الأهمية لمعدل نجاحنا وتجربة وخطأ إنتاج مقاطع الفيديو.
كوميت ايه بي اي يتكامل حاليا سورا-2-برو، الذي يُمكّنك من إنشاء مقاطع فيديو تصل مدتها إلى ٢٥ ثانية. عادةً، يتوفر Sora 2 Pro فقط للمستخدمين المشتركين شهريًا في ChatGPT Pro (٢٠٠ دولار)، ولكن مع CometAPI، يُمكنك استخدامه دون دفع رسوم الاشتراك الباهظة.
ما هو سورا 2 وما مميزاته؟
في جوهره، يتميز Sora 2 بقدرته على إنتاج مقاطع فيديو عالية الدقة تلتزم بدقة بتوجيهات المستخدم. تشمل الميزات الرئيسية محاكاة فيزيائية مُحسّنة، مثل ديناميكيات السوائل الواقعية، وتفاعلات الأجسام، والمؤثرات البيئية. على سبيل المثال، يمكن للمستخدمين توجيه النموذج لإنشاء مشاهد تتضمن حركات معقدة، مثل الأمواج المتلاطمة على الشاطئ أو الأجسام التي ترتد بزخم واقعي. تمتد هذه القدرة على التحكم لتشمل تحرير مقاطع الفيديو الحالية، وإعادة مزج المحتوى، ودمج صور المستخدمين بموافقتهم.
اعتبارًا من نوفمبر 2025، سيكون التطبيق متاحًا في مناطق مثل الولايات المتحدة وكندا واليابان وكوريا، مع خطط لمزيد من الطرح العالمي.
المحظورات الرئيسية:
- المحتوى الجنسي الصريح والقاصرينيُمنع منعًا باتًا عرض المواد الإباحية وأي محتوى جنسي يتعلق بالقاصرين. يخضع المحتوى الجنسي المتعلق بالبالغين الموافقين لرقابة صارمة، وغالبًا ما يُحظر في سياقات عرض معينة.
- الاستخدام غير المصرح به لصور الأشخاص الحقيقيينيُحظر إنشاء مقاطع فيديو واقعية تُصوّر شخصًا حقيقيًا يفعل أو يقول أشياءً لم يفعلها إلا إذا وافق الشخص أو كان مُمثَّلاً بموجب سياسة شخصية عامة مسموح بها، واستوفَى جميع إجراءات التحقق والضوابط المطلوبة. تتضمن سير عمل Cameo ميزات الموافقة والتحقق من الهوية في تطبيق Sora.
- الشخصيات والأعمال المحمية بحقوق الطبع والنشر دون إذن:لا يُسمح بالمخرجات التي تحاكي الأحرف المحمية أو التي تحاكي بوضوح أنماط الفن المحمية بحقوق الطبع والنشر أو تخضع لعمليات إلغاء الاشتراك؛ وقد أصبح هذا الأمر نقطة اشتعال في اليابان وهوليوود.
- المحتوى غير المشروع والتعليمات المتعلقة بالمخالفات:يتم حظر مقاطع الفيديو التي تشرح أو توضح الأفعال الإجرامية (البناء المتفجر، والجرائم العنيفة).
- الكراهية والمضايقة والتطرف العنيف:يتم تصفية المحتوى الذي يروج للعنف أو الأيديولوجيات الكراهية.
- معلومات مضللة طبية وقانونية ومالية عالية المخاطر:يتم أيضًا تقييد المحتوى الذي قد يسبب الضرر من خلال تقديم نصائح غير دقيقة تتعلق بالحياة من خلال تحذيرات السياسة والنظام.
نظرًا لأن Sora 2 متعدد الوسائط، فإن السياسة لا تنطبق فقط على مطالبات النص ولكن أيضًا على المخرجات الصوتية والمرئية - على سبيل المثال، قد يبدو المطالب غير ضار في النص ولكنه ينتج تسلسلًا من الإطارات التي تنتهك سياسة الصورة؛ وهذه الانتهاكات اللاحقة قابلة للمساءلة أيضًا.
ما هي تدابير الرقابة المستخدمة في التعامل مع القضايا ذات المخاطر العالية؟
ما هي التدابير البرمجية والمنتجية التي يتم تطبيقها؟
تطبق OpenAI ضوابط تقنية ومنتجاتية لمعالجة الفئات عالية الخطورة. تشمل الإجراءات الرئيسية المُبلّغ عنها والموثّقة ما يلي:
الضوابط الفنية
- المصنفات متعددة الوسائط مُدرَّبة على النصوص وإطارات الصور والصوت لتحديد العنف والمحتوى الجنسي والرموز/اللغة البغيضة وتعليمات إيذاء النفس وانتحال الشخصيات المحظور. تعمل هذه المُصنِّفات في مراحل الإدخال والوسيط والإخراج.
- أنظمة الموافقة/الاشتراك للظهور في الأفلام القصيرة:قد يتطلب إنشاء أو إدراج صورة شخص حقيقي في مقطع فيديو الاشتراك الصريح (تدفق ظهور موثق) لتقليل انتحال الشخصية غير المقبول.
- المنشأ والبيانات الوصفية (C2PA):الأصول التي تم إنشاؤها في Sora 2 تم وضع علامة عليها ببيانات المصدر حتى يتمكن المشاهدون والمنصات الموجودة في اتجاه مجرى النهر من تحديد الوسائط المصنعة وأصلها.
ضوابط المنتج والاعتدال
- مرشحات ما قبل الإطلاق وفي التغذية:قد يتم حظر المحتوى الذي تم تصنيفه بواسطة المصنفات من الظهور في موجز الوسائط الاجتماعية، أو تخفيض رتبته، أو إرساله للمراجعة البشرية.
- العلامات المائية والقيود القابلة للتنزيل:تضيف OpenAI بيانات تعريف C2PA والعلامات المرئية لتقليل إعادة الاستخدام دون سياق وللمساعدة في الكشف عنها بواسطة أطراف ثالثة.
- القوائم البيضاء/القوائم السوداء القانونية والسياسية: حظر الشخصيات العامة، وقيود على حقوق النشر، وحماية العمر والموافقة. قبلت OpenAI مساهمات من شركاء الصناعة ووكالات المواهب لتحسين هذه القيود بعد النتائج الأولية المثيرة للجدل.
المراجعة البشرية والتصعيد
المشرفون البشريون وقنوات الاستئناف تُستخدم هذه التقنية في الحالات التي تكون فيها التصنيفات غير مؤكدة أو عندما تتطلب العناصر المبلغ عنها أحكامًا دقيقة (مثل السخرية مقابل انتحال الشخصية بدافع الكراهية). المراجعة البشرية أبطأ، ولكنها تُستخدم لاتخاذ قرارات بالغة التأثير.
ما هي بنية الاعتدال ثلاثية الطبقات؟
يمكن تصور بنية التعديل في Sora 2 على أنها ثلاث طبقات تكميلية تعمل في نقاط مختلفة في خط أنابيب الإنشاء: الفحوصات التي تعمل في الوقت المناسب، والفحوصات التي تعمل أثناء إنشاء المواد، والفحوصات التي تعمل على الإطارات/النصوص عند الإخراج أو بعده.
الطبقة 1: تصفية المطالبات والبيانات الوصفية (قبل التوليد)
قبل تشغيل أي نموذج، يفحص التطبيق النص المطلوب، والمراجع المُحمّلة، والإعدادات المُسبقة المُختارة بحثًا عن أي علامات تحذيرية: محتوى جنسي صريح، أو عنف مُصوّر، أو محتوى يحض على الكراهية، أو طلبات إنشاء صورة لشخص حيّ مُسمّى دون إذن، أو دعوات لإعادة إنتاج شخصيات معروفة محمية بحقوق الطبع والنشر. يهدف هذا الفحص المسبق إلى إيقاف المحتوى المحظور عند أول تفاعل للمستخدم.
الطبقة الثانية: قيود وقت التوليد وتوجيه النموذج
أثناء عملية التوليد، تُوجّه الآليات الداخلية في Sora 2 المخرجات بعيدًا عن المحتوى المحظور، إما عن طريق إلغاء الرموز، أو أخذ العينات بطريقة مختلفة، أو تطبيق قيود أسلوبية تُقلل من احتمالية إنتاج صور واقعية أو مواد صريحة. تُطبّق هذه الطبقة سياسةً على مستوى النموذج، مُدمجةً في كيفية تحديد النظام للمخرجات واختيارها. تُشير بطاقة النموذج وإرشادات النظام من OpenAI إلى أن هندسة السلامة على مستوى النموذج تُشكّل جوهر تصميم Sora 2.
الطبقة 3: تحليل ما بعد التوليد، والعلامات المائية، وضوابط المنصة
بعد عرض المقطع، تقوم أجهزة الكشف الآلية بمسح الفيديو المُنتَج بحثًا عن العناصر المحظورة (مثل صور المشاهير، والشخصيات المحمية بحقوق الطبع والنشر، والعُري، وما إلى ذلك). تُضيف المنصة أيضًا علامات مائية مرئية على الفيديوهات المُنتَجة، وتستخدم ضوابط على مستوى الحساب، مثل التحقق من الهوية، وإشارات الاشتراك/الإلغاء للشخصيات العامة، وقوائم انتظار الاعتدال لإزالة المحتوى أو الإبلاغ عنه. تُمكّن هذه الإجراءات من إزالة المحتوى، ودعم الطعون، وتدعم تتبع المصدر.
كيف تتفاعل هذه الطبقات
الطبقات الثلاث مُكمِّلة لبعضها البعض: فالتصفية المسبقة تُقلِّل من عدد المهام المُشكِّلة؛ والتوجيه على مستوى النموذج يُقلِّل من احتمالية أن يُؤدِّي مُوجِّهٌ غير مُؤهَّل إلى نتيجةٍ غير مقبولة؛ أما التحليل اللاحق فيُحدِّد أيَّ شيءٍ يفلت من الحساب ويربط المحتوى بحسابٍ ما للتنفيذ ومراجعةٍ بشريةٍ مُحتملة. هذا النهج مُتعدِّد الطبقات شائعٌ في أنظمة التوليد الحديثة، إذ لا توجد آليةٌ واحدةٌ موثوقةٌ بما يكفي بمفردها.
ما هي التكنولوجيا وراء محتوى الذكاء الاصطناعي "غير الخاضع للرقابة"؟
كيف تظهر المخرجات الخبيثة أو غير الخاضعة للرقابة في الممارسة العملية؟
عندما يُشير الناس إلى محتوى الذكاء الاصطناعي "غير الخاضع للرقابة"، فإنهم يقصدون عادةً المخرجات التي تنتجها نماذج أو سلاسل أدوات تفتقر إلى رقابة صارمة على طبقة أو أكثر، أو مخرجات ناتجة عن محاولات متعمدة للتحايل على تلك الطبقات. من الناحية الفنية، هناك بعض الأسباب التي تؤدي إلى ظهور محتوى إشكالي:
- قدرة النموذج + حواجز ضعيفة. يمكن للهياكل التوليدية المتقدمة (النماذج متعددة الوسائط القائمة على المحولات، وانتشار الإطارات، والتوليف الصوتي العصبي للكلام) إنتاج محتوى واقعي للغاية؛ في حال غياب مُصنِّفات التعديل، أو سوء تكوينها، أو عدم تعدد الوسائط، يُنتج النموذج المحتوى المطلوب إنشاؤه. يزيد تعقيد Sora 2 (إطارات الفيديو + الصوت المتزامن + النص) من صعوبة الكشف.
- فجوات في التدريب أو التصنيفات. لا يوجد مُصنِّف مثالي. قد تفشل المُصنِّفات المُدرَّبة بشكل مُنفصل على النصوص أو الصور أو الصوت في ربط الإشارات عبر الوسائط (مثل الإطارات غير الضارة والصوت المُضر). كما يُمكن للخصائص الوسيطة أو الناشئة أثناء التوليد أن تُنتج أنماط فشل جديدة لم تُلاحظ في بيانات تدريب المُصنِّف.
- انتشار سطح المنتج والمحتوى. حتى حالات الفشل البسيطة في الإشراف قد تتفاقم بسبب مواقع التواصل الاجتماعي، مما قد يؤدي إلى انتشار عدد قليل من المقاطع الضارة بشكل واسع قبل أن يتمكن المشرفون من اتخاذ الإجراءات اللازمة. وقد أظهرت التغطية الإعلامية المبكرة بعد إطلاق المحتوى أمثلةً انتشرت بشكل واسع، مما استدعى تدقيقًا فوريًا.
ما هي التقنية المستخدمة في التوليد (المستوى العالي)؟
- الهياكل الأساسية للمحولات متعددة الوسائط أو الهندسة المعمارية الهجينة التي تشترط إطارات الفيديو على مطالبات نصية (ومراجع صور اختيارية)، والتي غالبًا ما يتم دمجها مع عمليات الانتشار أو تركيب الإطارات الانحداري التلقائي للحصول على حركة متماسكة.
- التوليف الصوتي العصبي ونماذج الكلام لإنتاج حوارات ومشاهد صوتية متزامنة. يُبرز سورا ٢ مزامنة الصوت الأصلية كعامل تمييز.
تعتبر هذه التقنيات أدوات محايدة، ويعتمد تأثيرها المجتمعي على طبقة الحوكمة التي تم بناؤها حولها.
ملخص الختام
يُمثل سورا 2 تقدمًا ملموسًا في مجال الذكاء الاصطناعي التوليدي متعدد الوسائط - إذ يُنتج صوتًا متزامنًا وفيديو عالي الدقة من خلال مطالبات نصية - وقد استجابت OpenAI بمجموعة أمان متعددة الطبقات: فحوصات ما قبل التوليد، ومراقبة أثناء التوليد، وضوابط ما بعد التوليد (بما في ذلك بيانات تعريف المنشأ وقيود المنتج). ومع ذلك، أظهرت التجارب المبكرة بعد الإطلاق أضرارًا واقعية (ظهور مقاطع عنيفة وعنصرية في الخلاصات) أثارت تدقيقًا صحفيًا ومطالبات من أصحاب المصلحة، مما يُبرز التحديات المستمرة لنشر نماذج الوسائط المتعددة عالية الكفاءة على نطاق واسع.
يمكن أن يدفع الفضول الناس إلى استكشاف إمكانات Sora 2 ومحاولة التحايل على الحواجز (يمكنني تقديم مطالبات ناجحة), ولكن ينبغي أيضًا الحفاظ على حد أدنى معين من المبادئ والأخلاقيات في العملية الإبداعية.
كيف تبدأ
CometAPI هي منصة واجهات برمجة تطبيقات موحدة تجمع أكثر من 500 نموذج ذكاء اصطناعي من أبرز المزودين، مثل سلسلة GPT من OpenAI، وGemini من Google، وClaude من Anthropic، وMidjourney، وSuno، وغيرهم، في واجهة واحدة سهلة الاستخدام للمطورين. من خلال توفير مصادقة متسقة، وتنسيق الطلبات، ومعالجة الردود، تُبسط CometAPI بشكل كبير دمج قدرات الذكاء الاصطناعي في تطبيقاتك. سواء كنت تُنشئ روبوتات دردشة، أو مُولّدات صور، أو مُلحّنين موسيقيين، أو خطوط أنابيب تحليلات قائمة على البيانات، تُمكّنك CometAPI من التكرار بشكل أسرع، والتحكم في التكاليف، والاعتماد على مورد واحد فقط، كل ذلك مع الاستفادة من أحدث التطورات في منظومة الذكاء الاصطناعي.
يمكن للمطورين الوصول واجهة برمجة تطبيقات Sora-2-pro و واجهة برمجة تطبيقات Sora 2 من خلال CometAPI، أحدث إصدار للنموذج يتم تحديثه دائمًا بالموقع الرسمي. للبدء، استكشف إمكانيات النموذج في ملعب واستشر دليل واجهة برمجة التطبيقات للحصول على تعليمات مفصلة. قبل الدخول، يُرجى التأكد من تسجيل الدخول إلى CometAPI والحصول على مفتاح API. كوميت ايه بي اي عرض سعر أقل بكثير من السعر الرسمي لمساعدتك على التكامل.
هل أنت مستعد للذهاب؟→ سجل في CometAPI اليوم !
إذا كنت تريد معرفة المزيد من النصائح والإرشادات والأخبار حول الذكاء الاصطناعي، فتابعنا على VK, X و ديسكورد!
