في سعيهم وراء الابتكار التكنولوجي، دفع مؤيدو الذكاء الاصطناعي التوليدي بأدوات التزييف العميق الاصطناعية غير القانونية إلى أيادي الناس العاديين.

وقد انتشرت مؤخرا إعلانات مُخلة على الأشرطة الجانبية للمواقع الإلكترونية الشهيرة وبين منشورات فيسبوك، وظهرت صور غير أخلاقية مزيفة لشخصيات عامة كمواد رائجة بين الجماهير.

وتسربت المشكلة عبر الفضاء الإلكتروني إلى الحياة الواقعية للمستخدمين، بما في ذلك الشباب. وهنا يُعتبر المسؤولون عن إنشاء ونشر الذكاء الاصطناعي متورطين في كل ذلك.

وفي المقابل، يهاجم قادة الحكومة المشكلة من خلال الجهود التشريعية، وتعمل قطاعات التكنولوجيا والمجتمع على تحقيق التوازن بين مسؤوليتها تجاه المستخدمين والحاجة إلى الابتكار. ولكن التزييف العميق مفهوم تصعب محاربته بسلاح السياسة المؤسسية.

مشكلة مقلقة ليس لها حل

تعد مشكلة التزييف العميق معضلة حقيقية، وذلك بسبب صعوبة كشف التزييف العميق وتحديده، فضلا عن الخلاف الواسع النطاق حول من المسؤول عن التزييف الاصطناعي الذي أوصلنا لهذه المرحلة.

تحارب منظمة الحقوق المدنية السيبرانية ظاهرة “توزيع الصور الحميمية بدون موافقة” التي يرمز لها بـ”إن دي آي آي” (NDII)، وتُعرِّف التزييف الرقمي ذا الطابع الجنسي على أنه أي صورة أو مقطع فيديو مُعالج يُظهر شخصا حقيقيا عاريا أو منخرطا في سلوك جنسي زائف بطريقة غير قابلة للتمييز.

ومن جهة أخرى، لا ترتبط ظاهرة “إن دي آي آي” بالذكاء الاصطناعي بالمجمل حيث يمكن إجراء هذه الأعمال باستخدام الفوتوشوب، ولكن أصبحت أدوات الذكاء الاصطناعي التوليدي مرتبطة بقدرتها على إنشاء التزييف العميق، وهو مصطلح شامل ظهر أول مرة عام 2017 ويشير إلى أي تشابه بصري أو سمعي مُعدّل.

وبشكل عام، يمكن أن تشير صور التزييف العميق إلى تعديلات طفيفة أو إلى خلق تكوين غير حقيقي تماما لشخص ما. وقد تكون هذه الصور واضحة جنسيا. كما يمكن أن تُستخدم كشكل من أشكال إساءة الاستخدام الجنسي القائمة على الصور.

وليس من الصعب تنظيم هذه الصور أو مراقبتها منذ لحظة إنشائها أو قبل ذلك من خلال السياسات والقيود المفروضة على أدوات الذكاء الاصطناعي نفسها. ويمكن حتى حظرها تماما أو تقييدها بمسؤوليات جنائية أو مدنية على صنّاعها أو موزعيها، وذلك حسب النية التي تحملها.

ولقد اختارت الشركات النظر إلى التزوير الاصطناعي الجنسي بعدة طرق: مثل اعتباره جريمة يجب التعامل معها من خلال المراقبة المباشرة أو انتهاكا لشروط وسياسة الخدمة أو أنه ببساطة ليست مسؤوليتها.

وفي ما يلي قائمة ببعض هذه الشركات وكيف تتعامل مع التزييف العميق وسياساتها المعلنة في هذا الأمر.

آبل

وُضع متجر تطبيقات آبل والمتاجر الأخرى تحت المراقبة مؤخرا بسبب السماح بتطبيقات تزييف عميق فاضحة. ورغم أن سياسات متجر التطبيقات من آبل ليست بهذه الوضوح كما هي الحال مع منافسيها مثل “غوغل بلاي”، فإن الشركة قد عززت سياسات مكافحة الإباحية في كل من إعلاناتها وقواعد المتجر.

ومع ذلك، لا يزال الجدل قائما بين مجموعة واسعة من منتجات آبل الأشهر الأخيرة، خاصة بعد اتهام الشركة بالتقصير والتقليل من دور أجهزتها وخدماتها في انتشار مواد الاعتداء الجنسي على الأطفال سواء الحقيقية أو الناتجة عن الذكاء الاصطناعي.

ومن جهة أخرى، سيشكل إطلاق آبل لـ”آبل إنتليجنس” (Apple Intelligence) القادمة مزيدا من الأسئلة الجديدة بشأن الرقابة.

وتذكر آبل في موقعها الرسمي إرشادات المحتوى غير المقبول أو المحظور، إذ إن تطبيق “آبل نيوز” (Apple News) لا يسمح بأي محتوى إعلاني يروج لمواضيع موجهة للبالغين أو محتوى رسومي مثل المواد الإباحية أو كتاب كاما سوترا أو الأدب الإباحي أو المحتوى الذي يروج للجنس والألعاب الجنسية.

وذكر موقع المطورين الخاص بشركة آبل أن متجر التطبيقات لا يمكن أن يشمل محتوى جنسي أو مواد إباحية بما فيها تطبيقات التعارف وغيرها من التطبيقات التي قد تشمل أمورا فاضحة أو تُستخدم لتسهيل الإباحية أو الاتجار بالبشر واستغلالهم.

والتطبيقات التي تحتوي على محتوى مُنتج بواسطة المستخدمين أو الخدمات التي تُستخدم أساسا للمحتوى الإباحي أو التهديدات الجسدية أو التنمر لا تنتمي إلى متجر التطبيقات وقد حُذفت من المتجر من دون إشعار.

غوغل

تلعب غوغل دورا متعدد الجوانب في إنشاء الصور الاصطناعية كونها مضيفا ومطورا في الوقت نفسه، إذ أعلنت عن عدة تغييرات في سياستها للحد من الوصول إلى المحتوى الاصطناعي غير المقبول ونشره في نتائج البحث، حيث سينخفض تصنيف المواد الإباحية المولدة بالذكاء الاصطناعية في تصنيفات بحث غوغل.

وتقول غوغل في سياستها إنه لا يمكن للإعلانات التجارية الترويج للخدمات التي تولد أو توزع أو تنشر محتوى جنسيا صريحا أو محتوى فاضحا مُنشأ بالذكاء الاصطناعي. ولا يمكن للإعلانات التجارية تقديم تعليمات حول إنشاء مثل هذا المحتوى.

ويجب على المطورين على متجر “غوغل بلاي” التأكد من أن تطبيقات الذكاء الاصطناعي لا تولد محتوى مسيئا، بما في ذلك المحتوى المحظور والمحتوى الذي قد يستغل الأطفال أو يسيء إليهم والمحتوى الذي يمكن أن يخدع المستخدمين أو يمكّن لسلوكيات غير نزيهة.

يوتيوب

باعتبار يوتيوب منصة محتوى ضخمة، فقد أولت أهمية كبيرة لمراقبة الفيديوهات التي يرفعها المستخدمون وتوفير آليات فعّالة للإبلاغ عن موضوعات التزييف العميق.

وذكرت في سياستها أن المحتوى الجنسي الفاضح والمُعدل غير مسموح به على يوتيوب. ويمكن أن يؤدي نشر مواد إباحية إلى حذف المحتوى أو إغلاق القناة.

ويُطلب من المنشئين الكشف عن المحتوى المُعدّل أو المُنشأ بالذكاء الاصطناعي عندما يكون واقعيا جدا، مما يعني أن المشاهد قد يخلط بين ما يُعرض أمامه وبين شخص أو مكان أو حدث حقيقي.

وإذا استخدم شخص ما الذكاء الاصطناعي لتعديل أو إنشاء محتوى اصطناعي يشبهك أو يبدو مثلك، فيمكنك طلب إزالته. ولكن كي تكون مؤهلا للإزالة، يجب أن يصور المحتوى نسخة واقعية معدلة أو اصطناعية من صورتك.

مايكروسوفت

تقدم شركة مايكروسوفت أدواتها الخاصة للذكاء الاصطناعي التوليدي مثل منشئ الصور في “بينغ” (Bing) و”كوبايلوت” (Copilot).

وفي سبتمبر/أيلول الماضي، حدّثت مايكروسوفت سياساتها للمستخدمين الذين يتفاعلون مع هذا الذكاء الاصطناعي، وأقامت حواجز وضوابط سريعة، ولكنها ربما تكون مسؤولة عن أي شيء يتسرب من بين الفجوات.

ولا تسمح سياسة مايكروسوفت بمشاركة أو إنشاء صور جنسية حميمية لشخص ما دون إذنه والمعروفة أيضا باسم الصور الحميمية غير المباحة أو “إن سي آي آي” (NCII). ويشمل ذلك المحتوى الحميم الذي تقوم بإنشائه أو تعديله باستخدام التكنولوجيا.

كذلك لا يسمح “بينغ” باستخدام أداة إنشاء الصور من أجل إنشاء أو مشاركة محتوى عنيف أو دموي أو إرهابي ومتطرف أو مواد استغلال أو إساءة جنسية للأطفال أو محتوى آخر يكون مزعجا أو مسيئا.

وفي 30 يوليو/تموز الماضي، أصدرت مايكروسوفت سياسة جديدة توضح مجموعة من التوصيات لصانعي السياسات للمساعدة في حماية المستخدمين من عمليات التزييف العميق المسيئة التي يولدها الذكاء الاصطناعي، مع التركيز على حماية النساء والأطفال من الاستغلال عبر الإنترنت.

أوبن إيه آي

“أوبن إيه آي” هي الاسم الأكبر بين شركات الذكاء الاصطناعي، إذ تُدمج نماذجها ومنتجاتها في عديد من أدوات الذكاء الاصطناعي التوليدي التي تقدمها الشركات في جميع أنحاء العالم. وتحافظ “أوبن إيه آي” على شروط استخدام صارمة لحماية نفسها من الآثار الجانبية للاستخدام الواسع لنماذج الذكاء الاصطناعي الخاصة بها.

وتقول الشركة في سياسة الاستخدام الخاصة بها إنه لا يمكن لأحد إعادة استخدام أو توزيع مخرجات خدمات “أوبن إيه آي” لإيذاء الآخرين. وتشمل المخرجات التي تهدف إلى الاحتيال أو النصب أو إرسال رسائل غير مرغوب فيها أو التضليل أو التنمر أو المضايقة أو التشهير أو التمييز على أساس السمات المحمية أو إضفاء الطابع الجنسي على الأطفال أو الترويج للعنف أو الكراهية أو معاناة الآخرين.

ولا يمكن للمستخدمين استغلال تقنيات “أوبن إيه آي” لانتحال شخصية فرد أو منظمة أخرى دون موافقة أو حق قانوني. ولا يمكن إنشاء أدوات قد تكون غير مناسبة للقاصرين، بما في ذلك المحتوى الجنسي أو الفاضح.

وفي مايو/أيار الماضي، قالت الشركة إنها ستشارك أداة الكشف عن التزييف العميق الجديدة الخاصة بها مع مجموعة صغيرة من الباحثين في مجال المعلومات المضللة حتى يتمكنوا من اختبار الأداة في مواقف العالم الحقيقي والمساعدة في تحديد طرق تحسينها.

ميتا

اعتبارا من يناير/كانون الثاني الماضي، فرضت شركة ميتا على المعلنين توضيح متى استخدموا الذكاء الاصطناعي أو التلاعب الرقمي في الإعلانات على فيسبوك وإنستغرام.

ولدى الشركة سياسات قائمة بشأن استخدام التزييف العميق، لكنها تقول إن هذا الإجراء يمثل خطوة إضافية.

وفي إعلان خارجي قالت ميتا إن هذا سيشمل “تغيير ما قاله شخص ما في مقطع فيديو أو تغيير صور أو لقطات لأحداث حقيقية، وتصوير أشخاص حقيقيين لا وجود لهم”.

وتمتلك ميتا بالفعل سياسات لجميع المستخدمين بشأن استخدام التزييف العميق في الفيديوهات، إذ يُحذف المحتوى إذا كان من المحتمل أن يضلل الشخص العادي، مثل إذا أظهر شخصا في الفيديو يقول كلمات لم يقلها.

وتتطلب القواعد الجديدة الإفصاح عن أي نوع من التعديلات الرقمية سواء كانت من قبل إنسان أو ذكاء اصطناعي، قبل النشر على فيسبوك أو إنستغرام.

تيك توك

أعلنت شركة تيك توك مايو/أيار الماضي أنها ستبدأ بوضع علامات على المحتوى المُنشأ بالذكاء الاصطناعي مثل الصور ومقاطع الفيديو والصوت التي ينشرها المستخدمون على منصتها.

وتقول الشركة إنها لن تسمح بأي وسائط اصطناعية كتلك التي تشبه شخصيات معروفة أو تظهر شخصية عامة تدعم منتجا أو تنتهك سياسات.

وتُعرِّف الشركة “الشخصيات العامة” بأنها أي شخص يبلغ من العمر 18 عاما أو أكثر وله دور عام مهم، مثل مسؤول حكومي أو سياسي أو قائد أعمال أو شخصية مشهورة.

إكس

اختلفت منصة إكس عن باقي المنصات، ففي مايو/أيار الماضي حدثت الشركة سياستها في ما يخص محتوى البالغين وسمحت بمشاركة محتوى التعري أو السلوك الجنسي بشرط موافقة الطرفين، بحيث أن يُوسم بشكل صحيح ولا يُعرض بشكل بارز.

ولا تسمح لك المنصة بنشر أو مشاركة صور أو مقاطع فيديو حميمية لشخص ما دون موافقته. وستقوم فورا بتعليق الحساب بشكل دائم.

ولا يمكن نشر أو مشاركة صور أو مقاطع فيديو فاضح دون موافقة الأشخاص المعنيين. ويتضمن ذلك الصور أو مقاطع الفيديو التي يُستخدم فيها التزييف العميق من أجل التلاعب رقميا بوجه شخص ما ووضعه على جسد شخص آخر عار.

شاركها.
Exit mobile version