بدأت المشكلة في أواخر ديسمبر/كانون الأول عندما أطلق Grok ميزةً تُمكّن المستخدمين من تعديل الصور وإنشائها مباشرةً داخل "إكس إيه آي" بنقرة واحدة. وقد أثار هذا الأمر ردود فعل واسعة النطاق، حيث انتشرت على نطاق واسع ظاهرةٌ مثيرة للجدل أخلاقياً، تمثلت في مطالبة روبوت الدردشة بتحويل صور الآخرين، بمن فيهم المشاهير والقاصرون، إلى صور ذات طابع جنسي.
في 9 يناير/كانون الثاني، حصرت منصة "إكس إيه آي" استخدام مُنشئ الصور على المستخدمين المدفوعين، وبعد خمسة أيام، في 14 يناير/كانون الثاني، حظرت تماماً إنشاء الصور ذات الطابع الجنسي. ومع ذلك، ورغم أن الميزة لم تكن متاحة إلا لفترة وجيزة، إلا أنها كانت كافيةً لامتلاء الشبكة الاجتماعية بمحتوى جنسي صريح مُعدّل بواسطة الذكاء الاصطناعي.
عادت الفضيحة إلى الواجهة مجدداً بعد نشر بيانات جمعها مركز مكافحة الكراهية الرقمية (CCDH) بالتعاون مع صحيفة نيويورك تايمز، كاشفةً عن حجم هذه الظاهرة. فبين 29 ديسمبر و8 يناير، أنتجت الأداة، بحسب التقارير، حوالي ثلاثة ملايين صورة ذات محتوى جنسي، أي ما يعادل 190 صورة في الدقيقة تقريباً خلال ذروة النشاط.
ويخلص التحليل، الذي استند إلى عينة من 20 ألف صورة من مجموعة أكبر تُقدّر بنحو 4.6 مليون صورة، إلى أن 65% من إجمالي الصور احتوت على محتوى جنسي. ومن بين هذه الصور، 41% - أي ما يقارب 1.8 مليون صورة - كانت صوراً جنسية لنساء.
أكثر الأرقام إثارة للقلق هي تلك المتعلقة بالقاصرين. ففي عينة يدوية مكونة من 20,000 صورة، رصد مركز حقوق الإنسان الكندي 101 حالة من المحتوى الجنسي للأطفال. وبتطبيق هذه النسبة على إجمالي 4.6 مليون صورة، يصل الرقم إلى حوالي 23,338. أو بعبارة أخرى: يُنتج الذكاء الاصطناعي صورة جنسية لقاصر كل 41 ثانية.
وتشير البيانات أيضًا إلى أن برنامج Grok أنتج ما يقرب من 9900 صورة جنسية تصور الأطفال في شكل رسوم متحركة.
وحتى 15 يناير، عندما تم تطبيق القيود بالفعل، كان لا يزال بالإمكان الوصول إلى حوالي 30٪ من الصور الجنسية للقاصرين على المنصة.

ليست هناك تعليقات:
إرسال تعليق