في يناير من هذا العام، أثار برنامج الدردشة الآلي Grok التابع لشركة xAI جدلاً واسعاً بسبب إنتاجه صوراً عارية لنساء دون موافقة أصحابها، حيث كان ينتج ما يصل إلى 6700 صورة في الساعة لنساء عاريات أو يرتدين ملابس داخلية. وفي نهاية المطاف، وللحد من هذه الممارسة الضارة، قصرت xAI استخدام Grok لتحرير الصور على المستخدمين المدفوعين، وأعلنت عن تغيير في سياستها لتوفير حماية أكبر.
مع ذلك، فبدلاً من أن تتراجع، تتزايد انتشار تقنية التزييف العميق، ويستمر انتشار ظاهرة إنشاء صور جنسية صريحة باستخدام الذكاء الاصطناعي، لا سيما بين الشباب. ووفقًا لدراسة جديدة نُشرت في مجلة PLOS One مفتوحة الوصول، بقلم تشاد ستيل من جامعة جورج ماسون (الولايات المتحدة الأمريكية)، استخدم أكثر من نصف المراهقين الأمريكيين أدوات الذكاء الاصطناعي لإنشاء صور عارية.
بحسب نتائج الاستطلاع المنشورة، أفاد 55.3% من الشباب باستخدام تطبيقات الصور العارية لإنشاء صورة واحدة على الأقل لأنفسهم أو لغيرهم، بينما أقرّ 54.4% بتلقّيهم صورًا عارية مُولّدة بواسطة الذكاء الاصطناعي. علاوة على ذلك، أفاد 36.3% بأن شخصًا ما التقط لهم صورة دون موافقتهم المسبقة، وقال 33.2% إن هذه الصور نُشرت لاحقًا دون إذنهم.
من ناحية أخرى، تجدر الإشارة إلى أن المشاركين الذكور في الاستطلاع أبلغوا عن معدلات أعلى لإنشاء وتوزيع هذه الصور، سواء بموافقة أو بدونها.
تُسلّط الدراسة الضوء على شيوع هذه الممارسات وسهولة الوصول إليها. فمزيج التقنيات المتطورة باستمرار وانتشارها الواسع يُسهّل إنشاء المحتوى الضار ونشره. ولذلك، في هذا السياق، لا تزال الصور المُولّدة بالذكاء الاصطناعي تُشكّل خطراً كبيراً، سواءً لقدرتها على انتهاك خصوصية الأفراد وكرامتهم، أو لقدرتها على تضخيم أشكال التحرش عبر الإنترنت.
ليست هناك تعليقات:
إرسال تعليق