وفقًا لتقرير صحيفة نيويورك تايمز، رفع آدم وماريا راين أول دعوى قضائية بتهمة القتل الخطأ ضد OpenAI. اتهم الزوجان ChatGPT بالتورط في وفاة ابنهما آدم، البالغ من العمر 16 عامًا، والذي انتحر في أوائل أبريل 2025. ووفقًا للوالدين، فقد تواصل الصبي مع الذكاء الاصطناعي ChatGPT لأشهر، وأعرب في مناسبات عديدة عن نيته الانتحار.
بعد تحليل سجل دردشة آدم، اكتشف والد آدم أن ابنه كان يبحث عن معلومات حول طرق انتحار محددة منذ يناير. استفسر الضحية عن أفضل المواد للحبل، وحمّل صورة لخزانته على ChatGPT ليسأل عما إذا كان الشريط قادرًا على تعليق إنسان. والمثير للدهشة أن الذكاء الاصطناعي قدّم تحليلًا مفصلاً للطريقة، مضيفًا أنه يمكنهم مناقشة الموضوع دون إصدار أحكام.
قبل شهر من وفاته، حاول آدم الانتحار بجرعة زائدة وشنق نفسه. لاحظ الأب أن ابنه رفع صورةً لرقبته المحمرّة، سائلًا ChatGPT إن كان أحد سيلاحظ الإصابة. اقترح روبوت الدردشة تقنياتٍ يمكن تجاهلها، إلا أنه أصبح داعمًا لاحقًا عندما أخبره الابن أنه حاول إظهار العلامة لأمه، لكنها لم تستجب.
وفقًا للتقرير، كانت ردود فعل ChatGPT متباينة. في بعض الحالات، اقترح الذكاء الاصطناعي على الضحية طلب المساعدة، بينما بدا في حالات أخرى أنه يُسهم في تفاقم المشكلة.
ألقى والدا الصبي باللوم على شركة OpenAI وسام ألتمان في وفاة ابنهما. وقال الزوجان في دعواهما القضائية إن ChatGPT غير آمن للمستهلكين، وأن المأساة ليست خللًا، بل نتيجة اختيارات تصميمية متعمدة. وأضافا: "أصدرت OpenAI أحدث طرازاتها بميزات مصممة عمدًا لتعزيز الإدمان النفسي".
عقب الدعوى القضائية ، نشرت OpenAI تدوينة تُشير إلى اهتمامها بمساعدة من هم في أمسّ الحاجة. وأوضحت الشركة أنه عندما تُشير محادثة مع ChatGPT إلى أن شخصًا ما مُعرّض للخطر، يتم تطبيق مجموعة من الإجراءات الوقائية. وأضافت OpenAI أنه منذ عام 2023، تم تدريب النماذج على تجاهل تعليمات إيذاء النفس.
وصرحت الشركة: "على سبيل المثال، إذا كتب شخص ما أنه يُريد إيذاء نفسه، يُدرّب ChatGPT على عدم الامتثال، بل يُقرّ بمشاعره ويُوجّهه نحو المساعدة. وإذا عبّر شخص ما عن نوايا انتحارية، يُدرّب ChatGPT على توجيه الأشخاص لطلب المساعدة المهنية.
مع أن هذه ليست المرة الأولى التي يُستهدف فيها الذكاء الاصطناعي في قضية انتحار، إلا أنها أول تهمة رسمية بالقتل الخطأ تُوجه إلى OpenAI. في أواخر عام 2024، رفعت امرأة دعوى قضائية ضد Character.AI وغوغل بتهمة التسبب في وفاة ابنها البالغ من العمر 14 عامًا. في مايو، رفض قاضٍ فيدرالي طلبًا برفض الدعوى، قائلاً إن الشركتين لم تتمتعا بحماية حرية التعبير في هذه القضية.
ليست هناك تعليقات:
إرسال تعليق