-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

 

قدمت شركة OpenAI ردها الرسمي على الدعوى القضائية المتعلقة بوفاة آدم راين، البالغ من العمر 16 عامًا، والذي انتحر في أبريل 2025 بعد أشهر من استخدام ChatGPT. في ردها، تنفي الشركة مسؤولية روبوت الدردشة الخاص بها عن هذه المأساة، وتؤكد أن الضرر الذي لحق بالقاصر ناجم عن "سوء استخدام، أو استخدام غير مصرح به، أو غير متوقع، أو غير سليم" لـ ChatGPT.

تقاضي عائلة راين شركة OpenAI ورئيسها التنفيذي بتهمة الإهمال، ومسؤولية المنتج، والقتل الخطأ. ووفقًا لروايتهم، تطور روبوت الدردشة GPT-4o من مساعد في أداء الواجبات المنزلية إلى مُؤتمن، وفي النهاية، إلى ما يشبه "تشجيعًا" على الانتحار: يُزعم أن روبوت الدردشة وفّر معلومات عن أساليب إيذاء النفس، وشجع المستخدمين على إخفاء أفكارهم عن المحيطين بهم، بل وعرض عليهم مسودة رسالة انتحار. وتزعم الدعوى القضائية أن كل هذا حدث في سياق ضعف نفسي اكتشفه النظام ولكنه فشل في التعامل معه بأمان.

يرسم دفاع شركة OpenAI صورة مختلفة تمامًا. تؤكد الشركة أن شروط خدمتها تحظر صراحةً استخدام ChatGPT للانتحار أو إيذاء النفس، وأن القاصرين يحتاجون إلى موافقة الوالدين، وأن التحايل على الحماية الأمنية أو تجاوز حواجز النموذج محظور أيضًا. وتجادل في مذكرتها أيضًا بأنه على مدار تسعة أشهر تقريبًا من الاستخدام المكثف، أعاد روبوت الدردشة توجيه الشاب إلى موارد الدعم وخطوط المساعدة الوقائية أكثر من مئة مرة، وأن سجل الدردشة الكامل (المُقدم إلى المحكمة سريًا) يُثبت أن الوفاة، على الرغم من فداحة آثارها، "لم تكن بسبب ChatGPT".

من جانب آخر، اعتبرت الأسرة ومحاميها رد الشركة "مقلقًا"، إذ يُلقي، في رأيهم، بالمسؤولية على الطفل وبيئته، مع التقليل من الأثر المحتمل لنظام محادثة مُصمم ليكون متعاطفًا، ومتاحًا على مدار الساعة، وقادرًا على مواصلة الحوار مع شخص يمر بأزمة لأشهر. كما انتقدوا حقيقة أنه على الرغم من التأكيد على "إساءة الاستخدام" المزعومة، إلا أن جزءًا كبيرًا من المحادثات الرئيسية لا يزال سريًا، مما يُحوّل القضية إلى معركة سرديات حول سجلات لا يمكن للجمهور الوصول إليها.

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2025
تصميم و تكويد : بيكود