رفع الوالدان دعوى قضائية ضد الشركة وألتمان نفسه، زاعمين أن النظام لم يُفعّل بروتوكولات السلامة اللازمة، بل وصل الأمر، كما ذكرنا، إلى حدّ تطبيع أفكاره حول إنهاء حياته. كما اتُهم بالإهمال وتقديم النمو الاقتصادي على سلامة المستخدم.
تزامنًا مع هذه القضية، أعلنت الشركة أنها ستعزز إجراءات الأمان على ChatGPT بالتعاون مع أطباء وخبراء، مع إضافة مجموعة جديدة من أدوات الرقابة الأبوية. هذه الأدوات متاحة الآن، ما يسمح للوالدين بربط حساباتهم بحسابات أطفالهم لضبط تجربة المستخدم.
كما ورد في بيان على مدونتهم الرسمية، تتضمن أدوات الرقابة الأبوية هذه حظر المحتوى الحساس، مثل المواد الجرافيكية، والتحديات الفيروسية، وألعاب تقمص الأدوار العنيفة أو الجنسية أو الرومانسية، والإشارات إلى معايير الجمال المتطرفة. كما يمكن للوالدين تعطيل ميزات مثل الذاكرة، أو إنشاء الصور، أو وضع الصوت.
في المقابل، سيكون من الممكن تحديد أوقات هدوء، ومنع استخدام المحادثات لتدريب النماذج، وتلقي إشعارات إذا رصد النظام علامات تدل على أن الطفل يمر بوقت عصيب. طُوّرت هذه الوظائف بالتعاون مع خبراء ومنظمات مثل Common Sense Media، كما أتاحت OpenAI للعائلات صفحةً تضم موارد ونصائح حول الاستخدام المسؤول للذكاء الاصطناعي.
بالإضافة إلى ذلك، يدّعون أيضًا أنهم يعملون على نظام طويل الأمد للتنبؤ بالعمر، والذي سيكتشف ما إذا كان عمر المستخدم أقل من 18 عامًا، ويطبّق تلقائيًا إعدادات مُخصصة للقاصرين. مع كل هذا، تُوضّح OpenAI أن هذه الإجراءات جزء من جهودها لتحسين سلامة المراهقين وتفاعلهم مع ChatGPT.
ليست هناك تعليقات:
إرسال تعليق