وفقًا لموقع Futurism، أثار منشورٌ على مدونة OpenAI جدلًا بين المستخدمين وخبراء الخصوصية. وبينما يُركز المقال على استراتيجية الشركة لمعالجة مشاكل الصحة النفسية، يتضمن قسمًا يناقش خطر الإيذاء الجسدي للآخرين. وتُشير OpenAI إلى أن لديها فريقًا يُراجع محادثات ChatGPT، وقد يتخذ إجراءات صارمة.
"عندما نرصد مستخدمين يخططون لإيذاء الآخرين، نُوجّه محادثاتهم إلى مسارات متخصصة حيث يُراجعها فريق صغير مُدرّب على سياسات الاستخدام لدينا، وأعضاؤه مُصرّح لهم باتخاذ إجراءات، بما في ذلك حظر الحسابات. إذا رأى المُراجعون البشريون أن الحالة تنطوي على تهديد وشيك بإلحاق ضرر جسيم بالآخرين، فقد نُحيلها إلى جهات إنفاذ القانون."
على الرغم من أن OpenAI لا تذكر الآليات التي تستخدمها لتحديد ما إذا كان شخص ما يسعى إلى إيذاء شخص آخر، إلا أن هناك قسمًا في سياسة الخصوصية الخاصة بها يذكر أنها قد تشارك معلوماتك مع جهات إنفاذ القانون أو أي وكالة حكومية.
"يجوز لنا مشاركة معلوماتك الشخصية مع السلطات الحكومية أو أطراف ثالثة أخرى إذا كان القانون يتطلب ذلك أو بحسن نية... للكشف عن الاحتيال أو أي نشاط غير قانوني آخر أو منعه؛ لحماية أمن وسلامة وثقة منتجاتنا أو موظفينا أو مستخدمينا أو الجمهور؛ أو للحماية من المسؤولية القانونية."
أشار بعض الخبراء بالفعل إلى مخاطر إشراك الشرطة في محادثات ChatGPT. لم تكشف OpenAI عن كيفية تحديد موقع المستخدم بدقة أو الإجراءات التي ستتخذها في حالة سرقة الهوية. ماذا سيحدث إذا تمكن أحدهم من الوصول إلى حسابك لإساءة استخدام النظام وإرسال السلطات إلى منزلك؟
يذهب آخرون إلى أبعد من ذلك، مشيرين إلى علاقات OpenAI بالحكومة الأمريكية. يقول تشارلز ماكغينيس، مطور الذكاء الاصطناعي: "قبل اثني عشر عامًا، كشف إدوارد سنودن أن الحكومة الأمريكية لم تكن تتجسس على بيانات الإنترنت فحسب، بل حظيت أيضًا بتعاون نشط من شركات التكنولوجيا الكبرى". ويضيف: "ليس من المبالغة الاعتقاد بأن ChatGPT يُرسل محتوى "مثيرًا للاهتمام" إلى الحكومة الأمريكية".
تأتي هذه التغييرات في السياسة بعد أن اتهم زوجان تطبيق ChatGPT بالتسبب في وفاة ابنهما. رفع آدم وماريا راين دعوى قضائية ضد OpenAI بتهمة القتل الخطأ. ووفقًا للوالدين، لم يمنع الذكاء الاصطناعي ابنهما من الانتحار، بل شجعه على ذلك.
ليست هناك تعليقات:
إرسال تعليق