-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

 

اليوم، يستخدم الأشخاص ChatGPT ونماذج مماثلة لطرح جميع أنواع الأسئلة، حتى الأسئلة الشخصية والخاصة للغاية، مثل تلك المتعلقة بالصحة البدنية والعقلية.

ويحذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أن التحدث إلى نماذج الذكاء الاصطناعي حول مشاعرك أو صحتك العقلية ليس آمنًا كما قد تعتقد.

وفي مقابلة أجريت معه مؤخرا، أصدر المسؤول التنفيذي تحذيرا، موضحا أنه لا توجد سرية قانونية في المحادثات مع الذكاء الاصطناعي.

يتحدث الناس عن جوانب حياتهم الشخصية عبر ChatGPT. ويستخدمونه كمعالج نفسي، ومدرب حياة، وخاصةً للشباب، كما أوضح.

ولكنه يوضح أنه على عكس الطبيب الحقيقي أو عالم النفس، فإن الذكاء الاصطناعي لا يخضع لقوانين السرية مثل السرية المهنية.

لذا يعتقد أن هناك ثغرة خطيرة: "اليوم، إذا تحدثتَ إلى معالج نفسي، فهذا محمي. لكن إذا تحدثتَ إلى ChatGPT، فهو ليس كذلك. ولم نحل هذه المشكلة بعد."

وفي الواقع، يشير إلى أنه في حالة إجراء تحقيق قانوني أو دعوى قضائية، يمكن طلب المحادثات وتسليمها بواسطة OpenAI.

في الواقع، ذكر سام ألتمان أن شركة OpenAI تقاوم أمرًا قضائيًا يسعى إلى الوصول إلى محادثات ملايين المستخدمين، كجزء من نزاعها القانوني مع صحيفة نيويورك تايمز.

ويضيف قائلاً: "يجب أن يكون لدينا نفس مفهوم الخصوصية كما هو الحال مع المعالج، ولم يفكر أحد في هذا الأمر قبل عام".

ويضيف سام ألتمان أن هذه المشكلة تعيق الاستخدام الأوسع للذكاء الاصطناعي للوظائف الأكثر حساسية.

وهذا يعني أنه على الرغم من أن الذكاء الاصطناعي يمكن أن يساعد، فإنه لا ينبغي له أبدا أن يحل محل المهنيين الذين يتمتعون بدعم قانوني.

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2025
تصميم و تكويد : بيكود