وفقًا لموقع Ars Technica، سمح هذا لبعض الاستفسارات، التي أُرسلت في الأصل إلى روبوت الدردشة الخاص بـ OpenAI، بالظهور لأشخاص آخرين لديهم حق الوصول إلى Google Search Console (GSC)، مما عرّض خصوصية تلك المحادثات للخطر.
أوضحت OpenAI أن المشكلة قد حُلّت ولم تؤثر إلا على عدد قليل من الاستفسارات. وأوضحت الشركة أن الخلل كان خطأً فنيًا تسبب في إرسال بعض الطلبات عن طريق الخطأ إلى GSC، حيث كان بإمكان المستخدمين الآخرين الاطلاع عليها.
وأشار بعض الخبراء، مثل جيسون باكر، مالك شركة الاستشارات Quantable، إلى أن هذا الحادث قد يكون مرتبطًا بممارسة OpenAI المتمثلة في استخراج المعلومات من جوجل للإجابة على أسئلة المستخدمين.
هذه الحادثة جزء من مشكلة خصوصية أوسع نطاقًا واجهتها روبوتات الدردشة الذكية، بما في ذلك ChatGPT، بدءًا من الطلبات القانونية للحصول على سجلات المحادثات الكاملة وصولًا إلى الانتقادات المتعلقة باستخدام البيانات الشخصية.
يجب على أي شخص يستخدم ChatGPT أو أي روبوت دردشة ذكي آخر أن يدرك أن المعلومات المشتركة لا يمكن أن تبقى سرية دائمًا. يُظهر هذا الخطأ أن الخصوصية التامة غير مضمونة عند التفاعل مع هذه الأدوات.
تم إصلاح الخلل بالفعل، وهو يؤثر فقط على مجموعة صغيرة من الأشخاص، ولكنه بمثابة تحذير بشأن مخاطر الخصوصية الناجمة عن استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.
ليست هناك تعليقات:
إرسال تعليق