-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

نعلم بالفعل أن ChatGPT أصبح أداة يومية للأفراد والشركات على حد سواء. ومن أكثر استخداماتنا شيوعًا لروبوت الدردشة OpenAI، طلب الأفكار منه عند الحاجة، أو مساعدتنا في أتمتة المهام المتكررة، أو إنشاء صور واقعية.

مع ذلك، يُحذّر خبراء الأمن السيبراني من إمكانية استخدامه لأغراض خبيثة إذا نجح أحدهم في تجاوز مرشحات الأمان الخاصة به. لذلك، تشرح باندا سيكيوريتي أخطر استخدامات ChatGPT.

من أخطر المخاطر وأكثرها إثارة للقلق استخدام التصيد الاحتيالي، والذي يتكون من رسائل تحاول خداع المستخدمين، والإعلانات الضارة، التي تشير إلى إعلانات مزيفة تُوجِّه المستخدمين إلى مواقع ويب ضارة. لا يسمح ChatGPT بإنشاء هذا المحتوى لأنه يتعارض مع سياساته، ولكن إذا تمكن أحدهم من خداعه، فقد يُنشئ رسائل بريد إلكتروني أو إعلانات واقعية مكتوبة كما لو كانت من شركة شرعية، وذلك لتجاوز مرشحات الأمان.

علاوة على ذلك، في السنوات الأخيرة، أغلقت شركة OpenAI عددًا كبيرًا من الحسابات المخصصة لنشر الأخبار الكاذبة أو التلاعب بالمحادثات لأغراض سياسية. كما تم اكتشاف شبكة من روبوتات التواصل الاجتماعي تعمل باسم Fox8، تتكون من أكثر من ألف حساب تعمل تلقائيًا، للترويج لعملات مشفرة مشبوهة من خلال رسائل مُولَّدة بالذكاء الاصطناعي.

بل أُبلغ عن حالةٍ  لإضافة مزعومة لـ ChatGPT للمتصفح ، تظاهرت بأنها رسمية، لكنها في الواقع مبنية على برمجياتٍ خبيثة، مما أدى إلى اختراق بيانات آلاف الأشخاص. يُضاف إلى كل هذه الأمثلة خطرُ التلاعب باستعلام بحث روبوت الدردشة باستخدام تقنياتٍ خفية على صفحات الويب، والتي يُمكن استخدامها لتغيير الردود، ونشر تقييماتٍ زائفة، وغير ذلك.

- كيفية تجنب هذا الخطر

تُؤكد شركة الأمن السيبراني ضرورة تزويد منصات الذكاء الاصطناعي بمرشحات أكثر تطورًا لمنع محاولات الاحتيال. كما يجب تعزيز مراقبة الحسابات المشبوهة وإغلاقها، وضرورة التعاون الدولي لمقاضاة من يستخدمون هذه التقنية لأغراض خبيثة.

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2025
تصميم و تكويد : بيكود