بفضل تطور الذكاء الاصطناعي في السنوات الأخيرة، أصبحت روبوتات الدردشة (المدعومة بالذكاء الاصطناعي) أداةً أساسيةً لخدمة العملاء. ورغم قدرتها على تسهيل بعض المهام، إلا أنها قد تُشكل في بعض الأحيان خطرًا أمنيًا إذا لم تُدار بعناية.
تتعلق الحالة الأحدث بـ Lena، المساعدة الافتراضية التي تستخدمها شركة Lenovo على موقعها الإلكتروني، والتي تم اختراقها من قبل باحثي الأمن الذين أظهروا كيف يمكن أن تصبح Lena، من خلال موجه واحد مصمم بشكل جيد، بوابة للمهاجمين.
بفضل التقرير الذي نشره فريق Cybernews، اكتُشف أن تعليمة من 400 كلمة كانت كافية للتلاعب بـ Lena وإجباره على توليد استجابات HTML باستخدام شيفرة مخفية. وراء هذا المظهر غير المؤذي، تكمن آلية لسرقة ملفات تعريف ارتباط جلسات موظفي الدعم الفني، وهي بيانات اعتماد نشطة تُمكّنهم من التحكم في حساباتهم.
العملية مُقلقة بقدر ما هي بسيطة: قبِل روبوت المحادثة الأوامر دون أي فلترة، ثم دَمَّج الشفرة الخبيثة في المحادثة، وعندما فتح أحد الوكلاء سجلّ المحادثات، نفّذ متصفحه التعليمات وأرسل البيانات إلى خادم يُسيطر عليه الباحثون.
باستخدام هذه الطريقة نفسها، وفي سيناريو واقعي، تمكّن المهاجمون من الوصول إلى معلومات حساسة للعملاء، ومحادثات جارية، وحتى اختراق أنظمة داخلية أخرى في الشركة.
بعد إخطارها، أكدت لينوفو أن أنظمتها محمية بالفعل، رغم أنها لم تُفصّل كيفية ذلك. ويرى الباحثون أن هذا يُمثل "خرقًا خطيرًا للشفافية"، إذ قد تكون لهذه الثغرة عواقب أوسع نطاقًا.الخلاصة واضحة تمامًا: يجب على الشركات التي تُدمج روبوتات الدردشة أن تنطلق من فرضية أن جميع مُدخلات ومُخرجات الرسائل قد تكون خطيرة. إن اتباع نهج "لا تثق أبدًا، تحقق دائمًا" ليس خيارًا، بل ضرورة في بيئة يتوسع فيها الذكاء الاصطناعي بوتيرة أسرع من التدابير الأمنية.
No comments:
Post a Comment