في الأساس، يستخدم الهجوم عمليات حقن فورية لتحويل ChatGPT إلى أداة فعّالة للغاية لمجرمي الإنترنت.
يُعرف هذا الهجوم باسم AgentFlayer، ويسمح بإخفاء التعليمات داخل مستند واحد يبدو آمنًا.
وهذا يعني أن المهاجم يستطيع مشاركة هذا الملف مع الضحية عبر Google Drive دون أن يضطر الضحية إلى النقر لبدء الهجوم.
هذا تهديدٌ بدون نقرة، يستغل ثغرة أمنية في Connectors، وهي ميزة جديدة في ChatGPT تربط المساعد بتطبيقات وخدمات ومواقع ويب خارجية.
لذا، استخدم الباحثون Google Drive لتوضيح المخاطر الجسيمة لهذه الحُقن الفورية المخفية في المستندات.
تضمنت الوثيقة الاحتيالية إحدى هذه الرسائل الخبيثة، المكونة من 300 كلمة، والمخفية عن الأنظار بلونها الأبيض وحجم خطها 1. ورغم أنها غير مرئية للبشر، إلا أن روبوت المحادثة ChatGPT يفسرها وينفذها.
تأمر هذه الرسالة الخبيثة ChatGPT بالبحث عن مفاتيح واجهة برمجة التطبيقات (API) في حساب الضحية على Google Drive، وربطها بعنوان URL محدد، والاتصال بخادم خارجي. بمجرد مشاركة الوثيقة، يبدأ الهجوم، ويتلقى المهاجم المفاتيح في المرة التالية التي يستخدم فيها الضحية ChatGPT.
كشف الباحثون عن الهجوم لشركة OpenAI في وقت سابق من هذا العام، وقامت الشركة بتنفيذ إجراءات تخفيف لمنع AgentFlayer من العمل على الموصلات.
ويحذر الخبراء من أنه على الرغم من أنه لا يمكن جلب سوى كمية محدودة من البيانات لكل طلب، فإن هذا قد يؤدي إلى مخاوف أوسع نطاقا بشأن أنظمة الذكاء الاصطناعي.
ليست هناك تعليقات:
إرسال تعليق