ووفقًا للتقرير، يشمل هذا النشاط مجموعات مرتبطة بالصين وكوريا الشمالية وروسيا وإيران. تتضمن تعليمات المتسللين الهندسة الاجتماعية، وتحليل البيانات، والترجمة، والمساعدة في البرمجة، واختبار الثغرات الأمنية، وتصحيح الأخطاء عند تعطل الأدوات أثناء الاختراق. وبناءً على هذا الاكتشاف، يعتقد باحثو جوجل أن استخدام الذكاء الاصطناعي يُسرّع من تعديل البرمجيات الخبيثة ويُعزز الهجمات السيبرانية.
لتقديم عدة أمثلة على هذا الوضع، يصف التقرير نشاطًا مرتبطًا بالصين، حيث انتحل موظف في جوجل صفة خبير في الأمن السيبراني وضغط على منصة جيميني لأتمتة تحليل الثغرات الأمنية ووضع خطط اختبار محددة في سيناريو وهمي. وفي الوقت نفسه، استخدم موظف آخر منصة جيميني بشكل متكرر لأغراض تصحيح الأخطاء والبحث والتوجيه التقني المتعلق بالاختراقات.
علاوة على ذلك، تحذر شركة جوجل من استخراج النماذج واستخلاص المعرفة، حيث يقوم مخترقون لديهم صلاحية الوصول إلى واجهة برمجة التطبيقات (API) بقصف النظام بتعليمات لمحاكاة أدائه ومنطقه بهدف استخدام تلك المعرفة لتدريب نموذج ذكاء اصطناعي آخر.
ذكرت جوجل في التقرير أنها قامت بتعطيل حسابات المتسللين والبنية التحتية المرتبطة بإساءة استخدام Gemini الموثقة، وأضافت دفاعات محددة لمصنفات برنامج الدردشة الآلي، بل وأجرت اختبارات بناءً على التدابير الأمنية.
ذكرت جوجل في التقرير أنها قامت بتعطيل حسابات المتسللين والبنية التحتية المرتبطة بإساءة استخدام Gemini الموثقة، وأضافت دفاعات محددة لمصنفات برنامج الدردشة الآلي، بل وأجرت اختبارات بناءً على التدابير الأمنية.
بالنسبة لفرق الأمن، يرتبط الاستنتاج بافتراض أن الهجمات المدعومة بالذكاء الاصطناعي تتحرك بشكل أسرع، لذلك فهم بحاجة إلى تحسين تكرار الأدوات وتعديل أدلة الاستجابة.

ليست هناك تعليقات:
إرسال تعليق