-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

قررت شركة OpenAI تعزيز أمن أنظمتها من خلال برنامج يدفع للباحثين والخبراء لاكتشاف العيوب في سلوك نماذج الذكاء الاصطناعي الخاصة بها.
يركز هذا البرنامج، المسمىSafety Bug Bounty ، على المخاطر الناشئة مثل التلاعب السريع أو إساءة استخدام الأنظمة المستقلة، على عكس برامج الأمن السيبراني التقليدية. والهدف منه هو اكتشاف المشكلات التي قد تنشأ في سيناريوهات واقعية، مثل حقن تعليمات خبيثة، أو تسريبات البيانات المحتملة، أو الإجراءات الضارة التي تنفذها الأنظمة الآلية.
تأتي هذه المبادرة في لحظة حاسمة، بعد إضافة ميزات جديدة ضمن نظام ChatGPT البيئي، مثل مكتبات المحتوى وأدوات الشراء المتكاملة.
يُكمّل هذا البرنامج نظام الأمان التقليدي لـ OpenAI، ولكنه يُضيف إليه نهجًا مبتكرًا: تحليل سلوك الذكاء الاصطناعي كما لو كان سطح هجوم جديدًا. ولكي تُعتبر الثغرة الأمنية صحيحة، يجب على الباحثين إثبات إمكانية إعادة إنتاجها باستمرار في نصف المحاولات تقريبًا.
بالإضافة إلى ذلك، تقبل OpenAI التقارير المتعلقة بكشف المعلومات الحساسة، بما في ذلك السلوك الداخلي للنماذج أو أنماط تفكيرها. كما تشمل التقارير الثغرات الأمنية التي تسمح للمستخدمين بتجاوز القيود أو المساس بسلامة المنصة.
مع ذلك، لا تُقبل جميع النتائج. تستبعد الشركة ما يُسمى بـ"الاختراقات البسيطة"، والثغرات الأمنية ذات التأثير المحدود، أو تلك التي لا تُقدم حلاً واضحاً أو نتائج عملية. ستتم مراجعة التقارير من قِبل فرق متخصصة في أمن وسلوك الذكاء الاصطناعي، وقد يتم توجيه بعضها إلى جهة أخرى حسب طبيعتها.
كما لا تستبعد OpenAI إطلاق برامج خاصة إضافية في المستقبل للتحقيق في مجالات حساسة بشكل خاص.

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2026
تصميم و تكويد : بيكود