-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

الذكاء الاصطناعي هنا ليبقى، سواء في البيئة التعليمية أو في مكان العمل، ولكن اعتمادًا على الشركة، قد تكون هناك حريات معينة أو لا تكون عند استخدام هذه الأنواع من الأدوات.
حسناً، هناك حالةٌ خاصةٌ انتشرت على نطاقٍ واسعٍ في الساعات الأخيرة على مواقع مثل Reddit، حيث ضُبط مهندسٌ وهو يستخدم ChatGPT لكتابة جزءٍ كبيرٍ من الشيفرة البرمجية التي كلفته بها الشركة.
بدلاً من طرده، كان ردُّ مدير التكنولوجيا في الفريق مثيراً للاهتمام.
وبحسب الشركة، ركز مدير التكنولوجيا بشكل أقل على استخدام أداة الذكاء الاصطناعي وأكثر على المخاطر الأخرى المرتبطة بها، مثل أمان البيانات وعدم فهم الكود الناتج.
لم يحظروا ChatGPT، بل قرروا وضع سياسة واضحة بشأن استخدام هذه الأنواع من الأدوات: "تحول التركيز إلى اعتبار الكود المُولّد بالذكاء الاصطناعي نقطة انطلاق، والتي يجب على المهندس مراجعتها واختبارها وفهمها بدقة قبل دمجها في قاعدة الكود."
ويعود ذلك إلى اكتشاف أن بعض المهندسين قد شاركوا كودًا ذا أولوية مع أدوات مثل ChatGPT، والتي سُرّبت لاحقًا.
لذا، استند قرار مدير التكنولوجيا هذا إلى الأمن، بالإضافة إلى الاستفادة من الإنتاجية التي توفرها هذه الأدوات، دون التخلي عن السيطرة أو الفهم العميق لهذا المنتج الجديد.
ويؤيد هذا الرأي العديد من الخبراء، مشيرين إلى أن صعود الذكاء الاصطناعي قد يكون مفيدًا، ولكنه لا ينبغي أبدًا أن يحل محل التفكير النقدي أو التجربة الإنسانية.
وهذا يعني، في هذه الحالة المحددة للمبرمجين، على الرغم من أنهم يستطيعون استخدام الذكاء الاصطناعي لتأكيد أو إنشاء كود معين، إلا أنه لا ينبغي أبدًا إنشاؤه بالكامل باستخدام هذا النوع من الأدوات، حتى لا يفقدوا السيطرة على هذا الكود.
مع ذلك، حذّر سام ألتمان، الرئيس التنفيذي لشركة OpenAI ورئيس ChatGPT، مؤخرًا من مخاطر مشاركة البيانات الحساسة مع هذه الأنواع من الأدوات.
وذكر تحديدًا أنه لا توجد قوانين خصوصية واضحة تحمي المعلومات المُدخلة عبر هذه الأنواع من المنصات.

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2025
تصميم و تكويد : بيكود