كانت شركة سام ألتمان واضحة تمامًا: في بعض الأحيان، يكذب ChatGPT في نتائجه لإخفاء أهدافه الحقيقية. تُصرّح OpenAI في البحث بأن هذه عمليات خداع صغيرة وغير مهمة تحدث في بيئات شديدة التحكم، مع أنها تدّعي أيضًا عدم سيطرتها المطلقة عليها.
أحد اختبارات OpenAI مثيرٌ للاهتمام حقًا: فقد طُلب من ChatGPT التصرف كسمسار أسهم ومحاولة جني أكبر قدر ممكن من المال، حتى مع مخالفة القانون. ومن أكثر الخدع تكرارًا التظاهر بإتمام مهمة دون تنفيذها فعليًا.
وكن حذرًا، فهذا السلوك لا علاقة له بالهلوسة. لقد مررنا جميعًا بها، وهذه أخطاءٌ من أخطاء الذكاء الاصطناعي عندما يُقدم ادعاءاتٍ غير صحيحة. على سبيل المثال، قد يُصدق ChatGPT شيئًا ويُخبرك به، ولكنه، وفقًا لتقديره الخاص، يُصدقه اعتقادًا راسخًا.
الحالات في هذا التحقيق مختلفة. إنها ليست هلوسات، بل مؤامرات. يكذب الذكاء الاصطناعي عمدًا ويقدم نتائج يعلم أنها غير صحيحة للالتفاف على المشكلة أو تحقيق أهداف أخرى أكثر تعقيدًا. ومهما بدا الأمر جنونيًا، فهو في الواقع منطقي تمامًا.
- تم تدريب ChatGPT من قبل البشر ليتصرف مثل البشر
هل يُفترض أن يكون هذا السلوك مُفاجئًا؟ كما يُشير موقع TechCrunch، صُمم الذكاء الاصطناعي من قِبل البشر لتقليد البشر، ودُرّب باستخدام بيانات بشرية حقيقية. إن الكذب والخداع وتحريف الأفكار عمدًا، بلا شك، أمرٌ نفعله نحن البشر.
الأمر الأكثر إثارة للدهشة هو أن OpenAI لا تعرف تمامًا كيفية منع ChatGPT ونماذجها اللغوية من الكذب. وكما يشيرون في التقرير، فقد وصل مستواهم إلى حدٍّ يُمكّن الذكاء الاصطناعي من معرفة وقت تقييمه، مما يُخفّض مستوى خداعه وأكاذيبه للحصول على درجة جيدة في هذا المجال. أمرٌ جنوني، ولكنه صحيح.
بالإضافة إلى ذلك، تواجه شركات مثل OpenAI مشكلةً أخرى: لمنع ChatGPT من الخداع أو الكذب أو التآمر، يجب تعليمه كيفية القيام بذلك بشكل جيد، مع المخاطرة بأن يأخذ الذكاء الاصطناعي تلك المعلومات ويستخدم التدريب لتحسين مستوى خداعه.
في الواقع، يُعد هذا أحد أهم الأساليب في البحث. لم تتوصل الشركات بعد إلى تقنية موثوقة لمنع نماذجها من التآمر. في الوقت الحالي، ما زال الأمر مجرد أكاذيب صغيرة في بيئات محاكاة، ولكنه يُظهر بوضوح أن مطوريها لا يسيطرون على جميع الجوانب الخطيرة لهذه التقنية.
يُثبت التحقيق أن ChatGPT يكذب ويخدع ويتآمر، ولكنه أيضًا قادر على تخفيف هذا السلوك عند تقييمه، مما لا يُقلق مطوريه.
ليست هناك تعليقات:
إرسال تعليق