نشير هنا إلى ما يُسمى بـ"هلوسات الذكاء الاصطناعي"، وهي شائعة جدًا في هذه الروبوتات. فعندما يُقدّم ChatGPT أو غيره من نماذج الذكاء الاصطناعي معلومات خاطئة، يُعرف ذلك بالهلوسة. وقد يرتكب الذكاء الاصطناعي هذه الأخطاء، التي ذكرناها في الردود، لأسباب مختلفة. أحيانًا يكون الأمر مجرد انحراف بسيط أو زلة تبدو غير ضارة، ولكن قد نواجه أيضًا ردودًا مُضللة ومُختلقة.
على أي حال، هذا أمر لا مفر منه إذا تفاعلنا مع منصات مثل ChatGPT أو منافسيها لفترة كافية. وإذا استخدمنا الإجابات التي نحصل عليها هنا في العمل أو الدراسة، فقد نُعرّض أنفسنا للمشاكل إذا اعتمدنا كليًا على إجابات الذكاء الاصطناعي من OpenAI.
في هذه المرحلة، يمكننا القول إنه لتجنب الوقوع في مشاكل عند استخدام الذكاء الاصطناعي قدر الإمكان، فإن أفضل ما يمكننا فعله هو اكتشاف هذه الأخطاء فورًا. بمعنى آخر، يكمن السر في إدراك أن الهلوسة قد تظهر في أي لحظة. لذا، من الأهمية بمكان معرفة الدلائل التي تشير إلى أننا نتعامل مع إحدى هذه الحالات.
كيف تعرف ما إذا كانت استجابة ChatGPT مجرد هلوسة؟
ولهذا السبب سنعرض لكم في هذه السطور بعض المؤشرات الأكثر شيوعًا التي ستسمح لنا باكتشاف أن برنامج ChatGPT AI يعاني من الهلوسة أو يرتكب خطأ في تلك اللحظة.
- إجابات محددة دون مصادر موثوقة.
من أكثر جوانب التخمينات المقلقة في الذكاء الاصطناعي أنها غالبًا ما تتضمن تفاصيل تبدو دقيقة، ولكن دون ذكر مصادرها. نتحدث هنا عن تواريخ وأسماء وتفاصيل أخرى تجعلها تبدو موثوقة، ولكنها غير موثقة. قد نرى أجزاءً من معلومات حقيقية عن شخص ما ممزوجة بسرد مختلق. هنا، من الضروري التحقق من أي تفصيل قد يسبب مشاكل إذا لم تُذكر مصادره.
- الثقة المفرطة في الرد.يجب أن نشك أيضًا إذا رد الذكاء الاصطناعي بنبرة ثقة مفرطة. قد يكون هذا دليلاً على تخمينات من جانبه. صُممت نماذج مثل ChatGPT وغيرها لتقديم ردود بأسلوب سلس وحازم. هذه الثقة قد تجعل المعلومات المضللة تبدو موثوقة حتى لو كانت تفتقر إلى الأساس. إذا رد بتصريح قاطع حول مواضيع مثل العلوم أو الطب، على سبيل المثال، فيجب علينا التحقق من الحقائق.
- اقتباسات يستحيل التحقق منها.
تُعد الاقتباسات والمراجع وسيلة ممتازة لتأكيد صحة ما يقوله ChatGPT. مع ذلك، قد يزودنا الذكاء الاصطناعي أحيانًا بمراجع تبدو موثوقة، لكن هذه المصادر غير موجودة في الواقع. هذا النوع من الوهم يُعدّ إشكاليًا بشكل خاص في السياقات الأكاديمية، لذا ينبغي تجاهل هذه المعلومات.
- أسئلة المتابعة المتناقضة.
إذا تناقض ChatGPT مع نفسه، فقد يكون هناك خطأ ما. لهذا السبب تُعدّ أسئلة المتابعة مفيدةً للغاية. بما أنّ الذكاء الاصطناعي التوليدي لا يمتلك قاعدة بيانات مُدمجة، فقد يُناقض نفسه بتقديم إجابات أكثر تفصيلًا. يتجلّى هذا غالبًا عندما يُركّز سؤال المتابعة على ادعاء سابق، إذ نرى أنّه مُتناقض.


ليست هناك تعليقات:
إرسال تعليق