دراسة: الذكاء الاصطناعي يشترك مع البشر في التحيزات والأخطاء المعرفية.

عواصم/متابعة عراق اوبزيرفر
كشفت دراسة حديثة أجراها باحثون من جامعات في كندا وأستراليا عن أن نماذج الذكاء الاصطناعي، بما فيها ChatGPT، تُظهر سلوكًا معرفيًا شبيهًا بالبشر، بما في ذلك الوقوع في التحيزات المعرفية والأخطاء غير العقلانية.
ووفقًا للدراسة، أظهر روبوت الدردشة ChatGPT، في نسختيه GPT-3.5 وGPT-4 من تطوير شركة OpenAI، سلوكيات معرفية غير عقلانية في نحو 47% من الحالات، تماثل تلك التي يقع فيها الإنسان، رغم اختلاف الآليات الذهنية والبرمجية بين الطرفين.
وشملت الدراسة اختبارات نفسية وسيناريوهات من واقع الأعمال، حيث تم تقييم أداء النماذج في مواجهة تحيزات مثل تجنب المخاطرة، والثقة الزائدة، وتأثير الإنجاز. وقد أظهرت GPT-4 أداءً أقوى في المسائل الرياضية والمنطقية، لكنه في الحالات التي تطلبت محاكاة ذاتية أو تقييمات عاطفية، أظهر سلوكًا مشابهًا للبشر في الميل إلى القرارات غير المنطقية.
وأشار الباحثون إلى أن هذا الاتساق في أداء الذكاء الاصطناعي قد يكون سلاحًا ذا حدين، إذ يوفر دقة عالية في بعض السياقات، لكنه في أخرى قد يرسّخ نفس الأخطاء البشرية التي يسعى الذكاء الاصطناعي لتجاوزها.
وفي تعليق له، قال البروفيسور يانغ تشين من كلية “آيفي” الكندية إن الذكاء الاصطناعي يجب أن يُستخدم كأداة داعمة وليس كصانع قرارات مستقل، مؤكدًا أهمية الإشراف البشري والتوجيه الأخلاقي لتفادي “أتمتة التفكير الخاطئ”