لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT

لطالما اعتُبر الذكاء الاصطناعي رمزًا للدقة والموضوعية، لكن دراسة حديثة كشفت أن حتى أكثر أنظمته تطورًا، مثل GPT-3.5 وGPT-4 من شركة OpenAI، قد تقع في فخاخ التفكير البشري نفسها، بما في ذلك التحيزات المعرفية والأخطاء المنطقية.
الدراسة، التي أجراها باحثون من جامعات كندية وأسترالية، أظهرت أن روبوت الدردشة ChatGPT أظهر في 47% من الحالات سلوكيات مشابهة للتحيزات البشرية، مثل: تجنب المخاطرة، والثقة المفرطة، والتأثر بالنجاح.
ورغم تفوقه في حل المسائل الرياضية الواضحة، فإنه واجه صعوبة في المواقف التي تتطلب حكمًا ذاتيًّا، حيث ظهرت ردوده أحيانًا غير عقلانية، كما يحدث مع البشر.
ورغم أن GPT-4 أظهر مستوى أعلى من الاتساق مقارنة بالبشر، فقد أظهر أيضًا نزعة للتنبؤية الزائدة؛ ما يجعله أقل عرضة للقرارات العشوائية. لكن هذا الاتساق قد يكون سلاحًا ذا حدين، وفقًا للباحثين.
وقد علّق البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية “آيفي” للأعمال في كندا، قائلًا: “للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريًّا”.
ويشير الخبراء إلى أن هذه النتائج تؤكد أن الذكاء الاصطناعي ليس مجرد أداة محايدة، بل يحمل بصمات بشرية في طريقة تفكيره؛ ما يثير تساؤلات حول استخدامه في القرارات المهمة.