دراسة الذكاء الاصطناعي يدفعنا المبالغة تقدير قدراتنا العقلية
خلصت دراسة علمية حديثة إلى أن استخدام أدوات الذكاء الاصطناعي قد يُكسب الأفراد شعوراً زائفاً بالثقة في قدراتهم العقلية، مما يؤدي إلى المبالغة في تقدير أدائهم المعرفي.
الدراسة، التي أعدّها فريق بحثي من جامعة “آلتو” الفنلندية، أظهرت أن هذه الظاهرة تنطبق على المستخدمين كافة، بمن فيهم من يمتلكون فهماً متقدماً لتقنيات الذكاء الاصطناعي.
وأشارت نتائج الدراسة، المنشورة في دورية Computers in Human Behavior، إلى أن “تأثير دانينغ-كروجر” المعروف في علم النفس، والذي يفترض أن الأشخاص الأقل كفاءة يميلون للمبالغة في تقييم قدراتهم، بينما يُقلل الأذكياء من شأن مهاراتهم، لا ينطبق على مستخدمي النماذج اللغوية الكبيرة مثل ChatGPT.
بل على العكس، أظهرت الدراسة أن الأشخاص، الذين يعتقدون أنهم أكثر فهماً للذكاء الاصطناعي، بالغوا في تقدير أدائهم بصورة أكبر.
مفارقة معرفية
وقال المشرف على الدراسة البروفيسور روبن فيلش: “وجدنا أنه عندما يتعلق الأمر باستخدام الذكاء الاصطناعي، يختفي تأثير دانينج-كروجر، بل الأكثر إثارة للدهشة أن زيادة الوعي بالتقنيات ترتبط بثقة مفرطة في القدرات الذاتية”.
وأضاف: “كنا نتوقع أن الأشخاص المطلعين على الذكاء الاصطناعي سيكونون أفضل في التفاعل مع الأنظمة، وكذلك في تقييم أدائهم باستخدامها، لكن الواقع أثبت خلاف ذلك”.
وتؤكد الدراسة على تزايد القلق العلمي من المخاطر المصاحبة للاعتماد المفرط على الذكاء الاصطناعي، لا سيما ما يتعلق بتدهور القدرة على التحقق من المعلومات بشكل مستقل، واحتمالات “تفريغ” مهارات الأفراد الوظيفية، نتيجة الاعتماد الكامل على الأنظمة الذكية.
ورغم أن الدراسة أظهرت أن أداء الأفراد يتحسن عند استخدام ChatGPT، فإن الأمر المقلق أنهم جميعاً بالغوا في تقدير هذا التحسن.
عزوف عن التفكير
وأوضحت الباحثة دانييلا دا سيلفا فرنانديز، المشاركة في إعداد الدراسة، أن “أدوات الذكاء الاصطناعي الحالية لا تشجع على التفكير التأملي أو الوعي بالعمليات الذهنية، ولا تتيح للمستخدمين فرصة التعلم من أخطائهم.. نحن بحاجة إلى منصات تُحفّز المستخدمين على التفكير والمراجعة الذاتية”.
وصمّم الباحثون تجربتين شارك فيهما نحو 500 شخص، طُلب منهم حلّ مسائل من اختبارات “اختبار القبول في كليات الحقوق” الأميركية (LSAT) باستخدام الذكاء الاصطناعي.
وتم تقسيم المشاركين إلى مجموعتين: الأولى استخدمت أدوات الذكاء الاصطناعي، والثانية لم تستخدمها، وبعد كل مهمة، طُلب من المشاركين تقييم أدائهم، مع وعد بتقديم مكافآت إضافية لمن يقدّم تقييماً دقيقاً.
وقال فيلش: “هذه المهام تتطلب مجهوداً معرفياً كبيراً، ومع اعتماد الناس بشكل يومي على الذكاء الاصطناعي، أصبح من الطبيعي أن يُكلّف هذا النوع من المهام للأدوات الذكية بسبب صعوبتها”.
وأظهرت البيانات أن معظم المستخدمين لم يطرحوا على ChatGPT سوى سؤال واحد لكل مسألة، غالباً عبر نسخ السؤال ولصقه داخل النظام، ثم الاكتفاء بالإجابة دون مراجعتها أو التحقق منها.
وأضاف فيلش: “حللنا سلوك المشاركين، ووجدنا أنهم وثقوا تماماً بأن الذكاء الاصطناعي سيحلّ كل شيء، دون محاولة لإعادة التفاعل أو التفكير النقدي.. هذا السلوك يُعرف بـ(الإزاحة المعرفية)، حين يُنقل التفكير بالكامل إلى الأداة الذكية”.
وأوضح أن هذا المستوى الضحل من التفاعل قلّل من قدرة المشاركين على ضبط ثقتهم بأنفسهم بدقة، واقترح أن فرض تعدد التفاعلات قد يكون حلاً لتحفيز التفكير التأملي وتعزيز الوعي الذاتي لدى المستخدم.
وتوصي الدراسة بتطوير أدوات الذكاء الاصطناعي لتكون أكثر تفاعلاً مع المستخدمين. وقالت فرنانديز: “يمكن للذكاء الاصطناعي أن يطلب من المستخدمين شرح منطقهم في الإجابة، ما يجبرهم على التفكير النقدي، ومواجهة أوهام المعرفة الزائفة، والتفاعل بشكل أعمق مع التقنية”.
نقلاً عن: الشرق
