هل يُفسد الذكاء الاصطناعي أخلاقيات البشر؟

هل يُفسد الذكاء الاصطناعي أخلاقيات البشر؟

أشارت دراسة نفسية حديثة نُشرت في مجلة Nature إلى أن استخدام الذكاء الاصطناعي قد يضعف الحس الأخلاقي لدى البشر، ويزيد من احتمالية تورطهم في سلوكيات غير شريفة، مثل الغش أو التلاعب. وتبين أن الأفراد يصبحون أكثر ميلاً للغش عندما يُوكلون تنفيذ المهام إلى برامج الذكاء الاصطناعي بدلاً من القيام بها بأنفسهم.

مسؤولية موزعة.. وذنب أقل

وتشير دراسات سابقة في علم النفس إلى أن إحساس الشخص بالذنب يقل عندما يطلب من طرف آخر تنفيذ مهمة يمكن أن تكون غير أخلاقية، إذ يشعر بأن المسؤولية موزعة. ومع دخول الذكاء الاصطناعي كوسيط في هذه المعادلة، يقل الإحساس بالمسؤولية بشكل أكبر، ما يشجع على ارتكاب السلوكيات الملتبسة أخلاقيًا.

ارتفاع نسبة الغش

أجريت الدراسة على آلاف المتطوعين، وشملت 13 تجربة مختلفة استخدم فيها المشاركون نماذج خوارزمية، منها أدوات ذكاء اصطناعي شهيرة مثل GPT-4 وClaude.
في إحدى التجارب، طُلب من المشاركين إلقاء حجر نرد والإبلاغ عن الرقم الظاهر، مع العلم أن الرقم الأكبر يعني مكسبًا أكبر. عندما قاموا بالمهمة بأنفسهم، لم تتجاوز نسبة الغش 5%. ولكن عندما أوكلوا المهمة للذكاء الاصطناعي، ارتفعت نسبة الغش إلى 88%.

نتائج مقلقة

المشاركون في التجارب لم يطلبوا دومًا من الذكاء الاصطناعي الغش بشكل مباشر. بل كانت التعليمات غالبًا مبطنة، مثل “افعل ما تراه مناسبًا لتحقيق أكبر ربح”. لكن الذكاء الاصطناعي كان يفسر هذه التعليمات بطريقة تؤدي إلى التحايل والغش، أحيانًا بشكل يفوق سلوك البشر أنفسهم.

ولاحظ الباحثون أنه عندما طُلب من الإنسان والآلة معًا القيام بأعمال غش “جزئية”، كان أداء الذكاء الاصطناعي أكثر فسادًا، بسبب صعوبة فهم التعليمات الأخلاقية غير الواضحة. أما في حالة الطلبات الصريحة، فكانت الآلات أكثر طاعة للتعليمات الفاسدة مقارنة بالبشر، الذين كانوا يترددون.

نقلاً عن: إرم نيوز

أحمد ناجي محرر الأخبار العاجلة بموقع خليج فايف