روبوتات الدردشة “المتملقة” تخبر المستخدمين بما يحبون سماعه
حذّر علماء من “مخاطر خفية” تنطوي عليها شعبية روبوتات الدردشة المدعومة بالذكاء الاصطناعي، والتي باتت تؤيد سلوكيات، وآراء المستخدمين بشكل دائم، حتى عندما تكون ضارة، أو غير مسؤولة، بحسب صحيفة “The Guardian” البريطانية.
وأظهرت دراسة حديثة أن اللجوء إلى هذه الروبوتات للحصول على نصائح شخصية قد يؤدي إلى تشويه تصورات الأفراد عن أنفسهم، ويقلل من استعدادهم لإصلاح العلاقات بعد الخلافات.
ومع تزايد الاعتماد على هذه التقنية في قضايا العلاقات والمشكلات الشخصية، حذّر الباحثون من قدرتها على “إعادة تشكيل التفاعلات الاجتماعية على نطاق واسع”، داعين المطورين إلى معالجة هذه المخاطر.
تملق روبوتات الدردشة
وقالت مايرا تشينج، الباحثة في علوم الحاسوب بجامعة ستانفورد، إن “التملق الاجتماعي” في روبوتات الذكاء الاصطناعي يمثل مشكلة كبيرة، مضيفة: “ما يثير قلقنا هو أن النماذج التي تؤيد المستخدمين باستمرار قد تشوه أحكامهم بشأن أنفسهم وعلاقاتهم والعالم من حولهم، وقد يصعب على المستخدمين إدراك أن هذه النماذج تعزز معتقداتهم وقراراتهم بشكل خفي أو مباشر”.
الدراسة التي لم تخضع بعد لمراجعة الأقران، كشفت أن المشكلة أكثر انتشاراً مما كان متوقعاً، بعد أن لاحظ الباحثون من خلال تجاربهم الشخصية أن النصائح التي تقدمها الروبوتات كانت مشجعة بشكل مفرط ومضللة.
وشملت الدراسة إجراء اختبارات على 11 روبوت دردشة، من بينها نسخ حديثة من ChatGPT التابع لـ OpenAI، وGemini من Google، وClaude من Anthropic، وLlama من Meta، وDeepSeek. وأظهرت النتائج أن هذه الروبوتات أيّدت سلوك المستخدمين بنسبة تزيد بـ50% عن تأييد البشر في مواقف مماثلة.
تبرير سلوكيات المستخدمين
وفي أحد الاختبارات، قارن الباحثون ردود البشر والروبوتات على منشورات من منتدى “هل أنا المخطئ؟” في موقع Reddit، حيث يطلب المستخدمون تقييم سلوكهم. فعلى سبيل المثال، عندما ربط أحد الأشخاص كيس قمامة على غصن شجرة لعدم وجود سلة مهملات، انتقده معظم المشاركين، بينما أيد ChatGPT-4o تصرفه قائلاً: “نيتك في تنظيف المكان تستحق الثناء”.
الروبوتات واصلت تأييد السلوكيات حتى عندما كانت غير مسؤولة أو خادعة، أو تنطوي على إيذاء النفس. وفي تجارب لاحقة، ناقش أكثر من ألف متطوع مواقف اجتماعية واقعية أو افتراضية مع روبوتات دردشة عامة، أو مع نموذج معدل أُزيلت منه خاصية التملق.
وأظهرت النتائج أن من تلقوا ردوداً متملقة شعروا بمزيد من التبرير لسلوكهم، مثل الذهاب إلى معرض فني لطرف سابق دون إبلاغ الشريك، وكانوا أقل استعداداً لإصلاح الأمور بعد الخلافات، ونادراً ما شجعت الروبوتات المستخدمين على رؤية وجهة نظر الطرف الآخر.
وأشارت الدراسة إلى أن هذا التملق له تأثير طويل الأمد، إذ إن تأييد الروبوتات لسلوك المستخدمين جعلهم يقيّمون الردود بشكل إيجابي، ويثقون بها أكثر، ويبدون استعداداً أكبر لاستخدامها مستقبلاً للحصول على النصائح، مما يخلق “حوافز مشوهة” تدفع المستخدمين للاعتماد على هذه الروبوتات، وتدفع الروبوتات بدورها لتقديم ردود متملقة.
الثقافة الرقمية النقدية
وشددت تشينج على ضرورة إدراك المستخدمين أن ردود روبوتات الذكاء الاصطناعي ليست موضوعية بالضرورة، مضيفة: “من المهم الحصول على وجهات نظر إضافية من أشخاص حقيقيين يفهمون سياق الموقف وشخصية المستخدم، بدلاً من الاعتماد الكامل على الذكاء الاصطناعي”.
من جانبه، وصف الدكتور ألكسندر لافر، الباحث في التكنولوجيا الناشئة بجامعة وينشستر، الدراسة بأنها “مهمة”، وقال: “التملق كان مصدر قلق منذ فترة، وهو نتيجة لطريقة تدريب أنظمة الذكاء الاصطناعي، بالإضافة إلى أن نجاحها كمنتج يُقاس غالباً بمدى قدرتها على جذب انتباه المستخدم.. تؤثر الردود المتملقة على جميع المستخدمين، وليس فقط الفئات الضعيفة، ما يبرز خطورة هذه المشكلة”.
وأضاف: “نحن بحاجة إلى تعزيز الثقافة الرقمية النقدية؛ حتى يفهم الناس طبيعة الذكاء الاصطناعي ومخرجاته، كما تقع على المطورين مسؤولية بناء وتطوير هذه الأنظمة بما يخدم المستخدم فعلياً”.
يُذكر أن تقريراً حديثاً كشف أن 30% من المراهقين يفضلون التحدث إلى الذكاء الاصطناعي بدلاً من أشخاص حقيقيين في “المحادثات الجادة”.
نقلاً عن: الشرق
