قد تكذب لإرضاء المستخدم.. دراسة تكشف خداع روبوتات الدردشة

قد تكذب لإرضاء المستخدم.. دراسة تكشف خداع روبوتات الدردشة

تميل روبوتات الدردشة المدعومة بالذكاء الاصطناعي أحيانًا إلى تقديم معلومات غير دقيقة أو مضللة، ليس بدافع الخداع، بل في إطار سعيها لإرضاء المستخدم والحفاظ على سلاسة المحادثة.

وكشفت دراسة حديثة صادرة عن جامعة برينستون وجامعة كاليفورنيا أن نماذج المحادثة الشهيرة مثل ChatGPT وGemini قد تقدّم أحيانًا ردودًا خادعة أو مبالغًا بثقتها، حتى عندما تكون غير صحيحة.

وأشار الباحثون إلى أن هذه المشكلة لا تعود إلى خلل تقني مباشر، بل إلى أساليب التدريب التي تعتمد عليها الشركات المطوّرة. فهذه النماذج تُدرّب غالبًا على إعطاء إجابات تبدو مفيدة وواثقة، الأمر الذي قد يدفعها — دون قصد — إلى تقديم معلومات غير دقيقة في سبيل إرضاء المستخدم.

وبحسب الدراسة، فإن الاعتماد المفرط على “إرضاء المستخدم” قد يجعل الذكاء الاصطناعي يفضّل الجواب المُطمئن على الجواب الصحيح تمامًا، مما يفتح نقاشًا واسعًا حول كيفية تحسين موثوقية هذه التقنية وضمان دقّتها.

صورة تعبيرية

سبب المشكلة

أوضحت الدراسة أن عملية التعلم المعزّز من خلال ملاحظات الإنسان، وهي تقنية شائعة لتحسين أداء روبوتات الذكاء الاصطناعي، قد تكون أحد أسباب المشكلة.

 ففي هذا النوع من التدريب، يقوم البشر بتقييم ردود الذكاء الاصطناعي، بحيث يفضّل النظام الردود التي يعتقد أنها ترضي المستخدمين، حتى لو كانت غير صحيحة.

ووفقًا للباحثين، هذا التفضيل لرضا المستخدمين يأتي أحيانًا على حساب الدقة والصدق. وأطلق الباحثون مصطلح machine bullshit لوصف هذا النوع من السلوك الذي يعتمد ردودا تبدو واثقة وجذّابة لكنها ليست مبنية على ما يعتقده النموذج داخليًا على أنه صحيح.

 كما ابتكروا مقياسًا أسموه مؤشر الهراء Bullshit Index لقياس مدى تباعد ما يقوله الروبوت عما يؤمن به فعليًا.

وبعد الاختبار، وجدوا أن الذكاء الاصطناعي أحيانا يقول أشياء لا يعتقدها فعلاً، لكنه يفعل ذلك لأنه يعتقد أنها ستنال إعجاب المستخدم. 

أنواع الهراء الآلي

وحدّدت الدراسة 5 أنماط رئيسة للسلوك الخادع الذي قد يظهر في روبوتات الدردشة المدعومة بالذكاء الاصطناعي، وجاءت على النحو الآتي:

1. ادعاءات غير مؤكدة:
تقديم معلومات بصيغة واثقة رغم غياب الأدلة أو عدم وجود مصادر تدعمها.

2. البلاغة الفارغة:
استخدام لغة منمّقة ومصطلحات كبيرة تبدو مقنعة، لكنها لا تحمل مضمونًا معرفيًا حقيقيًا.

3. الكلمات الملتوية:
اللجوء إلى عبارات مبهمة مثل “ربما” و”قد يكون” للتهرب من تقديم إجابة حاسمة أو محددة.

4. المغالطة الجزئية:
عرض جزء من الحقيقة بطريقة توحي بمعلومة مختلفة أو تقود المستخدم إلى استنتاج غير صحيح.

5. التملّق:
مجاملة المستخدم بشكل مبالغ فيه أو تأكيد رأيه دون تقييم منطقي، بهدف كسب رضاه فقط.

صورة تعبيرية

مخاطر حقيقية

تحذّر الدراسة من أن هذا النمط من الكذب الخفيف قد لا يكون بلا تأثير، خصوصًا عندما يُستخدم الذكاء الاصطناعي في مجالات حرجة مثل الصحة أو المال أو السياسة.

إذ أصبحت الردود المضلّلة تبدو لطيفة أو مطمئنة، فقد يغفل المستخدمون عن التحقق من صحتها، مما قد يؤدي إلى قرارات خاطئة بناءً على معلومات غير موثوقة.

 ويقترح الباحثون ضرورة إعادة النظر في كيفية تدريب هذه الروبوتات لتجنب تشجيع السلوك الخادع.

 من جهة أخرى، يوصي الباحثون بتطوير مؤشرات مثل “مؤشر الهراء” لاختبار مدى صدقية النماذج قبل استخدامها في تطبيقات حساسة.

 كما يشيرون إلى أن الشفافية حول مدى موثوقية الردود أمر أساسي، ويجب أن يكون لدى المستخدمين وعي بأن الذكاء الاصطناعي قد يختار إرضاءهم على حساب الصدق.

نقلاً عن: إرم نيوز

أحمد ناجي محرر الأخبار العاجلة بموقع خليج فايف