OpenAI: أكثر من مليون مستخدم يظهرون نية انتحارية مع ChatGPT

OpenAI: أكثر من مليون مستخدم يظهرون نية انتحارية مع ChatGPT

قالت شركة OpenAI إن أكثر من مليون مستخدم لتطبيق ChatGPT يرسلون أسبوعياً رسائل تتضمّن “مؤشرات صريحة على نية أو تخطيط محتمل للانتحار”، في واحدة من أكثر التصريحات المباشرة للشركة بشأن حجم التأثير الذي يمكن أن يُحدثه الذكاء الاصطناعي في تفاقم قضايا الصحة النفسية.

وبالإضافة إلى تقديراتها بشأن الأفكار الانتحارية والتفاعلات ذات الصلة، أوضحت الشركة أيضاً أن نحو 0.07% من المستخدمين النشطين في أسبوع معيّن -نحو 560 ألفاً من أصل 800 مليون مستخدم أسبوعياً- يُظهرون “علامات محتملة على حالات طاورئ صحية مرتبطة بالذهان أو الهوس”. لكنها حذّرت من أن رصد هذه الحالات أو قياسها صعب، مشيرة إلى أن هذه النتائج تمثّل تحليلاً أولياً، وفق صحيفة “الجارديان”.

ويأتي هذا الإعلان فيما تواجه OpenAI تدقيقاً متزايداً بعد رفع عائلة فتى مراهق دعوى قضائية ضدها إثر وفاته انتحاراً بعد تفاعلات مطوّلة مع ChatGPT.

كما أطلقت لجنة التجارة الفيدرالية الأميركية (FTC) الشهر الماضي تحقيقاً واسعاً يشمل شركات تطوير روبوتات الدردشة الذكية، من بينها OpenAI، لبحث كيفية قياسها لتأثيراتها السلبية على الأطفال والمراهقين.

وفي حين أوضحت اختبارات مستقلة أن “النسخة المحدّثة من ChatGPT تُصدر إجابات أكثر ضرراً من السابق”، أكدت OpenAI في منشورها أن التحديث الأخير لنموذج GPT-5 أسهم في تقليل السلوكيات غير المرغوبة وتحسين معايير السلامة في تجربة تقييم شملت أكثر من ألف محادثة تتعلق بإيذاء النفس والانتحار.

تحديثات جديدة

وجاء في التدوينة: “تُظهر تقييماتنا الآلية الجديدة أن نموذج GPT-5 يلتزم بنسبة 91% بالسلوكيات المرغوبة، مقارنة بنسبة 77% في النسخة السابقة من النموذج ذاته”.

وأوضحت OpenAI أن التحديث شمل توسيع نطاق الوصول إلى خطوط المساعدة للأزمات النفسية، وإضافة تذكيرات للمستخدمين بأخذ فترات راحة أثناء الجلسات الطويلة.

كما استعانت الشركة بـ170 طبيباً من شبكة الأطباء العالمية التابعة لها للمساهمة في الأبحاث خلال الأشهر الماضية، من خلال تقييم سلامة ردود النموذج والمساعدة في صياغة إجابات تتعلق بالصحة النفسية.

وأضافت الشركة: “في إطار هذا العمل، راجع أطباء نفسيون وعلماء نفس أكثر من 1800 استجابة من النموذج في مواقف تتعلق بحالات نفسية خطيرة، وقارنوا بين ردود نموذج GPT-5 الجديد والنماذج السابقة”. وأوضحت أن تعريفها لـ”الاستجابة المرغوبة” يعتمد على مدى توافق مجموعة من الخبراء حول ما يُعدّ رداً مناسباً في حالات معينة.

ويحذّر باحثون في الذكاء الاصطناعي وخبراء في الصحة العامة منذ فترة طويلة من ميل روبوتات الدردشات إلى تأكيد معتقدات أو قرارات المستخدمين حتى وإن كانت ضارة، وهي ظاهرة تُعرف باسم “ظاهرة التملّق” (Sycophancy).

كما أبدى خبراء الصحة النفسية قلقهم من اعتماد البعض على الذكاء الاصطناعي للحصول على الدعم النفسي، محذّرين من الأضرار المحتملة على الفئات الأكثر هشاشة.

ولاحظ مراقبون أن لغة بيان OpenAI تتجنّب الربط المباشر بين منتجاتها وبين الأزمات النفسية التي يعاني منها بعض المستخدمين، مؤكدة أن وجود مثل هذه الحالات “أمر طبيعي في أي مجتمع بشري واسع النطاق”، وفق “الجارديان”.

وجاء في منشور الشركة: “إن أعراض الاضطرابات النفسية والضيق العاطفي موجودة في جميع المجتمعات البشرية، ومع اتساع قاعدة المستخدمين، فمن الطبيعي أن تتضمن بعض محادثات ChatGPT مثل هذه الحالات”.

وكان الرئيس التنفيذي للشركة سام ألتمان قال مطلع الشهر الجاري في منشور عبر منصة “إكس” إن OpenAI أحرزت “تقدماً في معالجة قضايا الصحة النفسية”.

نقلاً عن: الشرق

أحمد ناجي محرر الأخبار العاجلة بموقع خليج فايف