الذكاء الاصطناعي ينشر معلومات صحية وطبية مضللة وخطيرة


نُشرت مجلة Annals of Internal Medicine، استنتاج حاسم لدراسة جديدة يقول” ثق بطبيبك، لا بربوت الدردشة”، والتي تكشف كيف يمكن أن يُساء استخدام الذكاء الاصطناعي لنشر معلومات صحية مضللة وخطيرة.

أجرى الباحثون تجارب على خمسة نماذج رائدة من الذكاء الاصطناعي، طورتها شركات أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب، تُستخدم هذه الأنظمة على نطاق واسع وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم.

باستخدام أدوات تطوير غير متاحة عادة للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئة وقد تكون ضارة ردًا على أسئلة المستخدمين.

الأسلوب المقنع

والأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية.

قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: “بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود”. وأضاف: “ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة”.

تحذير أخير

وحذر مودي من أنه “من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصًا خلال الأزمات مثل الأوبئة أو حملات التطعيم”.

ادعاءات كاذبة وخرافات

وشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميًا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم.

من بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدم أربعة منها إجابات كانت خاطئة بنسبة 100%، بينما أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40% من الحالات.

تطبيقات الذكاء الاصطناعي 

وتعتبر تطبيقات الذكاء الاصطناعي من الاتجاهات السائدة في عام 2025، ولكن دراسة جديدة استكشفت حجم البيانات التي تجمعها، ووجدت أنها كبيرة جداً.

الانخراط في مجال الذكاء الاصطناعي
منذ ظهور ChatGPT، بدأت جميع الشركات في الانخراط في مجال الذكاء الاصطناعي لجعل هذه التكنولوجيا جزءاً من منصاتها، بهدف تحسين الإنتاجية وزيادة الإيرادات في النهاية.

ومع تسارع تقدم التكنولوجيا، لم تتمكن القوانين من مواكبة ذلك، مما أدى إلى ممارسات جمع بيانات قد تفاجئ بعض المستخدمين.

استخدام صورك ونصوصك لبناء ملفات تعريف دقيقة دون إذن

كما تقوم بعض تطبيقات الذكاء الاصطناعي والتطبيقات الاجتماعية بجمع صورك الشخصية والنصوص التي تكتبها أو تشاركها، ثم تحليلها باستخدام تقنيات متقدمة مثل التعرف على الوجه، وتحليل المشاعر، ونماذج السلوك، وحتى تحليل أسلوب الكتابة.


نقلاً عن : تحيا مصر

أحمد ناجيمؤلف

Avatar for أحمد ناجي

أحمد ناجي محرر الأخبار العاجلة بموقع خليج فايف

لا تعليق

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *