دراسة شركات الذكاء الاصطناعي لا تفي بمعايير السلامة العالمية

دراسة شركات الذكاء الاصطناعي لا تفي بمعايير السلامة العالمية

اعتبر معهد “Future of Life” (مستقبل الحياة) أن ممارسات الأمان لدى شركات الذكاء الاصطناعي الكبرى، بما في ذلك Anthropic وOpenAI وxAI وميتا، لا تزال “أدنى بكثير من المعايير العالمية الناشئة”.

جاء ذلك في إصدار جديد للمعهد من “مؤشر السلامة في الذكاء الاصطناعي”، نُشر الأربعاء.

وأوضح المعهد أن لجنة مستقلة من الخبراء خلصت، خلال تقييمها لإجراءات السلامة، إلى أنه على الرغم من تسابق الشركات لتطوير أنظمة فائقة الذكاء، فإن أياً منها لا يمتلك استراتيجية قوية للسيطرة على هذه النماذج المتقدمة.

تأتي هذه النتائج في ظل تزايد القلق العام بشأن التأثيرات الاجتماعية للأنظمة الأكثر ذكاءً من البشر، القادرة على التفكير المنطقي، واتخاذ قرارات معقدة.

ورُبطت بعض حالات الانتحار، وإيذاء النفس، بتفاعلات مع روبوتات محادثة تعمل بالذكاء الاصطناعي.

ولا يُظهر سباق تطوير الذكاء الاصطناعي أي تباطؤ؛ إذ تضخ شركات التكنولوجيا الكبرى مئات المليارات من الدولارات لتوسيع جهودها في مجال التعلم الآلي.

وقال الأستاذ في معهد ماساتشوستس للتكنولوجيا، ورئيس معهد Future of Life، ماكس تيجمارك: “رغم الضجة المثارة في الآونة الأخيرة بشأن القرصنة القائمة على الذكاء الاصطناعي، وأخطار دفع هذه الأنظمة المستخدمين إلى الإصابة بالذهان، أو إيذاء النفس، لا تزال شركات الذكاء الاصطناعي الأميركية أقل تنظيماً من المطاعم، وتواصل ممارسة ضغوط ضد معايير السلامة الملزمة”.

ومعهد Future of Life منظمة غير ربحية تُحذر من الأخطار الوجودية المحتملة للذكاء الاصطناعي، تأسس عام 2014، وكان الرئيس التنفيذي لشركة تسلا، إيلون ماسك، من أوائل الداعمين له.

وفي رد آلي على ما يبدو، قالت شركة xAI إن “وسائل الإعلام القديمة تكذب”.

ولم ترد شركات Anthropic وOpenAI وGoogle DeepMind وميتا وZ.ai وDeepSeek وAlibaba Cloud على طلبات “رويترز” للتعليق على نتائج الدراسة.

نقلاً عن: الشرق

أحمد ناجي محرر الأخبار العاجلة بموقع خليج فايف