“OpenAI”  تفرض قيودًا جديدة على قدرات “ChatGPT” الاحترافية

“OpenAI”  تفرض قيودًا جديدة على قدرات “ChatGPT” الاحترافية

أعلنت شركة OpenAI أنها ستقيّد قدرات روبوت المحادثة ChatGPT، بحيث لن يكون بإمكانه تقديم نصائح طبية أو قانونية أو مالية مخصّصة للمستخدمين؛ وذلك بسبب مخاوف تتعلق بالمسؤولية القانونية. 

وبموجب السياسة الجديدة، سيصبح ChatGPT الآن أداة تعليمية فقط وليس مستشاراً محترفاً، ولن يُسمَح له بتقديم تشخيصات طبية، أو وصف أدوية بجرعات معينة. كذلك، لن يقدّم إستشارات قانونية أو توجيهات تقديم شكوى أو نصائح بيع أو شراء محدّدة.

السبب الرئيسي وراء هذا التقييد يعود إلى الخوف من تبعات قانونية محتملة إذا تصرف المستخدمون على أساس توافر نصائح احترافية من الذكاء الاصطناعي، ثم تحدث لاحقًا أخطاء أو نتائج سلبية. 

بالإضافة لذلك، يأتي القرار في سياق تشديد الضوابط التنظيمية على استخدام تقنيات الذكاء الاصطناعي في المجالات الحساسة.

دور محدود

في هذا الإطار الجديد، يصبح دور ChatGPT محدوداً إلى شرح المبادئ الأساسية والآليات العامة، وتوجيه المستخدمين إلى استشارة متخصصين مرخّصين عند الحاجة.

كما سيمنع الوصول إلى محتوى يعدّ نصيحة احترافية مثل وصف دواء معين، أو اقتراح شراء الأسهم، أو صياغة شكوى قانونية مفصّلة. 

وهذا التغيير يعني أن المستخدمين لم يعد بإمكانهم الاعتماد على ChatGPT لاتخاذ قرارات حاسمة في الأمور الصحية أو القانونية أو المالية دون الرجوع إلى مختصّين، وذلك لتجنّب توصيات غير دقيقة أو غير مناسبة لحالة فردية.

خلفية وتاريخ

تأتي هذه الخطوة ضمن مسار تصاعدي لإدراك الشركات والمشرعين بأن الذكاء الاصطناعي، رغم إمكاناته الكبيرة، يستوجب حدوداً واضحة في ما يخص تقديم النصائح المهنية. 

وتتحرك OpenAI بهذا التعديل بخطوة استباقية لتجنب التعرض لمطالبات قضائية أو متطلبات تنظيمية صارمة في المستقبل.

باختصار، سيتحول ChatGPT من مستشار محتمل إلى أداة تعليمية مساعدة بهدف تقليل مسؤوليتها القانونية وتأمين الاستخدام الآمن للتطبيق.

ويعدّ هذا التغيير مؤشراً على مرحلة جديدة في تعامل الشركات مع الذكاء الاصطناعي في المجالات الحساسة.

نقلاً عن: إرم نيوز

أحمد ناجي محرر الأخبار العاجلة بموقع خليج فايف