مديرة الذكاء الاصطناعي في AMD: Claude Code أصبح كسولًا ومنتقدًا بشدة
شهد نموذج الذكاء الاصطناعي Claude، الذي تطوره شركة Anthropic، قفزة هائلة في الإيرادات خلال الفترة الأخيرة، حيث تجاوزت تقديرات إيراداته السنوية 30 مليار دولار في مارس 2026. هذا الرقم يمثل نموًا صاروخيًا مقارنة بإيرادات بلغت 9 مليارات دولار فقط في عام 2025، مما يؤكد الاهتمام المتزايد بتقنيات الذكاء الاصطناعي التوليدي. إلا أن هذا الإنجاز التجاري لم يخلُ من التحديات، حيث واجهت Anthropic موجة من الانتقادات بشأن تراجع ملحوظ في جودة أداء نموذج Claude.
بدأ المستخدمون، ومعهم خبراء في المجال، يتساءلون عن قدرة Claude على التعامل مع المهام المعقدة، مشيرين إلى ما وصفوه بـ “تدهور” في مستوى التفكير والتحليل. هذه الملاحظات أثارت نقاشًا واسعًا في مجتمع المطورين حول مستقبل هذه التقنية الواعدة.
انتقادات حادة: Claude أصبح “كسولًا” بحسب AMD
في أحدث ما تم تداوله، وجهت Stella Laurenzo، مديرة مجموعة الذكاء الاصطناعي في شركة AMD، انتقادات قوية لنموذج Claude Code. عبر منشور على منصة GitHub، أكدت Laurenzo أن Claude Code لم يعد يقوم بالتحليل العميق الذي كان يتميز به سابقًا، ووصفت سلوكه الحالي بأنه أصبح “كسولًا”.
وأوضحت Laurenzo أن هذا التقييم لم يكن مجرد انطباع شخصي، بل نتاج تحليل دقيق اعتمد على مراجعة سجلات النظام على مدار أشهر. وأضافت أن هذا الرأي مشترك بين جميع الأعضاء الكبار في فريقها، مدعومًا بتجارب عملية ومواقف متكررة أثناء استخدام النظام.
تحليل معمق يكشف عن أنماط مقلقة
أجرى فريق Laurenzo تحليلًا شاملًا لـ 6,852 جلسة استخدام لـ Claude Code، شملت تفاعلات مع الأدوات و”كتل التفكير” (thinking blocks). كشفت النتائج عن مجموعة من السلوكيات السلبية المقلقة، والتي تمثلت في:
- تجنب تحمل مسؤولية إكمال المهام.
- إنهاء عملية التفكير قبل الوصول إلى حل نهائي.
- طلب صلاحيات إضافية بدلاً من إتمام المهمة مباشرة.
أكدت Laurenzo أن هذه السلوكيات تدل على تراجع واضح في قدرة النموذج على “التفكير العميق”. أصبح Claude يميل إلى اختيار الحلول الأسهل والأسرع، متجاهلًا الحلول الأكثر دقة وكفاءة. ووفقًا للتحليل، كانت هذه المشكلات شبه معدومة في 8 مارس، لكنها ارتفعت تدريجيًا لتصل إلى متوسط 10 حالات يوميًا بحلول نهاية ذلك الشهر.
تحديث غامض يثير الشكوك حول الشفافية
تزامنت هذه التطورات السلبية، بحسب Laurenzo، مع تحديث تقني لـ Claude Code في أوائل مارس. هذا التحديث تضمن إخفاء تفاصيل “التفكير الداخلي” للنموذج، مما يعني أن المستخدم لم يعد يرى خطوات التحليل التي يتبعها الذكاء الاصطناعي، بل يكتفي بالنتيجة النهائية فقط. ورأت Laurenzo أن هذا الانخفاض في مستوى الشفافية قد يكون السبب وراء تراجع عمق التفكير، حيث أصبح النظام يعتمد على تحليلات مبسطة ويفضل الحلول السريعة.
شكاوى المستخدمين تتصاعد
ليست هذه الانتقادات هي الأولى التي تواجه Claude Code. ففي فبراير الماضي، اشتكى مستخدمون من تقليص الشروحات التفصيلية في نسخة Claude Code 2.1.20. وأشار العديد منهم إلى أن النظام لم يعد يقدم معلومات كافية حول كيفية تنفيذه للمهام، مما أثار مخاوف بشأن فقدان أهمية الشفافية في عمل الذكاء الاصطناعي.
أزمة استهلاك التوكنز تزيد الطين بلة
تأتي هذه الاتهامات الموجهة لـ Claude Code في وقت تتزايد فيه شكاوى المستخدمين من الاستهلاك المرتفع لـ “التوكنز” (tokens). هذا الاستهلاك المفرط أصبح يعيق الاستفادة الكاملة من الخدمة. وفي 3 أبريل، حاولت Anthropic توضيح أن معظم هذا الاستهلاك يعود إلى أنماط استخدام محددة تتطلب كميات كبيرة من التوكنز، مؤكدة أنها تعمل على تحسين كفاءة النظام. من جانبها، اقترحت Laurenzo إضافة خيار “حد أقصى للتفكير” (maximum thinking tier) للمطورين الذين يتعاملون مع مهام معقدة، موضحة أن نموذج الاشتراك الحالي لا يلبي احتياجات الجميع.
AMD تبحث عن بدائل أخرى
في ختام تصريحاتها، كشفت Laurenzo أن فريقها في AMD قرر التحول إلى مزود آخر للذكاء الاصطناعي، يبدو أنه يقدم مستوى أداء وجودة أفضل. هذا القرار يشير بوضوح إلى فقدان الثقة الحالي في Claude Code. ويعكس هذا التحول تحديًا حقيقيًا تواجهه Anthropic، خاصة في ظل المنافسة الشرسة في سوق الذكاء الاصطناعي، حيث لا يعد النجاح مقتصرًا على الانتشار والإيرادات فقط، بل يعتمد بشكل أساسي على الحفاظ على جودة الأداء العالية وكسب ثقة المستخدمين.


تعليقات