مديرة الذكاء الاصطناعي في AMD: Claude Code أصبح "كسولاً" وتراجع أداؤه
تواجه شركة Anthropic اتهامات متزايدة بتراجع أداء نموذجها للذكاء الاصطناعي Claude Code، حيث أعربت مديرة مجموعة الذكاء الاصطناعي في AMD، ستيلا لورينزو، عن قلقها الشديد من أن النموذج أصبح "كسولاً" وغير قادر على التفكير بعمق كما كان في السابق.
جاءت هذه الانتقادات الحادة على لسان لورينزو عبر منشور على GitHub، مؤكدة أن هذا التقييم لم يكن مجرد انطباع فردي، بل نتاج تحليل دقيق شمل آلاف الجلسات وسجلات النظام، وتوافقت ملاحظاتها مع فريقها الكبير الذي يشاركها نفس الرأي بناءً على تجارب عملية متكررة.
كشف تحليل 6,852 جلسة من Claude Code عن أنماط مقلقة، مثل تجنب المسؤولية، وإنهاء التفكير مبكرًا، وطلب أذونات غير ضرورية بدلًا من إكمال المهام. أشارت لورينزو إلى أن هذه السلوكيات تعكس تراجعًا واضحًا في "التفكير العميق"، حيث يميل النموذج إلى إيجاد الحلول الأسهل والأسرع بدلًا من الأكثر دقة وكفاءة، مشيرة إلى أن هذه المشكلات بدأت بالظهور بشكل ملحوظ في أواخر مارس.
ربطت لورينزو هذا التراجع بتحديث غامض تم إطلاقه في أوائل مارس، والذي أدى إلى إخفاء محتوى التفكير الداخلي للنموذج، مما قلل من شفافيته وجعله يعتمد على الحد الأدنى من التحليل. وتتزامن هذه الانتقادات مع شكاوى سابقة من المستخدمين حول تقليص الشروحات التفصيلية، وأزمة استهلاك التوكنز المرتفع، مما يزيد من الجدل حول جودة وأداء Claude Code.
في ظل هذه التحديات، كشفت لورينزو أن فريق AMD قرر التحول إلى مزود آخر يقدم أداءً أفضل، مما يسلط الضوء على المنافسة الشرسة في سوق الذكاء الاصطناعي وأهمية الحفاظ على جودة الأداء وثقة المستخدمين لتحقيق النجاح المستدام.







