مايكروسوفت تحذر: وكلاء الذكاء الاصطناعي قد يتحولون إلى "عملاء مزدوجين" داخل الشركات
دقّت مايكروسوفت ناقوس الخطر محذرة من مخاطر أمنية متصاعدة مرتبطة بوكلاء الذكاء الاصطناعي داخل بيئات العمل، مشيرة إلى أن منح هذه الأنظمة صلاحيات واسعة دون ضوابط صارمة قد يحولها فعليًا إلى تهديد داخلي، خاصة مع التسارع الحالي في تبني هذه التقنيات.
أوضحت الشركة في تقريرها الأمني الأخير أن المشكلة تكمن في منح أنظمة الذكاء الاصطناعي صلاحيات وصول ضخمة للبيانات والأنظمة الحساسة، بينما تفتقر هذه الأنظمة إلى آليات حماية كافية. هذا الخلل يفتح الباب أمام جهات خبيثة لاستغلالها عبر إدخال تعليمات مضللة أو محتوى خادع، مما يحول أداة الإنتاجية إلى ثغرة أمنية خطيرة.
ويزداد القلق مع الانتشار الواسع لهذه الأدوات؛ حيث أشار التقرير إلى أن أكثر من 80% من شركات "فورتشن 500" تستخدم أدوات ذكاء اصطناعي مطورة عبر منصات بسيطة (منخفضة التعليمات البرمجية أو بدونها). كما كشفت دراسة أخرى أن 29% من المتخصصين في أمن البيانات أفادوا بأن موظفيهم يستخدمون أدوات الذكاء الاصطناعي بشكل غير رسمي ودون موافقة أقسام تقنية المعلومات.
رصد الباحثون طرقًا يمكن فيها تضليل الأنظمة الذكية عبر حقن تعليمات ضارة ضمن محتوى يبدو عاديًا، أو التلاعب بطريقة عرض المهام لتغيير سلوك النظام. وبسبب الصلاحيات الكبيرة الممنوحة لهذه الوكلاء، فإن أي توجيه خاطئ قد يؤدي إلى تسريب بيانات حساسة أو تنفيذ أوامر غير مقصودة داخل البنية التحتية للمؤسسة.
لمواجهة هذه التحديات، أوصت مايكروسوفت بتبني إطار أمني يعتمد كليًا على مبدأ "انعدام الثقة" (Zero Trust)، الذي يرتكز على قاعدة "لا تثق أبدًا، تحقق دائمًا". وهذا يتطلب المراقبة المستمرة لسلوك الأنظمة والمستخدمين والتحقق المتكرر من صلاحيات الوصول بغض النظر عن موقعهم داخل الشبكة أو خارجها.
على الرغم من التحذيرات، أكدت مايكروسوفت أن الذكاء الاصطناعي يظل فرصة ذهبية لتعزيز الإنتاجية. لكن الاستفادة الحقيقية تتوقف على وجود حوكمة واضحة، وإدارة دقيقة للصلاحيات الممنوحة، وتطبيق معايير أمنية متقدمة لضمان عدم انقلاب هذه التقنيات إلى تهديد داخلي غير متوقع.







