صلاحيات بلا ضوابط.. «مايكروسوفت» تحذر من مخاطر وكلاء الذكاء الاصطناعي

تحذير من مايكروسوفت.. صورة معبرة مولدة بالذكاء الاصطناعي
تحذير من مايكروسوفت.. صورة معبرة مولدة بالذكاء الاصطناعي

حذّرت شركة مايكروسوفت الأمريكية، في أحدث تقاريرها الأمنية. من تنامي المخاطر المرتبطة باستخدام وكلاء الذكاء الاصطناعي داخل بيئات العمل.

في حين أكدت أن منح هذه الأنظمة صلاحيات واسعة دون ضوابط صارمة قد يحوّلها إلى «عملاء مزدوجين» داخل المؤسسات.

ويتزامن التحذير مع التسارع الملحوظ في تبنّي تقنيات الذكاء الاصطناعي عبر مختلف القطاعات.

صلاحيات مفرطة قد تتحول إلى ثغرات

أوضحت الشركة أن بعض الأنظمة الذكية تحصل على وصول واسع إلى البيانات والأنظمة الداخلية. دون أن يقابل ذلك مستوى كافٍ من الحماية.

هذا الخلل يفتح الباب أمام استغلال جهات خبيثة لتلك الأنظمة عبر توجيه تعليمات مضلِّلة أو إدخال محتوى خادع، بما قد يحوّل أدوات الدعم والإنتاجية إلى نقاط ضعف أمنية داخل المؤسسة.

انتشار واسع داخل الشركات الكبرى

كشف التقرير عن أن أكثر من 80% من شركات قائمة فورتشن 500 تعتمد على أدوات ذكاء اصطناعي مطوّرة عبر منصّات منخفضة أو دون تعليمات برمجية.

وهو ما يسهّل التطوير لكنه قد يضعف الجوانب الأمنية إذا لم يُدار بحوكمة دقيقة.

صورة معبرة بالذكاء الاصطناعي
صورة معبرة بالذكاء الاصطناعي

 

كما أظهرت دراسة شملت أكثر من 1700 مختص في أمن البيانات أن 29% من الموظفين يستخدمون أدوات ذكاء اصطناعي في العمل دون موافقة رسمية من إدارات تقنية المعلومات.

كيف يمكن تضليل الأنظمة الذكية؟

بيّنت الشركة أن الباحثين رصدوا سيناريوهات يتم فيها تضليل الأنظمة الذكية عبر إدخال تعليمات ضارة داخل محتوى يبدو عاديًا. أو من خلال التلاعب بطريقة عرض المهام لتغيير سلوك النظام.

ومع امتلاك هذه الأنظمة صلاحيات واسعة قد يؤدي أي توجيه خاطئ إلى كشف بيانات حسّاسة أو تنفيذ أوامر غير مقصودة.

«انعدام الثقة» إطار أمني مقترح

لمواجهة التحديات أوصت الشركة بتطبيق نموذج «انعدام الثقة» (Zero Trust)، القائم على مبدأ «لا تثق أبدًا.. تحقّق دائمًا». بما يشمل التحقّق المستمر من صلاحيات الوصول ومراقبة سلوك الأنظمة والمستخدمين داخل الشبكة وخارجها.

بين الفرص والمخاطر

ورغم التحذيرات أكدت مايكروسوفت أن الذكاء الاصطناعي يظل فرصة كبرى لتعزيز الإنتاجية وتحسين كفاءة سير العمل داخل المؤسسات.

لكنها لفتت إلى أن تحقيق الاستفادة القصوى يتطلّب حوكمة واضحة، وإدارة دقيقة للصلاحيات، وتطبيق معايير أمنية متقدّمة تضمن ألّا تتحوّل أدوات الذكاء الاصطناعي إلى مصدر تهديد داخلي غير متوقّع.

الرابط المختصر :