مجلة عالم التكنولوجيا
مجلة تكنولوجية شاملة

3 طرق للذكاء الاصطناعي يستخدمها المخترقون في هجمات الأمن السيبراني

0 221

أوضح ثلاثة خبراء في الأمن السيبراني كيف يمكن استخدام الذكاء الاصطناعي والتعلم الآلي للتهرب من دفاعات الأمن السيبراني وجعل الاختراقات أسرع وأكثر كفاءة، وذلك خلال قمة الأمن السيبراني NCSA وNasdaq.

استضاف “كلفن كولمان”؛ المدير التنفيذي للتحالف الوطني للأمن الإلكتروني، المحادثة كجزء من الأمن القابل للاستخدام بعنوان”إحداث التغيير وقياسه في السلوك البشري” يوم الثلاثاء 6 أكتوبر.

وحضرت “إلهام طباسي”؛ رئيس مختبر تكنولوجيا المعلومات بالمعهد الوطني للمعايير والتكنولوجيا، التي كانت أحد المتحدثين في جلسة “الذكاء الاصطناعي والتعلم الآلي للأمن السيبراني.. الخير والشر والقبيح”، وقالت “طباسي”: “يمكن للمخترقين استخدام الذكاء الاصطناعي لتفادي الاكتشافات، والإخفاء في الأماكن التي لا يمكن العثور عليها، والتكيف تلقائيًا مع الإجراءات المضادة”.

وأوضح “تيم باندوس”؛ كبير مسؤولي أمن المعلومات في شركة “DigitalGuardian”: “إن الأمن السيبراني سيحتاج دائمًا إلى عقول بشرية لبناء دفاعات قوية ووقف الهجمات. الذكاء الاصطناعي هو الصاحب والمحللون الأمنيون وصائدو التهديدات هم الأبطال الخارقون”.

- فيما يلي ثلاث طرق يمكن من خلالها استخدام الذكاء الاصطناعي والتعلم الآلي في هجمات الأمن السيبراني:

3 طرق للذكاء الاصطناعي يستخدمها المخترقون في هجمات الأمن السيبراني

1- تسمم البيانات:

قالت”طباسي”: إن الجهات الفاعلة السيئة تستهدف أحيانًا البيانات المستخدمة لتدريب نماذج التعلم الآلي. تم تصميم تسمم البيانات للتلاعب بمجموعة بيانات التدريب للتحكم في سلوك التنبؤ لنموذج مدرب لخداع النموذج ليؤدي إلى أداء غير صحيح، مثل تصنيف رسائل البريد الإلكتروني العشوائية على أنها محتوى آمن”.

وتابعت: هناك نوعان من تسمم البيانات: الهجمات التي تستهدف توفر خوارزمية تعلم الآلة والهجمات التي تستهدف سلامتها،وتشير الأبحاث إلى أن تسمم مجموعة بيانات التدريب بنسبة 3% يؤدي إلى انخفاض الدقة بنسبة 11%، ومع هجمات الباب الخلفي، يمكن للمخترق إضافة مدخلات إلى خوارزمية لا يعرفها مصمم النموذج. يستخدم المخترق هذا الباب الخلفي لجعل نظام ML يخطئ في تصنيف سلسلة معينة على أنها حميدة في حين أنها قد تحمل بيانات سيئة.

وأضافت “طباسي”:”إن تقنيات بيانات التسمم يمكن نقلها من نموذج إلى آخر، فالبياناتهي الدم والوقود للتعلم الآلي، ويجب توجيه قدر كبير من الاهتمام للبيانات التي نستخدمها لتدريب النماذج كنماذج. وتتأثر ثقة المستخدم بالنموذج وجودة التدريب والبيانات التي تدخل فيه”.

وأشارت إلى أنالصناعة تحتاج إلى معايير وإرشادات لضمان جودة البيانات، وأن NIST تعمل على إرشادات وطنية للذكاء الاصطناعي الجدير بالثقة، بما في ذلك الإرشادات عالية المستوى والمتطلبات الفنية لمعالجة الدقة والأمان والتحيز والخصوصية وإمكانية الشرح.

2- شبكات الخصومة التوليدية:

شبكات الخصومة التوليدية (GANs) هي أساسًا نظامان للذكاء الاصطناعي يتنافسان مع بعضهما البعض -أحدهما يحاكي المحتوى الأصلي والآخر يكتشف أخطائه-ومن خلال التنافس ضد بعضهما البعض، يقومان بشكل مشترك بإنشاء محتوى مقنع بما يكفي لتمرير المحتوى الأصلي.

درب باحثو Nvidia نموذجًا فريدًا للذكاء الاصطناعي لإعادة إنشاء PAC-MAN ببساطة عن طريق مراقبة ساعات من اللعب، بدون محرك اللعبة، كما أوضحت ستيفاني كوندون على ZDNet.

قال “باندوس”: “إن المهاجمين يستخدمون شبكات GAN لتقليد أنماط حركة المرور العادية، وتحويل الانتباه بعيدًا عن الهجمات، والعثور على البيانات الحساسة وتسللها بسرعة”.

وأوضح: “إنهم يدخلون ويخرجون في غضون 30-40 دقيقة بفضل هذه القدرات،وبمجرد أن يبدأ المهاجمون في الاستفادة من الذكاء الاصطناعي والتعلم الآلي، يمكنهم أتمتة هذه المهام”.

يمكن أيضًا استخدام شبكات GAN لتكسير كلمات المرور، والتهرب من اكتشاف البرامج الضارة، وخداع التعرف على الوجه. كما وصف “توماس كليميك” في ورقة بعنوان “شبكات الخصومة التوليدية: ما هي ولماذا يجب أن نخاف؟”.

وتم تدريب نظام PassGAN الذي أنشأه باحثو التعلم الآلي على قائمة كلمات مرور قياسية في الصناعة وتمكن في النهاية من تخمين كلمات مرور أكثر من العديد من الأدوات الأخرى التي تم تدريبها على نفس مجموعة البيانات. وبالإضافة إلى إنشاء البيانات، يمكن لشبكات GAN إنشاء برامج ضارة يمكنها التهرب من أنظمة الكشف القائمة على التعلم الآلي.

وتابع “باندوس”:”إن خوارزميات الذكاء الاصطناعي المستخدمة في الأمن السيبراني يجب إعادة تدريبها بشكل متكرر؛ للتعرف على أساليب الهجوم الجديدة. ومع تطور الخصوم، علينا أن نتطور أيضًا”.

واستخدم التشويش كمثال: عندما يتم إنشاء جزء من البرامج الضارة في الغالب باستخدام رمز شرعي، يجب أن تكون خوارزمية ML قادرة على تحديد الشفرة الضارة بداخلها.

3- التلاعب بالروبوتات:

قال عضو اللجنة “جريج فوس”؛ كبير استراتيجيي الأمن السيبراني في VMware Carbon Black، إنه إذا كانت خوارزميات الذكاء الاصطناعي تتخذ قرارات، فيمكن التلاعب بها لاتخاذ قرار خاطئ.

وأضاف: “إذا فهم المهاجمون هذه النماذج، فيمكنهم إساءة استخدام هذه النماذج”، لافتًا إلى الهجوم الأخير على نظام تداول العملات المشفرة الذي تديره الروبوتات.

وتابع: “دخل المهاجمون واكتشفوا كيفية قيام الروبوتات بخداع الخوارزمية، يمكن تطبيق هذا عبر تطبيقات أخرى. إن هذه التقنية ليست جديدة ولكن هذه الخوارزميات تتخذ الآن قرارات أكثر ذكاءً؛ ما يزيد من خطر اتخاذ قرارسيئ”.

المصدر: Techrepublic: 3 ways criminals use artificial intelligence in cybersecurity attacks

الرابط المختصر :

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.