مجلة عالم التكنولوجيا
مجلة تكنولوجية شاملة

مواجهة نارية بين تقنية “Deepfake” والذكاء الاصطناعي

0 317

يتم هذه الأيام تنفيذ الهجمات الإلكترونية الأكثر نجاحًا وفتكًا من قِبل شبكات إجرامية عالية الاحترافية؛ حيث أصبحت هذه المنظمات الإجرامية بارعة جدًا في الاستفادة من أدوات الذكاء الاصطناعي (AI) وأدوات التعلم الآلي (ML)، ما يجعل من الصعب للغاية على مؤسسات أمن معلومات التكنولوجيا مواكبتها، بالإضافة لكونها في صدارة المعرضين لهذه التهديدات.

يعمل مجرمو الإنترنت على استخدام الذكاء الاصطناعي والتعلم الآلي لاستغلال الثغرات الأمنية، مثل سلوك المستخدم للوصول إلى أنظمة وبيانات الأعمال القيمة، من الأمثلة المثالية على هذه الأنواع من التهديدات تقنية Deepfake؛ وذلك لكونها واقعية ويصعب اكتشافها، كما أنها مدهشة في إنشاء التزييف لأشخاص حقيقيين.

وتم استنكار Deepfake بسبب الضرر الشخصي الذي تسببه من خلال مقاطع الفيديو المزيفة للمشاهير، ونشر الأخبار المزيفة، ونظريات المؤامرة، والخدع والاحتيال المالي.

ومن المرجح أن تؤثر القضايا الأمنية ذات الصلة بالأنباء العميقة والأخبار المزيفة في الانتخابات الأمريكية، ووجد الباحثون في جامعة نيويورك مؤخرًا أن تقنية Deepfake ستساهم على الأرجح في مقدار التضليل المرتبط بالحملات السياسية.

وقت بداية المواجهة

لا بد من وجود نهج جديد، يساعد في التخفيف من الهجمات المتطورة، حتى لو كان ذلك يتطلب استخدام نفس الأدوات التي تصنع تلك الهجمات لمكافحتها؛ لهذا تحاول شركات التكنولوجيا البقاء في الصدارة من خلال إنشاء تقنيات الذكاء الاصطناعي التي تحارب الهجمات، بما في ذلك Deepfake، على سبيل المثال، أصدرت جوجل العام الماضي الآلاف من مقاطع الفيديو بتقنية الـ (Deepfake) لمساعدة الباحثين في إنشاء أدوات لتحديدها ومكافحتها.

لا تتطابق المناهج الأمنية التقليدية التي تركز على تأمين نقاط النهاية الثابتة للكمبيوتر مع التهديدات الإلكترونية الديناميكية والمعقدة اليوم، ولم يعد يكفي الاعتماد على تحديثات الأمان اليدوية وتصحيحات نظام التشغيل لحماية بيانات الشركة على نقاط النهاية المحمولة أيضًا.

لا تثق أبدًا.. تحقق دائمًا

تفرض التهديدات الأمن السيبراني المتطورة على الشركات أن تعيد التفكير تمامًا في نهجها الأمني لحماية الأجهزة والتطبيقات والبيانات والخدمات السحابية في عالم أقل محيطًا؛ حيث لا يمكن الوثوق بأي شيء، ويعرف هذا المفهوم أيضًا باسم “انعدام الثقة”.

يجب على متخصصي تكنولوجيا المعلومات التأكد من أن أي شخص أو أي شيء يحاول الوصول إلى بيانات الشركة؛ حيث يتم التحقق منه بشكل كامل قبل الحصول على حق الوصول. وفيما يلي الركائز الأساسية الأربعة لعدم الثقة:

-التحقق من كل مستخدم. خصص بعض الوقت للتأكد من أن يعرف كل مستخدم عن نفسه؛ حيث يمكن للمنظمات ضمان وصول الأشخاص المناسبين إلى موارد من خلال استخدام طرق مصادقة مختلفة.

-التحقق من صحة كل جهاز؛ حيث باستخدام الذكاء الاصطناعي والتعلم الآلي، يمكن للمؤسسات أن تحدد على الفور ما إذا كان الجهاز مُخترقًا، بنفس الطريقة تمامًا التي يتم استخدام الذكاء الاصطناعي والتعلم الآلي لإنشاء deepfake، فإن لديهم امتيازاتهم ويمكن استخدامها لمراقبة ما إذا كان الجهاز تأثر، وهذا يضمن أن الأجهزة الآمنة والمتوافقة فقط هي التي يمكنها الوصول إلى تطبيقات الأعمال والبيانات والخدمات السحابية.

-تقييد الوصول والامتياز، تحتاج المؤسسات إلى تحليل مجموعة شاملة من السمات للتحقق من المصداقية قبل منح الإذن للوصول، ويتطلب ذلك القدرة على التحقق من صحة الجهاز، وتحديد سياق المستخدم، والتحقق من تفويض التطبيق، ومن الشبكة، واكتشاف التهديدات ومعالجتها قبل منح الوصول الآمن إلى جهاز أو مستخدم.

ويبدو أن هذه مهمة معقدة وتستغرق وقتًا طويلًا، ولكن الأدوات التي تعزز الذكاء الاصطناعي والتعلم الآلي يمكن أن تقطع شوطًا طويلًا للتأكد من عدم تأثر إنتاجية المستخدم أبدًا.

 يمكن للمنظمات استخدام أدوات الذكاء الاصطناعي والتعلم الآلي لتحليل جميع أنواع معلمات الأمان، بما في ذلك موقع المستخدم والأجهزة وعناوين IP وعدد تسجيلات الدخول والمزيد؛ حيث يسمح هذا لهذه الأدوات بتحديد خط أساس للسلوك العادي وتنبيه تكنولوجيا المعلومات فورًا عند اكتشاف نشاط حساب غير عادي، يمكن إرسال إشعار إلى المستخدم أو يمكن عزل الجهاز تمامًا حتى تتم معالجة التهديد. بناءً على مستوى الخطر الحالي.

الرابط المختصر :

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.