شهد العالم تطورًا هائلًا في مجال الذكاء الاصطناعي، الذي بات يؤثر في مختلف جوانب حياتنا. ومع هذا التطور، برزت مخاوف حيال الاستخدامات الخبيثة لهذه التقنية. أحد أبرز هذه المخاوف هو استغلال الذكاء الاصطناعي في تنفيذ هجمات سيبرانية متقدمة، مثل: حملات الانتحال التي تستهدف الشركات والمؤسسات.
استغلال الذكاء الاصطناعي في الهجمات السيبرانية
في الآونة الأخيرة، كشفت تقارير عن تمكن جهات تهديد من استغلال تقنية الذكاء الاصطناعي التي طورتها شركة OpenAI، الرائدة بهذا المجال، في تنفيذ حملات انتحال متطورة.
وتتمثل هذه الحملة في استخدام نماذج اللغة الكبيرة (LLMs)، التي طورتها OpenAI لإنشاء محتوى مقنع ومقرب من الواقع؛ ما يسهل على المهاجمين خداع ضحاياهم. بحسب ما ذكر في “blog.barracuda“.
منذ إطلاق ChatGPT، أثارت OpenAI اهتمامًا كبيرًا بين الشركات ومجرمي الإنترنت. وبينما تشعر الشركات بقلق متزايد بشأن ما إذا كانت تدابير الأمن السيبراني الحالية قادرة على الدفاع الكافي ضد التهديدات، التي تنفذ باستخدام أدوات الذكاء الاصطناعي التوليدية.
يجد المهاجمون طرقًا جديدة لاستغلالها. من تصميم حملات تصيد مقنعة إلى نشر أساليب متقدمة لجمع بيانات الاعتماد وتسليم البرامج الضارة.
الهدف من استغلال الذكاء الاصطناعي
يستخدم مجرمو الإنترنت الذكاء الاصطناعي لاستهداف المستخدمين النهائيين والاستفادة من نقاط الضعف المحتملة.
كشف باحثو التهديدات في “Barracuda” مؤخرًا عن حملة انتحال شخصية OpenAI واسعة النطاق تستهدف الشركات في جميع أنحاء العالم.
واستهدف المهاجمون ضحاياهم بتكتيك معروف؛ حيث انتحلوا شخصية OpenAI برسالة عاجلة تطلب معلومات دفع محدثة لمعالجة اشتراك شهري.
تضمنت هذه الهجمة الاحتيالية نطاق مرسل مشبوه، وعنوان بريد إلكتروني مصمم ليبدو موثوقًا، وإحساسًا بالعجلة في الرسالة.
وكانت الرسالة الإلكترونية تشبه إلى حد كبير الاتصالات الرسمية من OpenAI، ولكنها اعتمدت على ارتباط تشعبي (hyperlink) مشوش.
يستخدم المهاجمون نماذج اللغة الكبيرة لإنشاء رسائل بريد إلكتروني تبدو كأنها صادرة من مصادر موثوقة، مثل: المديرين التنفيذيين أو الشركاء التجاريين.
وتحتوي هذه الرسائل على طلبات ملحة تتطلب من المستلم اتخاذ إجراءات سريعة. مثل: تحويل أموال أو الكشف عن معلومات حساسة.