مثل إطلاق Chat GPT من شركة Open AI، أواخر عام 2022، طفرة في برمجيات الذكاء الاصطناعي؛ حيث فتح الباب على مصراعيه للتنافس في إنتاج وتدريب الذكاء الاصطناعي. التي تعرف بنماذج اللغة الكبيرة.
ومنذ ذلك الحين تتنافس الشركات على ابتكار وتحسين أداء نماذج ذكاء اصطناعي جديدة في تطبيقات عدة. وظهرت تنافسية شديدة على بيانات التدريب لتحسين أداء تلك النماذج إلى المستوى المطلوب.
بيانات تدريب الذكاء الاصطناعي
يقصد ببيانات التدريب تلك المعلومات المستخدمة في تعليم النموذج كيفية أداء المهمة المنوط به أداءها. وكلما زاد حجم البيانات المستخدمة فى التدريب أنتج ذلك نموذجًا أكثر دقة وكفاءة.
ويمكن أن تكون تلك البيانات أصواتًا أو نصوصًا أو صورًا أو فيديوهات أو غيرها تبعًا للهدف النهائي الذي يرجى من النموذج القيام به.
وتمتلك تلك البيانات أهمية خاصة؛ حيث تحدد استجابة النموذج للمدخلات المختلفة وبالتالي طريقة عمله كليًا.
تسميم البيانات
تسميم البيانات هو هجوم إلكتروني يتم من خلاله حقن بيانات ضارة أو مضللة في مجموعات بيانات تدريب الذكاء الاصطناعي.
ويهدف هذا الهجوم إلى تضليل النماذج واستنباط نتائج منحرفة أو متحيزة أو ضارة. وأيضًا تمثل هذه الهجمات خطرًا متمثلًا في إنشاء أبواب خلفية للاستغلال الخبيث لأنظمة الذكاء الاصطناعي أو التعلم الآلي.
ويعد مجال إنتاج وتدريب الذكاء الاصطناعي أحد أسرع المجالات التقنية تطورًا؛ حيث تتلاحق علميات تسميم البيانات وكذلك الإجراءات المضادة لها.
وتحظى هذه الهجمات باهتمام كبير من مطوري تقنيات الذكاء الاصطناعي والمؤسسات المعتمدة على تلك النماذج. خاصة وأن أنظمة الذكاء الاصطناعي أصبحت أكثر تكاملًا مع البنية التحتية الحيوية والحياة اليومية.
مخاطر تسميم البيانات
وفقًا لتقرير صدر الشهر الماضي عن شركة الاستخبارات المدارة Nisos ، يستخدم المسممون أنواعًا مختلفة من هجمات تسميم البيانات.
وتتدرج تلك الهجمات بدءًا من التسمية الخاطئة وإقحام البيانات إلى الأساليب الأكثر تطورًا مثل تسميم split-view وحتى إضافة بابًا خلفيًا للتحكم بالنموذج أو الوصول إليه.
ويكشف تقرير Nisos عن التطور السريع في هذا المجال. حيث يطور المهاجمون تقنيات أكثر استهدافًا وأقل قابلية للكشف. ويخلص التقرير إلى ضرورة إيجاد طرق تقنية وتنظيمية وحتى سياسية لمكافحة هذا النوع من الهجمات.
وأفاد محلل البيانات البارز في شركة Nisos؛ باتريك لافلين Patrick Laughlin، بأن حتى التسميم على نطاق صغير، والذي قد لا يؤثر على ما يزيد على 0.001% من بيانات التدريب، يمكنه أن يكون له نتائج كارثية على سلوك نماذج الذكاء الاصطناعي النهائية.
كما يمكن أن تكون لهجمات تسميم البيانات عواقب بعيدة المدى في مختلف القطاعات، مثل الرعاية الصحية، والتمويل، والأمن القومي.
وقال Laughlin: “إن هذا يؤكد ضرورة الجمع بين التدابير التقنية القوية والسياسات التنظيمية واليقظة المستمرة؛ للتخفيف من حدة هذه التهديدات بفاعلية”.
التدابير الأمنية الحالية غير كافية
وأشار إلى أن دراسة الأمن السيبراني الحالية والمتعلقة بهذه الهجمات تؤكد الحاجة إلى حواجز حماية أفضل.
وفيما توفر قواعد الأمن السيبراني الحالية الأساس، يشير التقرير إلى الحاجة إلى استراتيجيات جديدة لمكافحة تهديدات تسميم البيانات المتطورة.
وأضاف Laughlin: “يسلط هذا التقرير الضوء على الحاجة إلى أنظمة الكشف عن التهديدات بمساعدة الذكاء الاصطناعي، وتطوير خوارزميات التعلم القوية بطبيعتها، وتنفيذ تقنيات متقدمة مثل blockchain لضمان سلامة البيانات”.
ويؤكد التقرير أيضًا أهمية أنظمة التعلم الآلي والدفاع التكيفي التي تحافظ على الخصوصية. ويمكن لهذه الأنظمة التعلم والاستجابة للهجمات الجديدة.
وحذر من أن هذه القضايا تمتد إلى ما هو أبعد من الشركات والبنية الأساسية. حيث تمثل هذه الهجمات مخاطر أوسع نطاقًا؛ حيث يمكن أن تؤثر على مجالات عدة للبنية التحتية الحيوية.
وتشمل تلك البنية التحتية أنظمة الرعاية الصحية والمركبات ذاتية القيادة والأسواق المالية والأمن القومي والتطبيقات العسكرية.
وأضاف أن “التقرير يشير أيضًا إلى أن هذه الهجمات يمكن أن تؤدي إلى تآكل ثقة الجمهور في تقنيات الذكاء الاصطناعي وتفاقم القضايا المجتمعية مثل نشر المعلومات المضللة والتحيزات”.
حوادث تسميم بيانات حدثت بالفعل
ويذكر التقرير عدة أمثلة على تسميم البيانات مثل الهجوم على مرشح البريد العشوائي (spam filter) في Gmail عام 2016، والذي سمح للمهاجمين بتجاوز المرشح وإرسال رسائل بريد إلكتروني ضارة.
ومن الأمثلة البارزة الأخرى اختراق روبوت المحادثة Tay التابع لشركة Microsoft عام 2016، والذي تسبب في ردود فعل مسيئة وغير لائقة بعد التعرض لبيانات تدريب ضارة.
ويشير التقرير أيضًا إلى نقاط الضعف التي تم إثباتها في أنظمة المركبات ذاتية القيادة. والهجمات على أنظمة التعرف على الوجه، والنقاط الضعيفة المحتملة في مصنفات التصوير الطبي ونماذج التنبؤ بالسوق المالية وغيرها.
استراتيجيات للتخفيف من هجمات تسميم البيانات
يوصي تقرير Nisos بعدة استراتيجيات للتخفيف من حدة هجمات تسميم البيانات. ومن بين أهم وسائل الدفاع اعتماد تقنيات قوية للتحقق من صحة البيانات وتطهيرها. واستخدام المراقبة والتدقيق المستمرين لأنظمة الذكاء الاصطناعي.
وقال Laughlin: “تقترح الدراسة أيضًا استخدام تدريب العينة العدائية، Adversarial Sample Training؛ لتحسين قوة النموذج، وتنويع مصادر البيانات، والاستثمار في برامج توعية المستخدمين وتعليمهم وتنفيذ ممارسات التعامل الآمن مع البيانات”.
واقترح أن يقوم مطورو الذكاء الاصطناعي بالتحكم في مصادر مجموعات البيانات وعزلها والاستثمار في الدفاعات البرمجية وأنظمة الكشف عن هجمات التسميم، بمساعدة الذكاء الاصطناعي.
التحديات المستقبلية
وفقًا للتقرير، من المتوقع أن تثير الاتجاهات المستقبلية قلقًا متزايدًا. وكما هو الحال مع استراتيجيات الهجوم الإلكتروني الأخرى، فإن المهاجمون يتعلمون بسرعة ويتقنون الابتكار.
ويسلط التقرير الضوء على التطورات المتوقعة، مثل تقنيات التسمم الأكثر تطورًا وتكيفًا والتي يمكنها التهرب من أساليب الكشف الحالية. كما يشير إلى نقاط الضعف المحتملة في النماذج الناشئة، مثل التعلم الانتقالي .
ويعرب التقرير أيضًا، عن القلق بشأن التعقيد المتزايد لأنظمة الذكاء الاصطناعي والتحديات في موازنة أمن الذكاء الاصطناعي. مع اعتبارات مهمة أخرى مثل الخصوصية والعدالة.
واختتم حديثه، قائلًا: إن الصناعة يجب أن تأخذ في الاعتبار الحاجة إلى أطر التوحيد القياسي والتنظيمي؛ لمعالجة أمن الذكاء الاصطناعي على نحو شامل.