ما تزال مشكلة الأمن المعلوماتي تؤرق العديد من مطوري الذكاء الاصطناعي بسبب نشاط الهاكرز الذي يعرقل تقدمهم. مؤخرًا تمكن بعض الهاكرز من التسلل إلى أنظمة open AI الخاصة بالنموذج المولد لروبوت الدردشة الشهير ChatGPT.
وذكر تقرير لصحيفة “نيويورك تايمز”، أن الهاكرز قد تمكنوا من رؤية المحادثات الداخلية وربما سرقوا تفاصيل حول تصميم منتجات الذكاء الاصطناعي الخاصة بهم. ولكن الشركة لم تبلغ سلطات إنفاذ القانون بشأن الاختراق.
حوادث غير مؤكدة
وقالت صحيفة “نيويورك تايمز” إن الحادث شهد سحب أحد الهاكرز تفاصيل المناقشات في منتدى داخلي بين موظفي OpenAI.
وكانت المناقشات حول التقنيات التي تعمل عليها الشركة. ومن المرجح أنه لم يتمكن الهاكرز من الوصول إلى الأنظمة التي يتم فيها بناء وتخزين منتجات OpenAI.
وحذرت Ilia Kolochenko؛ خبيرة الأمن السيبراني والرئيس التنفيذي لشركة ImmuniWeb الأمنية، من أن الهجمات على شركات الذكاء الاصطناعي من المرجح أن تستمر وتزداد. وذلك بالنظر إلى الأهمية المتزايدة للتكنولوجيا.
وأردفت: “على الرغم من أن OpenAI لم تؤكد بعد تفاصيل الحادث المزعوم، إلا أن هناك احتمالًا قويًا بأن الحادث قد وقع بالفعل وليس الوحيد”.
مجال واعد ومنافسة شرسة
وجدت الشركة الأمريكية، OpenAI، نفسها في طليعة الطفرة الأخيرة بمجال الذكاء الاصطناعي. تلك الطفرة التي بدأت بإطلاق برنامج الدردشة الآلي الخاص بالشركة، ChatGPT، في أواخر عام 2022.
ومنذ ذلك الحين، بدأت عدد من أكبر شركات التكنولوجيا في العالم الانتقال إلى هذا القطاع؛ حيث عد العديد من الخبراء الذكاء الاصطناعي التوليدي بمثابة الابتكار الرئيس لهذا الجيل.
وأخبر المسؤولون التنفيذيون في OpenAI الموظفين ومجلس إدارة الشركة عن اختراق الهاكرز قبل فترة. ولم تذكر الشركة الحادثة للجمهور لأنه لم تتم سرقة أي بيانات للعملاء أو الشركاء.
وفي ذات السياق، لم تبلغ شركة OpenAI وكالات إنفاذ القانون الأمريكية بالحادث؛ لأن الشركة اعتقدت أن المتسلل كان فردًا عاديًا وليس له علاقات معروفة بحكومة أجنبية. حسبما أوردت التقارير.
تحذيرات خبراء الأمن
وتقول د. Ilia تعليقا علي تقارير الاختراق الأخير: “لقد أصبح السباق العالمي للذكاء الاصطناعي مسألة تتعلق بالأمن القومي للعديد من البلدان؛ ولذلك، فإن مجموعات مرتكبي الجرائم الإلكترونية والمرتزقة تستهدف بشدة مطوري الذكاء الاصطناعي، من الشركات الناشئة الموهوبة إلى عمالقة التكنولوجيا مثل google أو OpenAI .
وفي ذات السياق تقول د. Ilia: “يركز الهاكرز في الغالب جهودهم على سرقة الملكية الفكرية القيمة، بما في ذلك الأبحاث التكنولوجية والمعرفة، ونماذج اللغة الكبيرة (LLMs)، ومصادر بيانات التدريب، بالإضافة إلى المعلومات التجارية مثل عملاء ومستهلكين المستهدفين من قبل مطوري الذكاء الاصطناعي والاستخدامات الجديدة لـلذكاء الاصطناعي في مختلف الصناعات”.
تهديدات جديدة لعالم تقني جديد
وتضيف: قد تقوم الجهات الفاعلة الأكثر تطورًا في مجال التهديد السيبراني أيضًا بزرع أبواب خلفية خفية للسيطرة باستمرار على شركات الذكاء الاصطناعي المخترقة.
كما تهدف هذه الإجراءات إلى تعطيل عمل تلك الشركات أو حتى إيقافها فجأة. على غرار حملات القرصنة واسعة النطاق التي تستهدف البنية التحتية الوطنية الحيوية (CNI) في بلدان العالم الغربي في الآونة الأخيرة.
ويوجب على جميع مستخدمي شركات الذكاء الاصطناعي التوليدي توخي الحذر بشكل عام، والحذر بشكل خاص عند مشاركة بيانات الملكية الخاصة بهم أو منح إمكانية الوصول الي بيانات التدريب على LLM أو الضبط الدقيق للنماذج المولدة ذاتها.
حيث إن بياناتهم – التي تمتد من المعلومات المميزة للمحامي وموكله والأسرار التجارية للشركات الرائدة و الشركات الصناعية أو الصيدلانية إلى معلومات عسكرية سرية – هي أيضًا في مرمى مجرمي الإنترنت المتعطشين للذكاء الاصطناعي الذين يستعدون لتكثيف هجماتهم في الفترة القادمة”.