قالت شركة “OpenAI” إن هناك وظيفة جديدة شاغرة لديها. حيث أعلنت الشركة العاملة في مجال الذكاء الاصطناعي التوليدي أنها في حاجة إلى تعيين محقق تقني مختص بالمخاطر.
وظيفة شاعرة OpenAI
تهدف الوظيفة الجديدة إلى تعزيز حماية المؤسسة من التهديدات الأمنية الداخلية. حيث يأتي الإعلان عنها في وقت حساس بالنسبة للشركة التي تجد نفسها في خطر بشأن أمان تقنياتها.
وذلك بعدما عبر موظفون في الشركة. بالإضافة إلى مشرعين أمريكيين عن مخاوفهم من احتمالية استخدام تقنيات الذكاء الاصطناعي المتطورة في أشياء تمثل خطرًا على الشركة.
وما أثار تلك المخاوف أكثر. أن الشركة أعلنت أنها رصدت محاولات من جهات تابعة لدول، مثل: الصين وروسيا وإيران، لاستخدام نماذجها الذكية في أعمال تصفها بالضارة. كما أضافت أنها تمكنت من إحباط هذه المحاولات، وعطلت الحسابات المرتبطة بها.
بينما تعرضت شركة “OpenAI” لهجوم سيبراني في عام 2023. حيث استطاع قراصنة اختراق نظام المراسلة الداخلي للشركة. وسرب موظفون في الشركة هذا الخبر لصحيفة “نيويورك تايمز”.
كما أعلنت شركة “OpenAI” أن هذه الخطوة تأتي كجزء من التزاماتها الطوعية تجاه البيت الأبيض الحريص على أمن الذكاء الاصطناعي. حيث تشمل مهام المحقق التقني:
- تحليل الأنشطة المشبوهة.
- كشف وتخفيف المخاطر الداخلية.
- التعاون مع إدارات الموارد البشرية والشؤون القانونية لإجراء التحقيقات اللازمة.
بينما يذكر أنه في يونيو الماضي. وجه موظفو “OpenAI” رسالة عبروا فيها شعورهم بتقييد في التعبير عن مخاوفهم وقلقهم المتعلقين بسلامة وأمن الذكاء الاصطناعي.
كما قال جان لايكي؛ المسؤول السابق عن فريق أمان ومسؤولية الذكاء الاصطناعي بالشركة. عبر حسابه في منصة “إكس”، في منشور أعلن فيه استقالته شهر مايو الماضي: “إن الشركة خلال السنوات الماضية وضعت الأرباح والمنتجات اللامعة فوق أولوية ضمان السلامة والأمان لاستخدام نماذجها من الذكاء الاصطناعي”.