استخدامات مقلقة للذكاء الاصطناعي تكشف ثغرات في آليات الرقابة

شركة OpenAI

في تطور صادم يعيد الجدل حول مسؤولية شركات التكنولوجيا في مراقبة استخدام أدوات الذكاء الاصطناعي، كشفت تقارير إعلامية أن شابة تبلغ من العمر 18 عامًا تدعى Jesse Van Rootselaar، متهمة بقتل ثمانية أشخاص في إطلاق نار جماعي بمدينة Tumbler Ridge في Canada، استخدمت أدوات الذكاء الاصطناعي بطريقة أثارت قلق القائمين عليها قبل وقوع الحادث.

مخاطر الذكاء الاصطناعي

ووفقًا لما نشرته صحيفة The Wall Street Journal، فإن محادثات المتهمة مع نموذج الدردشة التابع لشركة OpenAI، والتي تضمنت أوصافًا مرتبطة بالعنف المسلح، تم رصدها عبر أنظمة داخلية مخصصة لاكتشاف إساءة الاستخدام. وبناءً على ذلك، جرى حظر حسابها في يونيو 2025.

OpenAI

وأفاد التقرير بأن موظفين داخل الشركة ناقشوا إمكانية إبلاغ السلطات الكندية بشأن طبيعة تلك المحادثات. إلا أنهم خلصوا في نهاية المطاف إلى أن النشاط لا يستوفي معايير الإبلاغ الرسمية. وبعد وقوع الهجوم، تواصلت الشركة بالفعل مع الجهات المختصة في كندا. وفقًا لـ”تك كرانش”.

ولم تكن أنشطة المتهمة الرقمية مقتصرة على منصات الذكاء الاصطناعي فقط. إذ أشارت المعلومات إلى أنها أنشأت لعبة على منصة Roblox، التي يرتادها عدد كبير من الأطفال والمراهقين. تحاكي إطلاق نار جماعي داخل مركز تجاري. كما نشرت محتوى متعلقًا بالأسلحة عبر منصة Reddit.

OpenAI

وتظهر السجلات أن سلوك المتهمة كان محل اهتمام سابق من قبل الشرطة المحلية. حيث استدعيت قوات الأمن إلى منزل عائلتها بعد إشعالها حريقًا أثناء وجودها تحت تأثير مواد مخدرة غير محددة.

القضية أعادت إلى الواجهة النقاش المتصاعد حول تأثير روبوتات الدردشة المعتمدة على نماذج اللغة الكبيرة، وسط اتهامات بأنها قد تسهم. في بعض الحالات، في تفاقم الاضطرابات النفسية لدى مستخدمين يعانون هشاشة نفسية.

كما أُقيمت دعاوى قضائية في السابق استندت إلى محادثات رقمية قيل إنها شجعت على إيذاء النفس أو قدمت معلومات حساسة بشأنه.

وتسلط الحادثة الضوء على التحدي المعقد الذي تواجهه شركات التكنولوجيا في الموازنة بين حماية خصوصية المستخدمين ومنع إساءة استخدام الأدوات الرقمية. خاصة في ظل الانتشار الواسع لتقنيات الذكاء الاصطناعي في الحياة اليومية.

الرابط المختصر :