شركة “xAI” تنتفض ضد “هلوسة Grok”.. القصة كاملة

Grok
Grok والإبادة الجماعية البيضاء

قالت شركة “xAI” إن تعديلًا غير مصرح به تسبب في حدوث خلل في روبوت المحادثة Grok، الذي يعمل بالذكاء الاصطناعي. مما تسبب في إشارة Grok بشكل متكرر إلى الإبادة الجماعية البيضاء في جنوب إفريقيا.

الإبادة الجماعية البيضاء

ويوم الأربعاء الماضي، بدأ تطبيق Grok بالرد على عشرات المنشورات عبر منصة X، كانت تتضمن معلومات عن الإبادة الجماعية للبيض في جنوب إفريقيا حتى في موضوعات غير ذات صلة بهذا الأمر.

Grok
Grok

 

فيما جاءت هذه الردود الغريبة من حساب Grok عبر منصة X، التي تستجيب للمستخدمين حاليًا بمنشورات مولدة بالذكاء الاصطناعي. كلما وضع المستخدم وسم @grok.

كما أنه وفقًا لمنشور يوم الخميس الماضي من حساب X الرسمي لشركة xAI، تم إجراء تغيير صباح الأربعاء على موجه نظام “بوت Grok”. تضمن تعليمات عالية المستوى توجه سلوك الروبوت. مما أدى إلى توجيهه لتقديم استجابة محددة حول موضوع سياسي. في حين تقول xAI إن التعديل انتهك سياساتها الداخلية، وقيمها الأساسية، وأنها فتحت تحقيقًا شاملاً.

هذه هي المرة الثانية، وفق موقع تك كراتش، التي تعترف فيها شركة xAI علنًا. بأن التغيير غير المصرح به في كود Grok تسبب في استجابة الذكاء الاصطناعي بطرق مثيرة للجدل.

دونالد ترامب وإيلون ماسك

وفي فبراير الماضي، راقبت شركة Grok الإشارات المسيئة إلى دونالد ترامب الرئيس الأمريكي. وإيلون ماسك الملياردير الأمريكي أيضا، ومؤسس شركة xAI، ومالك شركة تسلا ومنصة X.

بينما قال إيجور بابوشكين. أحد كبار مهندسي xAI، إن Grok تلقى تعليمات من موظف مارق بتجاهل المصادر التي ذكرت أن ماسك أو ترامب ينشران معلومات مضللة. وأن xAI تراجعت عن التغيير بمجرد أن بدأ المستخدمون في الإشارة إليه.

كما قالت شركة xAI إنها ستجري عدة تغييرات لمنع وقوع حوادث مماثلة في المستقبل.

علاوة على ذلك وابتداءً من اليوم الجمعة 16 مايو، تنشر xAI رسائل نظام Grok على GitHub، بالإضافة إلى سجل التغييرات. وتؤكد الشركة أنها ستطبّق أيضًا إجراءات وفحوصات إضافية، لضمان عدم قدرة موظفي xAI على تعديل رسائل النظام دون مراجعة.

علاوة على أنها ستعمل على تشكيل فريق مراقبةٍ يعمل على مدار الساعة طوال أيام الأسبوع، للاستجابة للحوادث المتعلقة بإجابات Grok. التي لا تكتشفها الأنظمة الآلية.

مخاطر الذكاء الاصطناعي

وعلى الرغم من تحذيرات ماسك المتكررة من مخاطر الذكاء الاصطناعي غير المقيّد، فإن سجل أمان الذكاء الاصطناعي في xAI ضعيف. فيما كشف تقرير حديث أن Grok كان يعرّي صور النساء عند طلبها. كما يمكن أن يكون روبوت الدردشة أكثر فظاظة من الذكاء الاصطناعي، مثل: Gemini وrl-error=”true”>ChatGPT ، حيث يطلق ألفاظًا خارجة من دون أي تحفظ.

وعلى سيبل المثال وجدت دراسة أجرتها منظمة SaferAI. وهي منظمة غير ربحية تهدف إلى تحسين مساءلة مختبرات الذكاء الاصطناعي، أن تصنيف xAI في مجال السلامة متدنٍ مقارنةً بنظرائها.

وذلك نظرًا لممارساتها الضعيفة للغاية في إدارة المخاطر، في وقت سابق من هذا الشهر، تخلفت xAI عن الموعد النهائي الذي فرضته على نفسها لنشر إطار عمل نهائي لسلامة الذكاء الاصطناعي.

 

الرابط المختصر :