عبر “إيلون ماسك” عن استيائه من أداء روبوت الدردشة الذكي “Grok”، التابع لشركة “xAI”. خاصة بعد أن أجاب الروبوت عن سؤال حول العنف السياسي بأن العنف من التيار اليميني يفوق نظيره في التيار اليساري منذ عام 2016.
تحديث في “Grok”
وصف “ماسك” هذا الرد بأنه فشل ذريع واعتبر أن “Grok” يقلد وجهة نظر وسائل الإعلام التقليدية. معلنًا عن نية إطلاق تحديث رئيسي للنموذج تحت اسم “4 Grok” بعد الرابع من يوليو؛ بهدف إعادة صياغة كامل المعرفة البشرية.

كما دعا مستخدمي منصة “إكس” لإرسال حقائق مثيرة للجدل وغير صحيحة سياسيًا لكنها واقعية. لتدريب النموذج الجديد، مشيرًا إلى وجود كمية كبيرة من القمامة في بيانات النماذج الحالية؛ بسبب ضعف تصحيحها.
مخاوف التحيز وتأثير النموذج في منصة “إكس”
يثير هذا التطور مخاوف بين خبراء الذكاء الاصطناعي من أن “ماسك” قد يسعى لجعل “جروك” يعكس وجهة نظره الشخصية.
في حين يؤدي ذلك إلى زيادة التحيزات والأخطاء في النموذج، ويثير تساؤلات مهمة حول نزاهة وموضوعية أنظمة الذكاء الاصطناعي. خاصة مع دمج “جروك” في منصة “إكس”. التي خففت القيود على انتشار المعلومات المضللة. ما يعزز تأثير هذه التقنية في ملايين المستخدمين.
يقول “ديفيد إيفان هاريس”؛ الباحث في جامعة كاليفورنيا، إن الأمر يمثل بداية معركة طويلة حول مدى ضرورة إلزام نماذج الذكاء الاصطناعي بتقديم معلومات دقيقة وواقعية أو السماح لصانعيها بضبط المحتوى. بما يتوافق مع مواقفهم السياسية.
ومن جهة أخرى واجه “جروك” جدلًا في مايو الماضي بعدما ذكر ادعاءات غير صحيحة حول وقوع إبادة جماعية للبيض في جنوب إفريقيا.
بينما يعد هذ الموضوع حساسًا ومرتبطًا بتاريخ “ماسك” نفسه؛ ما دفع xAI لتفسير الخطأ بأنه ناتج عن تعديل غير مصرح به وفق تقرير “CNN” الذي اطلع عليه “عالم التكنولوجيا”.
تحديات إعادة التوازن بين التحيز والفائدة
يرى خبراء مثل “نيك فروست”؛ المؤسس المشارك لشركة “كوهير”، أن محاولة “ماسك” إعادة تشكيل النموذج لينسجم مع آرائه الشخصية قد تؤدي إلى تقليل فائدته للمستخدمين الذين لا يشاركونه نفس المعتقدات. مؤكدًا أن إعادة تدريب نموذج ضخم من الصفر ستكون مكلفة وتستغرق وقتًا طويلًا.
وأضاف: بديل ذلك هو تعديل الأوزان أو توجيه النموذج بحيث تتغير استجاباته دون الحاجة لإعادة تدريب كاملة. وهو ما قد تلجأ إليه xAI لاستهداف مناطق محددة من البيانات الإشكالية.
ومع أن “ماسك” أكد أن “جروك” سيبحث عن الحقيقة إلى أقصى حد إلا أن جميع نماذج الذكاء الاصطناعي تتضمن تحيزات. بسبب طبيعة بيانات التدريب التي تعتمد على محتوى بشري متحيز.
وفي المستقبل قد يختار المستخدمون نماذج ذكاء اصطناعي تعكس رؤاهم الشخصية. لكن ذلك قد يقلل من فعالية هذه النماذج. حيث يتحول الذكاء الاصطناعي إلى مرآة لأفكار المستخدمين بدلًا من أداة مساعدة حقيقية.
ويعتقد الباحثون بأن الناس سيعودون إلى المصادر الموثوقة في نهاية المطاف. رغم أن الطريق للوصول إلى ذلك مليء بالتحديات والمخاطر، وقد يحمل تهديدات للديمقراطية نفسها.
















