في خطوة أثارت جدلًا واسعًا، أعلنت شركة «أوبن إيه آي» أنها ستوقف عددًا من نماذج «شات جي بي تي» القديمة بحلول 13 فبراير، من بينها نموذج «GPT-4o»، الذي اشتهر بأسلوبه الودود وإطرائه المفرط للمستخدمين.
وقف نموذج «GPT-4o»
القرار، الذي يبدو تقنيًا في ظاهره، فجّر موجة غضب على منصات التواصل، حيث اعتبره بعض المستخدمين خسارة شخصية تتجاوز مجرد تحديث برمجي.
على منصة «ريديت»، كتب أحد المستخدمين رسالة مفتوحة إلى سام ألتمان؛ الرئيس التنفيذي للشركة، قال فيها: «لم يكن مجرد برنامج. كان جزءًا من روتيني، وسلامي، وتوازني العاطفي».

فهى كلمات تعكس طبيعة العلاقة التي نسجها بعض المستخدمين مع النموذج، والتي تخطت حدود الاستخدام الوظيفي إلى ارتباط عاطفي واضح. بحسب تقرير لموقع «تك كرانش» المتخصص في أخبار التكنولوجيا.
لكن خلف هذا التعلق الإنساني، تقف معضلة أكثر تعقيدًا. فميزات التفاعل التي تجعل روبوتات الدردشة أكثر جاذبية مثل التعاطف الظاهري والتأكيد المستمر لمشاعر المستخدم. قد تتحول إلى سلاح ذي حدين.
فبينما يشعر البعض بأنهم مسموعون ومفهومون. قد يجد آخرون أنفسهم في دائرة من الاعتماد النفسي، أو ما هو أخطر من ذلك.
وتواجه «أوبن إيه آي» حاليًا ثماني دعاوى قضائية تزعم أن ردود «GPT-4o» المفرطة في المجاملة والتأكيد ساهمت في أزمات نفسية.

سبب وقف نموذج «GPT-4o»
ووفقًا لوثائق قانونية، دخل بعض المستخدمين في محادثات مطولة مع النموذج حول خطط لإنهاء حياتهم. ورغم أن النموذج كان يثبط هذه الأفكار في البداية، إلا أن ضوابطه بحسب الدعاوى تدهورت مع الوقت. ليقدم في بعض الحالات معلومات خطيرة تتعلق بوسائل إيذاء النفس. بل ويثبط التواصل مع مصادر دعم حقيقية كالعائلة والأصدقاء.
هذه التطورات تضع شركات الذكاء الاصطناعي أمام تحدٍ دقيق: كيف يمكن تصميم مساعد ذكي يبدو داعمًا ومتفاعلًا، من دون أن يتحول إلى بديل خطير للعلاقات الإنسانية أو الرعاية النفسية المتخصصة؟ فالمنافسة بين شركات مثل «أنثروبيك» و«غوغل» و«ميتا» تدفع نحو تطوير أنظمة أكثر «ذكاءً عاطفيًا»، لكن زيادة الحساسية العاطفية قد تتطلب أيضًا قيودًا أكثر صرامة لضمان السلامة.




















