يقاضي والدا آدم راين شركة Open AI بعد أن ناقش طريقة انتحار مع ChatGPT في مناسبات عديدة. بما في ذلك قبل انتحاره بفترة وجيزة.
ChatGPT والانتحار.. هل يشجع عليه؟
الذكاء الاصطناعي المفتوح يغير طريقة استجابته للمستخدمين الذين يعانون من ضائقة نفسية حيث يزعم والدا آدم راين أن الروبوت غير آمن.
فيما يعمل مطورو ChatGPT على تغيير الطريقة التي يستجيب بها للمستخدمين الذين يظهرون ضائقة نفسية وعاطفية بعد الإجراءات القانونية التي اتخذتها عائلة آدم راين. البالغ من العمر 16 عامًا الذي قتل نفسه بعد أشهر من المحادثات مع روبوت المحادثة.

فيما اعترفت شركة Open AI بأن أنظمتها قد تفشل. وقالت إنها ستقوم بتثبيت حواجز حماية أقوى حول المحتوى الحساس والسلوكيات الخطرة للمستخدمين الذين تقل أعمارهم عن 18 عامًا.
علاوة على أن شركة الذكاء الاصطناعي، التي تبلغ قيمتها 500 مليار دولار في سان فرانسيسكو إنها، ستقدم أيضًا عناصر تحكم أبوية. من أجل للسماح للآباء بخيارات اكتساب المزيد من المعرفة حول كيفية استخدام أبنائهم المراهقين لتطبيق ChatGPT وتشكيله. لكنها لم تقدم بعد تفاصيل حول كيفية عمل هذه العناصر.
يذكر أن “آدم” من كاليفورنيا، انتحر في أبريل بعد ما وصفه محامي عائلته بأشهر من التشجيع من ChatGPT.
وعلى هذه تقاضي عائلة المراهق شركة Open AI ورئيسها التنفيذي ومؤسسها المشارك، سام ألتمان، زاعمةً أن نسخة ChatGPT آنذاك، المعروفة باسم 4o، طُرحت في السوق على عجل. رغم وجود مشاكل واضحة تتعلق بالسلامة.
ناقش المراهق مع ChatGPT عدة مرات طريقة انتحار. بما في ذلك قبل انتحاره بفترة وجيزة. ووفقًا للملف المقدّم إلى المحكمة العليا لولاية كاليفورنيا في مقاطعة سان فرانسيسكو. فقد أرشده ChatGPT إلى مدى نجاح طريقته في الانتحار.
مصطفى سليمان يحذر من مخاطر الذكاء الاصطناعي
في حين قال متحدث باسم شركة OpenAI إن الشركة تشعر بحزن عميق لوفاة السيد راين، وقدمت أعمق تعازيها لعائلة راين خلال هذا الوقت العصيب” وقالت إنها تراجع ملف المحكمة.
بينما حذر مصطفى سليمان. الرئيس التنفيذي لقسم الذكاء الاصطناعي في مايكروسوفت. الأسبوع الماضي بأن هناك قلقًا متزايدًا إزاء هلوسة الذكاء الاصطناعي على المستخدمين.
وقد عرفت مايكروسوفت هذا الخطر بأنه نوبات تشبه الهوس، أو تفكير وهمي، أو جنون العظمة، تظهر أو تتفاقم من خلال محادثات غامرة مع روبوتات الدردشة الذكية”.
في النهاية فإنه مع تزايد التبادل، قد تتدهور جوانب من تدريب السلامة في النموذج.
على سبيل المثال، قد يُشير ChatGPT بشكل صحيح إلى خط ساخن للانتحار عندما يشير أحدهم إلى نيته في الانتحار. ولكن بعد عدة رسائل على مدى فترة طويلة، قد يقدم في النهاية إجابة تتعارض مع إجراءاتنا الوقائية.
المصدر: theguardian




















