اتهام روبوتات الدردشة في منصة Character.AI بأنها قاتلة

Character.AI
Character.AI

أقامت عائلتان دعوى قضائية ضد روبوتات الدردشة التي تعمل بالذكاء الاصطناعي على منصة Character.AI.

هل روبوتات الدردشة مفيدة أم خطر؟

واتهمت العائلتان منصة بتقديم محتوى لأطفالهما يشجع على إيذاء النفس والعنف. وتطلب الدعوى القضائية- والتي قدمت أمس الإثنين في محكمة فيدرالية في تكساس- من المحكمة إغلاق المنصة حتى يتم إصلاح المخاطر المزعومة التي تسببها.

وتزعم الدعوى القضائية التي أقامها والدا شابين استخدما المنصة أن Character.AI “تشكل خطرًا واضحًا وحاضرًا على الشباب الأمريكي. وتتسبب في أضرار جسيمة لآلاف الأطفال. بما في ذلك:

  • الانتحار.
  • جلد الذات.
  • العزلة.
  • الاكتئاب.
  • القلق.
  • إيذاء الآخرين.

على سبيل المثال، تزعم الشركة أن روبوت Character.AI أشار إلى مستخدم مراهق أنه يمكنه قتل والديه بسبب تقييد وقت شاشته.

فيلم Twilight

تقوم Character.AI بتسويق تقنيتها على أنها “ذكاء اصطناعي مخصص لكل لحظة من يومك”. وتسمح للمستخدمين بالدردشة مع مجموعة متنوعة من روبوتات الذكاء الاصطناعي. بما في ذلك بعض الروبوتات التي أنشأها مستخدمون آخرون أو التي يمكن للمستخدمين تخصيصها لأنفسهم.

ووفق شبكة CNN يمكن للروبوتات تقديم توصيات بالكتب وممارسة اللغات الأجنبية مع المستخدمين والسماح للمستخدمين بالدردشة مع الروبوتات التي تدعي أنها تتقمص شخصيات خيالية مثل إدوارد كولين من فيلم Twilight.

اقرأ أيضًا: انتحار مراهق بسبب قصة حب مع الذكاء الاصطناعي

ووصف أحد الروبوتات المدرجة على الصفحة الرئيسية للمنصة يوم الإثنين، والذي يُدعى “Step Dad”، نفسه بأنه “زعيم مافيا سابق عدواني ومسيء”.

يأتي هذا بعد أن رفعت أم من فلوريدا دعوى قضائية منفصلة ضد Character.AI في أكتوبر، مدعية أن المنصة كانت مسؤولة عن انتحار ابنها البالغ من العمر 14 عامًا بعد أن شجعته على الانتحار.

وذلك وسط مخاوف أوسع نطاقًا بشأن العلاقات بين الناس وأدوات الذكاء الاصطناعي التي تشبه الإنسان بشكل متزايد.

وفي أعقاب الدعوى القضائية السابقة، قالت شركة Character.AI أنها طبقت تدابير جديدة للثقة والسلامة على مدى الأشهر الستة السابقة. تتضمن نافذة منبثقة توجه المستخدمين إلى خط المساعدة الوطني لمنع الانتحار عندما يذكرون إيذاء النفس أو الانتحار.

وأعلنت الشركة أيضًا أنها وظفت رئيسًا للثقة والسلامة، بالإضافة إلى رئيس لسياسة المحتوى، كما وظفت موظفين إضافيين للسلامة الهندسية.

لكن الدعوى القضائية الجديدة تسعى إلى الذهاب إلى أبعد من ذلك، حيث تطلب إيقاف تشغيل المنصة وعدم إعادتها حتى تتمكن الشركة من إثبات أن عيوب الصحة العامة والسلامة المنصوص عليها هنا قد تم علاجها.

تنص الشكوى على أن “Character.AI هو منتج معيب وقاتل يشكل خطرًا واضحًا وحاضرًا على الصحة العامة والسلامة.

الرابط المختصر :