هل يتسامح البشر مع الروبوتات الكاذبة؟.. دراسة جديدة تجيب

الروبوتات

أظهرت دراسة أمريكية جديدة أن الناس مستعدون للتسامح مع الأكاذيب البيضاء الروبوتات، لكنهم أقل تسامحا في حالة محاولة هذه الأجهزة إخفاء قدراتها الحقيقية أو ممارسة الرقابة عليهم.

التسامح مع الأكاذيب البيضاء للإنسان الآلي

وشملت الدراسة التي قام بها باحثون في جامعة جورج ماسون الأمريكية نحو 500 شخص لسؤالهم عن وجهة نظرهم بشأن سيناريوهات افتراضية يتم فيها استخدام الإنسان الآلي في مجالات مثل الرعاية الصحية وتجارة التجزئة ونظافة المنازل.

وأظهرت الدراسة أن الناس يميلون غالبا إلى تقبل كذب الروبوتات إذا كان ذلك “لحماية المريض من ألم غير ضروري” من خلال إخفاء جزء من الحقيقة عنه.

وفي المقابل، اعتبر أغلب المشاركين في المسح أن السيناريو الذي يقوم فيه الإنسان الآلي بتصويرهم خلسة ودون علمهم غير مقبول بالنسبة لهم. وقال بعض المشاركين إن تجسس الروبوت “لأغراض أمنية” يمكن أن يكون مقبولا.

الروبوتات والذكاء الاصطناعي في مكان العمل

يأتي ذلك في الوقت الذي انتشر فيه استخدام أنظمة الإنسان الآلي في مجالات عديدة خلال السنوات العشر الماضية حيث أصبحت تقوم بأعمال أكثر تعقيدا وبتكلفة مقبولة.

مخاطر الذكاء الاصطناعي والروبوتات

وفي الشهر الماضي، قال محللون في بنك الاستثمار الأمريكي مورجان ستانلي إن ظهور الذكاء الاصطناعي مع الإنسان الآلي يمكن أن يؤدي إلى إنتاج أجهزة “شبيهة بالبشر”. وبالتالي تؤدي إلى فقدان ملايين الأشخاص لوظائفهم خاصة في قطاعات مثل الزراعة والتشييد.

ويقول أندريس روزيرو من جامعة جورج ماسون “مع قدوم الذكاء الاصطناعي التوليدي، أشعر بأهمية فحص حالات محتملة لاستخدام تصميم بشري الشكل وأنماط سلوكية للتلاعب بالمستخدمين. بحسب ما ذكرته وكالة الأنباء الألمانية.

الذكاء الاصطناعي ينتج هلاوس 

وقد تبين أن أنظمة الذكاء الاصطناعي تنتج ما يسمى بـ “الهلاوس”، أو تقدم استجابات غير دقيقة أو مضللة لأسئلة المستخدم.

ونشر معهد ماساشوستس للتكنولوجيا (إم.آي.تي) مؤخرا دراسة أظهرت افتقاد عمليات تدريب منصات الذكاء الاصطناعي أو نماذج اللغة الكبيرة للشفافية في أغلب الحالات.

وقال روزيرو: “نرى بالفعل نماذج لشركات تستخدم مبادئ تصميم اٌلإنترنت ومنصات محادثة الذكاء الاصطناعي بطرق تستهدف التلاعب بالمستخدمين ودفعهم نحو تصرف محدد”.

الرابط المختصر :