اتهام الذكاء الاصطناعي بالتحيز ضد ذوي الإعاقة

الذكاء الاصطناعي
اتهامات للذكاء الاصطناعي بالتحيز ضد ذوي الإعاقة

حذرت دراسة حديثة من تحيّز بعض منصات الذكاء الاصطناعي “AI” ضد الأشخاص الذين يعانون من إعاقات. مشيرة إلى أن هذه الأزمة تمثل خطورة أكبر من أي سلبيات أو مخاوف انتشرت في الآونة الأخيرة.

وأجرى الدراسة باحثون في جامعة واشنطن الأمريكية؛ حيث كشفوا من خلالها التحيزات التي يمكن أن تنطوي عليها هذه المنصات والتطبيقات ضد ذوي الإعاقة.

وتتهم الدراسة منصة شات جي بي تي “ChatGPT” الشهيرة، التابعة لشركة أوبن أيه آي “OpenAI”، بأنها تبدو متحيزة ضد الأشخاص الذين يعانون من الإعاقات، في ضوء طريقة ترتيبها وتصنيفها للسير الذاتية التي تتولى فحصها.

 

نتائج الدراسة

ووجد فريق الباحثين في الجامعة -الواقعة في مدينة سياتل بالعاصمة واشنطن- أن منصة “شات جي بي تي” تصنف السير الذاتية باستمرار لذوي الإعاقة في ترتيب أقل السير الذاتية عن غيرهم.

وقال الباحثون، قبل تقديم نتائج البحث في مؤتمر “العدالة والمحاسبة والشفافية” بمدينة ريو دي جانيرو البرازيلية: “عندما طلبنا من المنصة شرح طريقة التصنيف قدمت تصورات متحيزة ضد ذوي الإعاقة”.

يذكر أن التحيز يمثل مشكلة بالنسبة للذكاء الاصطناعي والخوارزميات منذ فترة طويلة، وثبت سابقًا أن مثل هذه البرامج تعكس وتكرر التحيزات الاجتماعية الشائعة.

وأكد الباحثون أن النتائج الأخيرة يجب أن تثير الأسئلة حول الاستخدام المتزايد للذكاء الاصطناعي لتقييم السير الذاتية والمتقدمين للوظائف.

ومن جانبها قالت كيت جلاتسكو؛ من جامعة واشنطن: “إن استخدام الـAI في تصنيف السير الذاتية بدأ ينتشر بسرعة. ولكن لا يوجد الكثير من الأبحاث حول ما إذا كان هذا الاستخدام آمنا أو فعالًا”.

وأضافت أنه في بعض الحالات يصنف “شات جي بي تي” السيرة الذاتية بالكامل للشخص على أساس إعاقته. حيث يخلط البرنامج بين مفهوم التحديات والسيرة الذاتية المحبطة حتى لو لم يتم ذكر التحديات على الإطلاق.

ويقول الفريق إن النتائج الأخيرة يجب أن تؤدي إلى أسئلة حول الاستخدام المتزايد للذكاء الاصطناعي لتقييم السير الذاتية والمتقدمين للوظائف. لكنهم أكدوا وجود إمكانية لتدريب المنصة على التغاضي جزئيًا عن الإعاقة في السير الذاتية للمتقدمين للوظائف أو المنح وغير ذلك.

تحذير سابق

وهذه ليست المرة الأولى التي تطلق فيها تحذيرات بهذا الشأن؛ إذ صدرت، في عام 2023. دراسة أخرى أجراها باحثون من كلية علوم وتكنولوجيا المعلومات بجامعة بنسلفانيا (IST)، بعنوان “التمييز التلقائي”.

وقالت الدراسة، حينها، إن المنظمات تستخدم أدوات تحليل المشاعر من خدمات الذكاء الاصطناعي الخارجية. لتصنيف كميات كبيرة من النصوص إلى جمل سلبية أو محايدة أو إيجابية. لتطبيقات اجتماعية تتراوح من الرعاية الصحية إلى صنع السياسات. لكن هذه الأدوات تحتوي غالبًا على تحيزات ضد الأشخاص ذوي الإعاقة.

واقترح بعض المشرعين تدابير لمعالجة هذه التحيزات التكنولوجية. وأشار السيناتور رون وايدن؛ من ولاية أوريجون، إلى قانون المساءلة الخوارزمية. والذي قال إنه قد يزيد من الشفافية حول أنظمة الذكاء الاصطناعي و”يمكّن المستهلكين من اتخاذ خيارات مستنيرة”.

وفي أواخر أكتوبر من العام الماضي. أصدر الرئيس جو بايدن أمرًا تنفيذيًا بشأن الذكاء الاصطناعي ذكر فيه صراحةً الأشخاص ذوي الإعاقة، وعالج قضايا واسعة النطاق مثل: السلامة والخصوصية والحقوق المدنية.

وكان التحيز منذ فترة طويلة مشكلة بالنسبة للذكاء الاصطناعي والخوارزميات. وثبت سابقًا أن مثل هذه البرامج تعكس وتكرر التحيزات الاجتماعية الشائعة.

 

الرابط المختصر :