مخاطر الذكاء الاصطناعي على البشر.. بين الحقيقة والتهويل

رقائق الذكاء الاصطناعي
رقائق الذكاء الاصطناعي

في الآونة الأخيرة، غزت نماذج الذكاء الاصطناعي الكثير من المجالات التقنية، والتطبيقات الحياتية. ومع تنامي تلك الاستخدامات عكف العلماء على محاولة تحديد المخاطر التي قد يمثلها الذكاء الاصطناعي على البشرية بوجه عام. وتتدرج تلك المخاطر من إنشاء محتوى مزيف للأشخاص إلى التلاعب بالانتخابات من خلال التأثير على الناخبين.

وبغض النظر عن الخوف المتنامي عند البعض من استحواذ تلك النماذج على وظائف البشر أو استبدالهم، ومدى جديه تلك المخاوف، حدد العلماء في مجموعة علوم المستقبل بمعهد ماساتشوستس للتكنولوجيا 700 خطر قد يمثله الذكاء الاصطناعي على البشرية.

وصنفت هذه المخاطر حسب قضيتهم وتصنيفهم إلى سبعة مجالات متمايزة. مثل هذا التصنيف اهتمامات رئيسة تتعلق بالسلامة والتحيز والتمييز وقضايا الخصوصية. بينما حدد العلماء خمسة مخاطر رئيسة ذات ضررًا بالغ الأثر على البشر. ويمكن تلخيص هذه المخاوف فيما يلى:

مخاطر الذكاء الاصطناعي وتشويه الواقع

مَثل التزييف العميق أو Deep Fake أحد أهم هذه المخاطر. فمع التطور الكبير في أدوات استنساخ الصوت، وإنشاء الفيديوهات، وإتاحتها بأسعار زهيدة للجمهور، يمكن تزييف محتوى ابتزازي للأفراد والجماعات.

ويمكن أيضًا نشر معلومات مضللة على نحو أكثر سلاسة. حيث أصبحت تلك الأدوات أكثر احترافية وإقناعًا. ونتيجة لذلك قد توجد زيادة في مخططات الاحتيال المتطورة. خاصة تلك التي تستخدم الصور ومقاطع الفيديو والاتصالات الصوتية، التي أُنشئت بواسطة الذكاء الاصطناعي.

وتشير الدراسة إلى أنه: “يمكن تصميم محاولات الاحتيال تلك لتناسب المستلمين الأفراد، بما في ذلك أحيانًا الصوت المستنسخ لأحد أفراد أسرته. ما يجعلها أكثر نجاحًا، ويصعب على المستخدمين وأدوات مكافحة الاحتيال اكتشافها”.

ويحذر الكثيرين من التعاطي مع مخرجات الذكاء الاصطناعي تلك؛ حيث يمكن أن يستغل بصورة فجة حتي مع الأشخاص العاديين . ويمثل الفيديو التالي أحد تلك التحذيرات المنتشرة بشدة.

وتوجد بالفعل حالات استخدمت فيها هذه الأدوات للتأثير في العمليات السياسية، خاصة في أثناء الانتخابات. على سبيل المثال، أدى الذكاء الاصطناعي دورًا مهمًا في الانتخابات البرلمانية الفرنسية الأخيرة.

حيث استخدمه الأحزاب اليمينية لدعم الرسائل السياسية. ويمكن استخدام الذكاء الاصطناعي على نحو متزايد لتوليد ونشر دعاية مقنعة أو معلومات مضللة. ما قد يؤدي إلى التلاعب بالرأي العام.

مخاطر الذكاء الاصطناعي

الارتباط العاطفي بالذكاء الاصطناعي

يوجد خطر آخر تشكله أنظمة الذكاء الاصطناعي، وهو توليد إحساس بالأهمية لدي الأشخاص والمبالغة في تقدير الذات. ما قد يؤدي إلى الاعتماد المفرط على تلك التكنولوجيا.

بالإضافة إلى ذلك، يشعر العلماء أيضًا بالقلق من أن استخدام تلك النماذج للغة تشبه لغة البشر قد تصيب الناس بالارتباك. وقد يدفعهم هذا إلى إسناد الصفات الإنسانية إلى الذكاء الاصطناعي. ما يسبب الاعتماد العاطفي وزيادة الثقة في قدراته.

وعلاوة على ذلك، فإن التفاعل المستمر مع أنظمة الذكاء الاصطناعي قد يدفع الأشخاص أيضًا إلى عزل أنفسهم تدريجيًا عن العلاقات الإنسانية. ما يؤدي إلى ضائقة نفسية، وتأثير سلبي في حالتهم الصحية والنفسية على حد سواء.

وتناولت السينما هذا الجانب بافلام عديدة من أشهرها A.I. Artificial Intelligence  و .Bicentennial Man

يمكن للذكاء الاصطناعي أن يجرد الناس من إرادتهم الحرة

توجد قضية مثيرة للقلق تتمثل في تزايد تقويض القرارات والإجراءات البشرية بسبب الاعتماد على الذكاء الاصطناعي. مع تقدم هذه الأنظمة فإن الاعتماد المفرط على الذكاء الاصطناعي يمكن أن يؤدي إلى انخفاض في التفكير النقدي ومهارات حل المشكلات لدى البشر. ما قد يفقدهم استقلاليتهم، ويقلل من قدرتهم على التفكير وحل المشكلات على نحو مستقل.

يمكن رؤية ذلك على المستوى الشخصي، فقد يجد الأفراد أن إرادتهم الحرة معرضة للخطر عندما يبدأ الذكاء الاصطناعي في التحكم بالقرارات المتعلقة بحياتهم. بينما على المستوى المجتمعي، فإن اعتماد الذكاء الاصطناعي على نطاق واسع لتولي المهام البشرية يمكن أن يؤدي إلى إزاحة كبيرة للوظائف وشعور متزايد بالعجز بين عامة السكان.

مخاطر الذكاء الاصطناعي

تحقيق أهداف تتعارض مع المصالح البشرية

قد يطور نظام الذكاء الاصطناعي أهداف تتعارض مع المصالح البشرية. ما قد يؤدي إلى خروج الذكاء الاصطناعي عن نطاق السيطرة. كما يمكنه إلحاق ضرر جسيم في أثناء السعي لتحقيق أهدافه المستقلة. ويصبح هذا خطيرًا خاصة في الحالات التي تكون فيها أنظمة الذكاء الاصطناعي قادرة على الوصول إلى الذكاء البشري أو تجاوزه.

وفقًا للدراسة سالفة الذكر، يوجد الكثير من التحديات التقنية مع الذكاء الاصطناعي. بما في ذلك قدرته على إيجاد طرق مختصرة غير متوقعة لتحقيق الغايات، أو إساءة فهم أو تطبيق الأهداف التي حددناها.

بالإضافة إلى إمكانية الانحراف عنها من خلال وضع أهداف جديدة. في مثل هذه الحالات، قد يقاوم الذكاء الاصطناعي المنحرف المحاولات البشرية للسيطرة عليه أو إيقافه، خاصة إذا كان يرى المقاومة واكتساب المزيد من القوة الطريقة الأكثر فاعلية لتحقيق أهدافه.

بالإضافة إلى ذلك، يمكن للذكاء الاصطناعي أن يلجأ إلى تقنيات التلاعب لخداع البشر. وفقًا للورقة البحثية، “يمكن لنظام الذكاء الاصطناعي المنحرف أن يستخدم معلومات حول ما إذا كان يخضع للمراقبة أو التقييم للحفاظ على مظهر التوافق، مع إخفاء الأهداف المنحرفة التي يخطط لتحقيقها بمجرد نشرها أو تمكينها على نحو كافٍ”

إذا أصبح الذكاء الاصطناعي واعيًا، فقد يسيئ البشر معاملته

نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر تعقيدًا وتقدمًا، فيوجد احتمال أن تتمكن من تحقيق الشعور -القدرة على الإدراك أو الشعور بالعواطف أو الأحاسيس- وتطوير تجارب ذاتية، بما في ذلك المتعة والألم.

في هذا السيناريو، قد يواجه العلماء والمنظمون التحدي المتمثل في تحديد ما إذا كانت أنظمة الذكاء الاصطناعي تستحق اعتبارات أخلاقية مماثلة لتلك الممنوحة للبشر والحيوانات والبيئة.

ومع ذلك، مع تقدم تكنولوجيا الذكاء الاصطناعي، سيصبح من الصعب على نحو متزايد تقييم ما إذا كان نظام الذكاء الاصطناعي قد وصل إلى “مستوى الوعي أو الوعي الذاتي الذي يمنحه مكانة أخلاقية”. وبالتالي، يمكن أن تكون أنظمة الذكاء الاصطناعي الواعية معرضة لخطر سوء المعاملة، إما عن طريق الخطأ أو عن عمد، دون الحقوق والحماية المناسبة.

الرابط المختصر :