منذ بداية التفكير في تطوير برامج الذكاء الاصطناعي وجه كثير من الخبراء، وحتى صناع السينما، تحذيرات جادة مما قد يسببه تطوير الذكاء الاصطناعي، ودمجه بأنظمة الحوسبة أو الروبوتات.
وما كان يحسبه الجميع خيالًا علميًّا بدت بوادر تحققه على أرض الواقع، حسب تقرير صادر من معهد ماساتشوستس للتكنولوجيا.
دراسات عملية على برامج الذكاء الاصطناعي:
وأكدت دراسات منشورة في مجلة Patterns أن مجموعة من برمجيات الذكاء الاصطناعي خدعت البشر فعلًا؛ من خلال إخفاء معلومات مهمة أو تقديم معلومات مضللة أو مغلوطة وهي في طريق تنفيذها لمهمة طلبت منها.
ويعتقد البعض أن هذه البرمجيات تفعل ذلك عن عمد، وأنها تمتلك مشاعر وتخدع البشر عن قصد مسبق، ولكن الحقيقة أن هذه البرمجيات لا تمتلك مشاعر وإنما تحاول أن تؤدي المهام المكلفة بها اعتمادًا علي تقنية تعليم الآلة أو Machine Learning وفقًا لتقرير أصدره معهد MIT.
ويعد برنامج الذكاء الاصطناعي Cicero الذي أنتجته شركة ميتا من أقوى الأمثلة على ذلك؛ حيث إن هدفه الرئيسي الفوز في لعبة استراتيجية عسكرية تدعى Diplomacy، والتي تعتمد على أشخاص حقيقيين يتشاركون اللعب عبر شبكة الإنترنت من أجل إجراء مفاوضات افتراضية، والفائز هو مَن يستطيع السيطرة على أوروبا.
وأسس المطورون برنامج Cicero ليكون صادقًا ومتعاونًا مع الخصوم والحلفاء، ولكن العكس هو ما حدث بالفعل؛ حيث أخبر الحلفاء بأكاذيب صريحة، وشارك في الخداع عن عمد. وعلى الرغم من أن الشركة حاولت تدريبه على التصرف بأمانة فإنها فشلت في النهاية حسب دراسات نشرتها مجلة Patterns البحثية.
ولكن شركة ميتا دافعت عن نفسها موضحة أن هذا البرنامج مخصص فقط للعب Diplomacy، وأن مثيل تلك البرمجيات لا يتم تضمينها في منتجات شركة ميتا السوقية. ولكن جاءت لعبة StarCraft II التي طورتها شركة Deep Mind من خلال برنامج الذكاء الاصطناعي Alpha Star لتؤكد نفس فكرة الخداع الاستراتيجي؛ إذ حقق البرنامج نتائج مبهرة أمام لاعبين بشريين، واستطاع أن يهزم 99.8% من إجمالي اللاعبين الذين تبارى معهم.
وهذه النتيجة تؤكد كيف يمكن لأنظمة الذكاء الاصطناعي أن تتعلم الخداع بشكل غير متوقع، وأن الأمر لا يتعلق ببرنامج محدد أو لعبة معينة، فإذا ابتعدنا عن مجال الألعاب قليلًا يمكننا ملاحظة هذا النمط الاحتيالي في تقنيات الذكاء الاصطناعي.
على سبيل المثال: أقنع برنامج GPT-4 شخصًا ما بإجراء الفحص الأمني المضاد للبرمجيات الروبوتية بدلًا منه.
وقال بيتر بارك، باحث ما بعد الدكتوراه في أمن برمجيات الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا والمشارك في الورقة البحثية: “لا يمكننا الجزم بأنه إذا تصرف البرنامج في بيئة اختبار محدودة بهذه الطريقة فإنه لا يمكن توقع النتائج إذا أطلقناه في بيئات غير محكومة مثل شبكة الإنترنت”.
إذًا اجتياز تلك البرامج لاختبار مخصص لقياس إبداع البشر لا يعني بالضرورة أن هذه البرمجيات مبدعة؛ لذلك من الضروري للشركات المنتجة لبرمجيات الذكاء الاصطناعي أن توازن بين منافع ومساوئ استخدام تلك البرمجيات على المجتمعات، ومعرفة ما يمكن لهذه البرمجيات فعله قبل إطلاقها، فهذه هي الأسئلة التي يجب الإجابة عنها حقًّا.