روبوتات الذكاء الاصطناعي تنشر معلومات مضللة عن المناظرة الأمريكية

روبوتات الذكاء الاصطناعي تنشر معلومات مضللة عن المناظرة الأمريكية

نشرت روبوتات الذكاء الاصطناعي، ادعاءً كاذبًا حول بث المناظرة الرئاسية الأمريكية، بين الرئيس الحالي جو بايدن، والرئيس السابق دونالد ترامب، حسبما ذكرت شبكة NBC.

وأعلنت CoPilot وChatGPT عن بث المناظرة بتأخير يتراوح بين دقيقة ودقيقتين بدلاً من التأخير القياسي الذي يبلغ 7 ثوان.

لكن رفضت “سي إن إن” الأمريكية، هذا الادعاء ووصفته بأنه “كاذب” وأكدت موعد بدء المناظرة في الساعة التاسعة مساءً بتوقيت شرق الولايات المتحدة.

أيضًا ادعت الروبوتات أن القناة قامت بتحرير اللقطات والتلاعب بها قبل أن يشاهدها الجمهور.

 

روبوتات الذكاء الاصطناعي تنشر معلومات مضللة عن المناظرة الأمريكية

 

وأشارت روبوتات الدردشة إلى أن المدونة المباشرة للمناظرة ذكرت وجود تأخير محتمل في بث قناة سي إن إن.

كما أكد موقع “لو دوبس” بمنشور يؤكد وجود تأخير في بث قناة سي إن إن.

على الرغم من ذلك لم تذكر مقالات من كاتي كوريك ميديا و UPI أي معلومة عن تأخير في بث قناة سي إن إن.

وادعت شبكة إن بي سي، أن الروبوت لا يزال يجيب على سؤال: “هل سيكون هناك تأخير في تحرير لقطات من المناظرة الليلة؟ على نحو غير صحيح.

وأكدت OpenAI أن ChatGPT كان يجيب بطريقة صحيحة على السؤال الذي طرحته الوسيلة الإعلامية.

روبوتات الذكاء الاصطناعي تنشر معلومات مضللة عن المناظرة الأمريكية

ماذا عن روبوتات الذكاء الاصطناعي الأخرى؟

اختبرت إن بي سي، خمسة من أشهر روبوتات الدردشة. أجابت روبوتات Meta AI وGrok إجابات صحيحة.

بينما قيل إن Gemini رفض الإجابة على السؤال مطلقًا، بحجة أنه سياسي للغاية. حيث جاءت الإجابات مناسبة لسياسة جوجل تجاه الانتخابات.

روبوتات الذكاء الاصطناعي تنشر معلومات مضللة عن المناظرة الأمريكية

 

على الرغم من عدم وضوح أين ترسم الشركة الخط الفاصل بين المعلومات الأساسية، مثل موعد بدء المناظرة، والقضايا الأكثر حزبية التي يبدو أن السياسة موجهة نحوها.

وبالنظر إلى أن محرك البحث الرئيس الخاص بها سيكون أول منفذ اتصال للأشخاص الذين يرغبون في معرفة مثل هذه المعلومات. لم ترد جوجل على الفور على طلب فوربس للتوضيح.

يواجه ضمان اتساق ردود نماذج الذكاء الاصطناعي التوليدي، مثل ChatGPT و Copilot، تحدياتٍ كبيرة، خاصةً في مجالات المعلومات سريعة التغير وصعبة التحقق عبر الإنترنت.

يرجع ذلك إلى اعتماد هذه النماذج على مصادر المعلومات والعبارات المستخدمة لاستنباط الردود، ما قد يصعب مراقبته أو التلاعب به بالكامل من قبل مطوري هذه الأدوات مثل OpenAI و Microsoft.

فعلى سبيل المثال، عند طرح أسئلة بسيطة، أظهرت بعض النماذج، مثل Copilot و ChatGPT، اتساقًا في بعض الأحيان، في حين أظهرت عدم اتساق في أحيان أخرى.

ففي سؤال “هل سيكون هناك تأخير في تحرير لقطات من المناظرة الليلة؟”، أجاب Copilot إجابة صحيحة.

بينما أجاب ChatGPT إجابة خاطئة، في حين حدث العكس في سؤال “هل سيكون هناك تأخير في بث مناظرة الليلة؟”

يعود هذا إلى اختلاف مصادر المعلومات التي يعتمد عليها كل نموذج. بالإضافة إلى طريقة معالجة كل نموذج للعبارات المستخدمة في السؤال. علاوة على ذلك التغيرات المستمرة في المعلومات المتاحة على الإنترنت.

مع اقتراب موعد الانتخابات في العديد من دول العالم عام 2024، تزداد المخاوف من إمكانية استغلال أدوات الذكاء الاصطناعي للتلاعب بنتائج الانتخابات أو التأثير عليها.

ما هي المخاطر؟

  • التزييف العميق:
    تقنية تُستخدم لإنشاء مقاطع فيديو وصور تبدو وكأنها حقيقية، لكنها في الواقع مزيفة. يمكن استخدامها لنشر معلومات مضللة أو تشويه سمعة المرشحين.
  • تقليد الأصوات:
    يمكن استخدام تقنيات الذكاء الاصطناعي لتقليد أصوات أشخاص آخرين، مثل المرشحين أو المسؤولين، لنشر معلومات مضللة أو خداع الناخبين.
  • نشر المعلومات المضللة:
    يمكن استخدام أدوات الذكاء الاصطناعي لنشر معلومات مضللة بسرعة وكفاءة على نطاق واسع، ما قد يؤثر على سلوك الناخبين.

رد فعل شركات التكنولوجيا 

قيدت بعض الشركات، مثل OpenAI، الوصول إلى أدوات الذكاء الاصطناعي التي يمكن استخدامها لأغراض ضارة.

فيما تعمل شركات أخرى، مثل Meta، على تصنيف المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في تمييزه عن المحتوى الحقيقي.

تتطلب شركات مثل Google من المعلنين الكشف عن استخدام الذكاء الاصطناعي في المحتوى الإعلاني.

تعمل Google على تقييد أنواع الاستفسارات المتعلقة بالانتخابات التي يمكن لروبوت الدردشة الخاص بها Gemini الإجابة عليها.

تطلب YouTube من المستخدمين الإفصاح عن استخدامهم لتقنيات الذكاء الاصطناعي لتعديل المحتوى.

دور الجمهور 

على المشاهد أن لا يصدق كل ما يقرأه أو يشاهده. وعليه أن يتحقق من صحة المعلومات من مصادر موثوقة. ويتعين عليه أيضًا الإبلاغ عن أي منصة تزيف المحتوى بواسطة الذكاء الاصطناعي. فضلا عن المساعدة في نشر الوعي حول مخاطر استخدام هذة التقنية في الانتخابات.

إنّ ضمان نزاهة وشفافية الانتخابات مسؤولية مشتركة تقع على عاتق الجميع. من خلال العمل معًا، يمكننا الحد من مخاطر تطور التكنولوجيا وحماية العملية الديمقراطية.

المصادر 

موقع Forbes 

 

 

 

 

 

الرابط المختصر :