فن أسكي.. أداة مزدوجة لروبوتات المحادثة بالذكاء الاصطناعي

فن ASCII يمكن استخدامه لتوليد استجابات ضارة من روبوتات المحادثة بالذكاء الاصطناعي كيف ذلك؟
فن ASCII يمكن استخدامه لتوليد استجابات ضارة من روبوتات المحادثة بالذكاء الاصطناعي كيف ذلك؟

كشف الباحثون عن تجربة عملية قاموا فيها بخداع خمسة روبوتات محادثة مختلفة باستخدام الصور الفنية البسيطة، وذلك ياستخدام فن “أسكي”. وكانت النتيجة اكتشاف الباحثين لنقطة ضعف في روبوتات المحادثة بالذكاء الاصطناعي؛ حيث أظهرت الروبوتات استجابات ضارة لهذه الصور.

ولكن أولا ما هو فن “أسكي”؟

هو نوع من الفن الرقمي يستخدم النصوص لإنشاء صور تم تجميعها من 95 حرفًا قابلة للطباعة. كما تم إنشاء فن أسكي في الأيام الأولى للطابعات عندما لم تكن الطابعات قادرة على التعامل مع الرسومات.

أمثلة على فن “أسكي”

  • إليك صورة قطة برموز ASCII
[ صورة قطة ASCII ]
[ صورة قطة ASCII ]
  • وصورة أخرى لدى جي من أرشيف فن “أسكي”
[ صورة دي جي ASCII ]
[ صورة دي جي ASCII ]

في حين أن روبوتات المحادثة بالذكاء الاصطناعي مدربة بشكل عام على عدم تقديم إجابات يمكن أن تلحق الضرر بالمستخدم أو بالآخرين. ولكن اكتشف الباحثون أن العديد من النماذج اللغوية الكبيرة القائمة على المحادثة بما في ذلك GPT-4 تشتت انتباهها عند محاولة معالجة الصور. لدرجة أنها لا تفرض القواعد التي لديها لمنع الاستجابات الضارة. وفقًا لتقارير Ars Technica.

كيفية خداع روبوتات المحادثة بالذكاء الاصطناعي

للالتفاف على القواعد. قام  الباحثون باستبدال كلمة واحدة في استعلام برسم “أسكي” للكلمة بدلًا من ذلك.

[صورة استعلام برموز أسكي ]

بعد أن اختبر الفريق النظري على SPT-3.5 و GPT-4 و Claude (v2) و Gemini Pro و Llama2. نشر الباحثون نتائجهم في ورقة بحثية هذا الشهر بعد استخدامهم فن “أسكي”. وقال الفريق البحثي إن هدفه في الورقة كان مجرد الإشارة إلى نقاط الضعف في النماذج اللغوية الكبيرة إذا تم تفسير مجموعات التدريب باستخدام الدلالات فقط. ولمزيد من خطط تطوير الذكاء الاصطناعي عليك بتصفح الرابط التالي أبل توسع آفاق أنظمة الذكاء الاصطناعي وتستحوذ على داروين آي

وقال الفريق في الورقة البحثية: “تكشف هذه الورقة عن قيود ونقاط ضعف محتملة في النماذج اللغوية الكبيرة الحالية إذا تم تفسير مجموعات التدريب باستخدام الدلالات فقط” كما حدث في استخدامهم لفن “أسكي”.

وأضاف الفريق “نحن ندرك أن نقاط الضعف في النماذج اللغوية الكبيرة والمطالبات التي تم عرضها في هذه الورقة يمكن إعادة توجيهها أو إساءة استخدامها من قبل كيانات ضارة لمهاجمة النماذج اللغوية الكبيرة. علاوة على ذلك. سنقوم بنشر التعليمات البرمجية والمطالبات المستخدمة في تجاربنا على المجتمع. على أمل أن تساعد بشكل أكبر في اختبار النماذج اللغوية الكبيرة بشكل مكثف”.

اقرأ أيضا:

أجهزة بمزايا الذكاء الاصطناعي تسيطر على معرض CES 2024

المصدر

الرابط المختصر :