في وقت سابق من هذا الأسبوع، واجهت جوجل أزمة مع نموذج ذكاء اصطناعي جديد يُدعى “الجوزاء”. حيث صممت هذه الأداة لإنشاء صور لأشخاص بناءً على أوصاف نصية.
وواجهت جوجل انتقادات واسعة النطاق بعد أن اشتكى المستخدمون من أن الأداة تنشئ صورًا غير دقيقة تاريخيًا. حيث غالباً ما تصور أشخاصًا من أعراق مختلفة في صور من غير المرجح أن يكونوا موجودين فيها.
ماذا حدث؟
وفقًا لـ Prabhakar Raghavan. نائب الرئيس الأول لشركة Google. تم تصميم الجوزاء لضمان تمثيل مجموعة متنوعة من الأشخاص في الصور التي تنشئها. ومع ذلك. أدى هذا التصميم إلى نتائج عكسية في بعض الحالات.
التحديات:
- عدم التمييز بين الحالات المناسبة وغير المناسبة: فشل نموذج الجوزاء في التمييز بين الحالات التي من المناسب فيها تمثيل مجموعة متنوعة من الأشخاص، والحالات التي لا يكون ذلك مناسبًا فيها.
- التفسير الخاطئ: فسر النموذج بعض المطالبات المهدئة للغاية على أنها حساسة، مما أدى إلى رفضه إنشاء صور لأشخاص من أعراق معينة.
النتائج:
- صور محرجة وخاطئة: أدى التصميم الخاطئ إلى إنشاء صور محرجة و غير دقيقة تاريخيًا.
- إيقاف تشغيل الأداة: اضطرت جوجل إلى إيقاف تشغيل الأداة مؤقتًا.
اقرأ ايضًا:
إنشاء صور عالية الجودة بتقنية الذكاء الاصطناعي من جوجل مجانًا
الخطة المستقبلية:
- تحسينات كبيرة: تعمل جوجل على إجراء تحسينات كبيرة على نموذج الجوزاء قبل إعادة تشغيله مرة أخرى.
- اختبارات مكثفة: ستتضمن عملية التحسين اختبارات مكثفة لضمان عدم تكرار نفس المشكلات.
التعلم من التجربة:
- التقييم الدقيق: تدرك جوجل أهمية تقييم نماذج الذكاء الاصطناعي بدقة قبل نشرها.
- التواصل مع المستخدمين: تؤكد جوجل على أهمية التواصل مع المستخدمين لفهم احتياجاتهم وتوقعاتهم.
مازال أستخدام تقنيات الذكاء الاصطناعي بها الكثير من التحديات .فقد واجهت جوجل تحديات كبيرة مع نموذج الجوزاء، لكنها تتعهد بإصلاح الأخطاء قبل إعادة تشغيل الأداة. كما تُظهر هذه التجربة أهمية التقييم الدقيق ل نماذج الذكاء الاصطناعي، والتواصل مع المستخدمين، والتصميم المسؤول للأدوات التي تعتمد على هذه التكنولوجيا.
اقرأ أيضًا:
Lazarus توظف منظومة برمجيات خبيثة متعددة الأنظمة في سلسلة من هجمات التجسّس وطلب الفدية



















