قدمت شركة جوجل مذكرة داخلية تتضمن إرشادات جديدة إلى العاملين على مشروع “Gemini” حول تعديلات فيه.
هل يقدم Gemini معلومات غير صحيحة؟
أثارت هذه التعديلات بشأن gemini مخاوف من أنه يقدم لمستخدميه معلومات غير صحيحة حول مواضيع حساسة للغاية، مثل: الرعاية الصحية.
قد يبدو الذكاء الاصطناعي مذهلًا ولكن هناك فريقًا ضخمًا من الموظفين وراء تطوير هذه الأنظمة في شركات، مثل: جوجل. إضافة الى مطوري قواعد البيانات الذين يقيّمون دقة معلومات روبوتات الدردشة لتحسين ما يقدمه الذكاء الاصطناعى.

كما يمتنعون عن تقييم الردود التي يولدها الذكاء الاصطناعي إذا كانت خارج مجال خبراتهم. على سبيل المثال: يمكن تخطي تعليمات تتعلق بسؤال متخصص في علم النفس إذا كان روبوت الدردشة لا يملك خلفية علمية في هذا المجال.
لكن الأسبوع الماضي أعلنت سلسلة “GlobalLogic” تغييرًا من جوجل مفاده أنه لم يعد يسمح للمنفذين بتخطي هذه التعليمات، بغض النظر عن خبراتهم. وفق موقع TechCrunch. وتتضمن الإرشادات التالي:
-إذا لم تكن لدي مطوري قواعد البيانات خبرة حاسمة لتقييم هذه التعليمات يرجى تخطي هذه المهمة.
-يطلب من المنفذين تقييم الأجزاء من التعليمات التي يفهمونها. وإضافة ملاحظة تفيد بعدم امتلاكهم معرفة متخصصة في هذا المجال.
علاوة على أن هذه المذكرة أثارت قلقًا مباشرًا بشأن دقة معلومات “Gemini” في بعض المواضيع. حيث يتم تكليف المطورين أحيانًا بتقييم ردود الذكاء الاصطناعي حول مسائل، مثل: الأمراض النادرة التي لا يمتلكون خلفية عنها.
وصرح أحد المطورين في المراسلات الداخلية بأنه كان يعتقد أن الهدف من التخطي هو زيادة الدقة عن طريق إعطائها لشخص أفضل
أما الآن فانه يسمح لهم بتخطي التعليمات في حالتين فقط هما:
- إذا كان المطور يفتقر تمامًا للمعلومات.
- إن كانت الملعومات تحتوي على محتوى ضار.














