تخوف عالمي من أحدث نماذج “جوجل” للذكاء الاصطناعي.. ما السبب؟

جيميني

بعد أسابيع قليلة من إطلاق شركة التكنولوجيا الأمريكية العملاقة جوجل لأحدث وأقوى نماذجها في مجال الذكاء الاصطناعي. “جيميني 2.5 برو”، نشرت الشركة تقريرًا فنيًا يسلط الضوء على نتائج تقييماتها الداخلية لعوامل السلامة والأمان، في هذا النموذج المتطور.

تقييمات لعوامل السلامة والأمان   

ويهدف هذا التقرير، الذي يأتي في سياق تزايد التدقيق العالمي حول مخاطر الذكاء الاصطناعي المتقدمة. إلى طمأنة المستخدمين والجهات التنظيمية، بشأن الجهود التي تبذلها عملاق التكنولوجيا لضمان تطوير ونشر هذه التقنية، بشكل مسؤول وآمن.

وتتبع  الشركة نهجًا مختلفًا في إعداد تقارير السلامة عن بعض منافسيها من شركات الذكاء الاصطناعي. حيث تنشر التقارير الفنية فقط بعد اجتياز النموذج المرحلة “التجريبية”. كما لا تدرج الشركة نتائج جميع تقييماتها “للقدرات الخطرة” في هذه التقارير. بل تحتفظ بها لتدقيق منفصل.

مع ذلك، أعرب العديد من الخبراء الذين تحدثت إليهم TechCrunch عن خيبة أملهم من ندرة تقرير Gemini 2.5 Pro، الذي أشاروا إلى أنه لا يذكر إطار عمل السلامة الحدودي (FSF) التابع لجوجل.

شعار الذكاء الاصطناعي التوليدي الخاص بـ Google Gemini على هاتف ذكي.

فيما أطلقت الشركة صاحبة أكبر محرك بحث على الإنترنت في العالم، إطار العمل هذا العام، واصفة إياه بأنه “جهد لتحديد قدرات الذكاء الاصطناعي المستقبلية. التي قد تسبب أضرارًا جسيمة”.

وفي هذا الشأن، قال بيتر وايلدفورد، المؤسس المشارك بمعهد سياسات واستراتيجيات الذكاء الاصطناعي. لموقع تك كرانش: “هذا التقرير مقتضب للغاية، ويحتوي على معلومات ضئيلة، وقد صدر بعد أسابيع من إتاحة النموذج للجمهور”.

وأضاف: “من المستحيل التحقق من التزام جوجل بواجباتها العامة. وبالتالي من المستحيل تقييم سلامة وأمن نماذجها”. وفقا لموقع” techcrunch”.

على الجانب الأخر، قال توماس وودسايد، المؤسس المشارك بمشروع Secure AI. إنه على الرغم من سعادته بنشر الشركة تقريرًا عن Gemini 2.5 Pro. فإنه غير مقتنع بالتزام الشركة بتقديم تقييمات سلامة إضافية في الوقت المناسب.

وأشار وودسايد إلى أن آخر مرة نشرت فيها جوجل نتائج اختبارات القدرات الخطيرة، كان في يونيو 2024. لنموذج أعلن عنه في فبراير من العام نفسه.

جوجل من أوائل مختبرات الذكاء الاصطناعي

وربما كانت جوجل من أوائل مختبرات الذكاء الاصطناعي التي اقترحت تقارير موحدة للنماذج. لكنها ليست الوحيدة التي اتهمت مؤخرًا بالتقصير في الشفافية.

فيما أصدرت شركة ميتا تقييمًا مشابهًا عن سلامة نماذجها المفتوحة الجديدة، Llama 4. واختارت OpenAI عدم نشر أي تقرير لسلسلة GPT-4.1.

وتثقل كاهل جوجل الوعود التي قدمتها للجهات التنظيمية، بالحفاظ على معايير عالية لاختبارات سلامة الذكاء الاصطناعي وإعداد التقارير عنها.

وقبل عامين، أبلغت الشركة الحكومة الأمريكية بأنها ستنشر تقارير السلامة لجميع نماذج الذكاء الاصطناعي العامة المهمة، ضمن نطاقها.

وتبعت الشركة هذا الوعد بالتزامات مماثلة تجاه دول أخرى. متعهدة بتوفير الشفافية العامة، حول منتجات الذكاء الاصطناعي.

الرابط المختصر :