أحدث نماذج الذكاء الاصطناعي تمنع الهجمات الكيميائية والبيولوجية

ما أحدث نماذج الذكاء الاصطناعي من OpenAI
ما أحدث نماذج الذكاء الاصطناعي من OpenAI؟

كشفت شركة OpenAI عن أحدث نماذج للذكاء الاصطناعي، وهو نظام المراقبة “o3″، و”o4-mini”، الذي يعمل للتنبيه ضد الهجمات البيولوجية والكيميائية.

أحدث نماذج الذكاء الاصطناعي من OpenAI

ويهدف النموذج الجديد إلى منع تطبيقات وبرامج الذكاء الاصطناعي، وغيرها، من تقديم نصائح قد ترشد أي شخص إلى تنفيذ هجمات بيولوجية أو كيميائية ضارة. حيث أشارت الشركة إلى أن نظامي “O3″، و”o4-mini” يتمتعان بقدرات أعلى في هذا المجال، مقارنةً بالنماذج السابقة التي أنتجتها الشركة. وفقًا لتقرير السلامة الصادر عن الشركة.

OpenAI

ووفق المعايير الداخلية لـ”أوبن إيه آي”، فإن نظام “O3” أكثر مهارةً في الإجابة عن الأسئلة المتعلقة بإنشاء أنواع محددة من التهديدات البيولوجية. ولهذا السبب، وللتخفيف من المخاطر الأخرى، ابتكرت الشركة نظام المراقبة الجديد. الذي تصفه بأنه “منطقي ويركز على السلامة”.

نظاما “o3″ و”o4-mini”

ووفق تقرير موقع “techcrunch”، الذي اطلعت عليه “عالم التكنولوجيا”، فإن جهاز المراقبة المدرَّب لفهم سياسات محتوى OpenAI. يعمل على النظامين الجديدين، لتحديد الإشارات المتعلقة بالمخاطر البيولوجية، والكيميائية. كما يوجه النماذج الأخرى لرفض تقديم نصائح حول هذه الموضوعات.

ولتحديد خط الأساس، أمضى أعضاء فريق OpenAI الأحمر، نحو 1000 ساعة في الإبلاغ عن محادثات غير آمنة، تتعلق بالمخاطر البيولوجية. علاوة على أنه خلال اختبار قامت فيه الشركة بمحاكاة مراقب السلامة الخاص بها. رفضت النماذج الاستجابة للمطالبات الخطيرة، بنسبة 98.7%.

وتعترف الشركة بأن اختبارها لم يأخذ في الاعتبار الأشخاص الذين قد يحاولون تجربة مطالبات جديدة بعد حظرهم. ولهذا السبب تقول الشركة إنها ستستمر في الاعتماد جزئيًا على المراقبة البشرية.

GPT-4

وفقًا للشركة، لا يتجاوز “O3″، و”o4-mini”، عتبة الخطر العالي للمخاطر البيولوجية التي حددتها OpenAI. ومع ذلك، فإنه مقارنةً بـ”o1″، و”GPT-4″، تقول OpenAI إن الإصدارات المبكرة أثبتت فعاليتها في الإجابة عن التساؤلات المتعلقة بتطوير الأسلحة البيولوجية.

وتعمل الشركة بشكل نشط على تتبع كيفية إسهام نماذجها في تسهيل قيام المستخدمين الضارين بتطوير التهديدات الكيميائية والبيولوجية. في حين تعتمد OpenAI بشكل متزايد على الأنظمة الآلية للحد من مخاطر نماذجها.

على سبيل المثال، لمنع مولد الصور الأصلي في “GPT-4o”، من إنشاء مواد اعتداء جنسي على الأطفال. تقول OpenAI إنها تستخدم مراقبًا منطقيًا مشابهًا لذلك الذي استخدمته الشركة لنظامي “o3″، و”o4-mini”.

ومع ذلك، أبدى العديد من الباحثين خوفهم من أن OpenAI لا تولي السلامة الأولوية الكافية. إذ صرحت Meta، إحدى شركاء OpenAI في فريق الدعم، بأن الوقت المتاح لاختبار “o3” على معيار سلوك الخداع محدود نسبيًا.

وفي الوقت نفسه، قررت OpenAI عدم إصدار تقرير سلامة لنموذج GPT-4.1 الخاص بها. الذي تم إطلاقه في وقت سابق من هذا الأسبوع.

الرابط المختصر :