“OpenAI” تطور نظامًا جديدًا لتحديد أنظمة الذكاء الاصطناعي

شركة OpenAI
شركة OpenAI

كشف تقرير حديث، أن شركة OpenAI أنشأت مقياسًا داخليًا لتتبع التقدم الذي تحرزه نماذج اللغة الكبيرة الخاصة بها نحو الذكاء الاصطناعي أو الذكاء الاصطناعي التوليدي، وفقًا لما قاله متحدث باسم الشركة لوكالة بلومبرج.

OpenAI تطور نظامًا لتحديد مدى ذكاء أنظمة الذكاء الاصطناعي

وحسب التقرير، فإن برامج المحادثة اليوم، مثل ChatGPT، في المستوى الأول. حيث  وتزعم OpenAI أنها تقترب من المستوى الثاني. والذي يعرف بأنه نظام يمكنه حل المشكلات الأساسية على مستوى الشخص الحاصل على درجة الدكتوراه.

ويشير المستوى الثالث إلى وكلاء الذكاء الاصطناعي القادرين على اتخاذ إجراءات نيابة عن المستخدم، أما المستوى الرابع  ينطوي على الذكاء الاصطناعي الذي يمكنه خلق ابتكارات جديدة.

شركة OpenAI

أما المستوى الخامس وهو الخطوة الأخيرة لتحقيق الذكاء الاصطناعي العام، هو الذكاء الاصطناعي الذي يمكنه أداء عمل منظمات كاملة من الناس.

وقد سبق لشركة OpenAI أن عرفت الذكاء الاصطناعي العام بأنه “نظام يتمتع باستقلالية عالية ويتفوق على البشر في معظم المهام ذات القيمة الاقتصادية”.

وصرحت الشركة بأنه “إذا اقترب مشروع قائم على القيم ويهتم بالسلامة من بناء الذكاء الاصطناعي العام” قبل أن تفعل OpenAI ذلك. فإنها تلتزم بعدم التنافس مع المشروع والتخلي عن كل شيء للمساعدة.

شركة OpenAI

ولكن الذكاء الاصطناعي العام لا يزال بعيداً بعض الشيء. فسوف يتطلب الأمر مليارات الدولارات من قوة الحوسبة للوصول إلى الذكاء الاصطناعي العام. إن كان ذلك ممكنًا على الإطلاق.

كما تختلف الجداول الزمنية التي يضعها الخبراء، وحتى في شركة OpenAI، بشكل كبير. وفي أكتوبر 2023، قال الرئيس التنفيذي لشركة OpenAI سام ألتمان: “إننا نحتاج إلى خمس سنوات، أو أكثر أو أقل”، قبل الوصول إلى الذكاء الاصطناعي العام.

الهدف من نظام التطوير 

وتم تقديم مقياس التصنيف الجديد هذا، على الرغم من أنه لا يزال قيد التطوير، بعد يوم واحد من إعلان OpenAI عن تعاونها مع مختبر لوس ألاموس الوطني. والذي يهدف إلى استكشاف كيف يمكن لنماذج الذكاء الاصطناعي المتقدمة مثل GPT-4o المساعدة بأمان في البحث العلمي البيولوجي.

وقال مدير برنامج في لوس ألاموس، المسؤول عن محفظة علم الأحياء للأمن القومي والفعال في تأمين شراكة OpenAI، لموقع The Verge أن الهدف هو اختبار قدرات GPT-4o وإنشاء مجموعة من عوامل السلامة وغيرها للحكومة الأمريكية.

وفي مايو، حلت شركة OpenAI فريق السلامة لديها بعد أن ترك زعيم المجموعة. المؤسس المشارك لشركة OpenAI، إيليا سوتسكيفر، الشركة.

واستقال جان لايكي، وهو باحث رئيسي في شركة OpenAI، بعد فترة وجيزة من ادعائه في منشور أن “ثقافة السلامة والعمليات. أصبحت في مرتبة ثانوية مقارنة بالمنتجات اللامعة” في الشركة.

المصدر

theverge

الرابط المختصر :