“ميتا” تضع معايير صارمة لتطوير أنظمة الذكاء الاصطناعي المتقدمة

شركة ميتا

كشفت شركة “ميتا” عملاق وسائل التواصل الاجتماعي، عن إطار عمل جديد يعرف باسم Frontier AI Framework.

يهدف هذا الإطار إلى وضع معايير صارمة لتطوير أنظمة الذكاء الاصطناعي المتقدمة. وتحديد المخاطر المحتملة التي قد تتسبب في تأخير أو حتى إلغاء إطلاق هذه الأنظمة.

“ميتا” تضع معايير محددة للذكاء الاصطناعي 

يأتي هذا الإعلان في ظل تزايد المخاوف بشأن مخاطر الذكاء الاصطناعي. وقدرته على التأثير سلبًا في المجتمع.

علاوة على ذلك، تدرك “ميتا”، كغيرها من الشركات التكنولوجية الكبرى، أهمية التعامل مع هذه المخاطر بجدية ومسؤولية.

ولا يتم تحديد مخاطر النظام من خلال الاختبارات التجريبية، لكن من خلال المراجعات الداخلية والخارجية التي يوجهها كبار صناع القرار. وفقًا لموقع “techcrunch”.

وإذا كانت المخاطر عالية. فسوف تمتنع Meta عن الإصدار حتى يتم تخفيف المخاطر. وستواجه الأنظمة الحرجة توقف التطوير وتدابير أمنية معززة.

تحدد الوثيقة، التي تطلق عليها Meta اسم Frontier AI Framework. نوعين من أنظمة الذكاء الاصطناعي التي تعتبرها الشركة محفوفة بالمخاطر للغاية بحيث لا يمكن إطلاقها: أنظمة “عالية المخاطر” وأنظمة “ذات المخاطر الحرجة”.

وكما تحددها “ميتا”، فإن الأنظمة “عالية الخطورة” و”الحرجة الخطورة” قادرة على المساعدة في الهجمات السيبرانية والكيميائية والبيولوجية.

والفرق هو أن الأنظمة “الحرجة الخطورة” قد تؤدي إلى “نتيجة كارثية لا يمكن التخفيف منها في سياق النشر المقترح”.

شركة ميتا

وقد تجعل الأنظمة عالية الخطورة تنفيذ الهجوم أسهل، لكن ليس بنفس موثوقية نظام المخاطر الحرجة.

تقدم “ميتا” بعض الأمثلة، مثل “الاختراق الآلي الشامل لبيئة الشركات المحمية بأفضل الممارسات” و”انتشار الأسلحة البيولوجية عالية التأثير”.

وتعترف الشركة بأن قائمة الكوارث المحتملة في وثيقة “ميتا” ليست شاملة، لكنها تشمل تلك التي تعتقد “ميتا” أنها “الأكثر إلحاحًا” والمحتملة للظهور كنتيجة مباشرة لإطلاق نظام ذكاء اصطناعي قوي.

نبذة عن Frontier AI Framework

ويعد Frontier AI Framework مجموعة من المعايير والمبادئ التوجيهية التي ستعتمدها “ميتا” في تطوير أنظمة الذكاء الاصطناعي. ويركز الإطار على عدة جوانب، منها:

  • تقييم المخاطر: يحدد الإطار آليات لتقييم المخاطر المحتملة التي قد تنجم عن استخدام أنظمة الذكاء الاصطناعي، مثل التحيز والتمييز، وانتشار المعلومات المضللة، والتأثير في الخصوصية.
  • ضمان الشفافية: يشجع الإطار على الشفافية في تطوير واستخدام أنظمة الذكاء الاصطناعي. بما في ذلك الكشف عن كيفية عمل هذه الأنظمة واتخاذها للقرارات.
  • المسؤولية: يحدد الإطار المسؤوليات المترتبة على مطوري أنظمة الذكاء الاصطناعي. ويشدد على أهمية تحملهم لعواقب أفعالهم.

 

ميتا

لماذا أطلقت “ميتا” هذا الإطار؟

وأشارت “ميتا” إلى أن إطلاق Frontier AI Framework يأتي انطلاقًا من إيمانها بأهمية تطوير الذكاء الاصطناعي على نحو مسؤول وأخلاقي.

كما ترى الشركة أن هذا الإطار سيساعدها على:

  • تجنب المخاطر: من خلال تقييم المخاطر المحتملة بمنهجية. ستتمكن “ميتا” من تجنب إطلاق أنظمة ذكاء اصطناعي قد تتسبب في أضرار للمجتمع.
  • بناء الثقة: من خلال الشفافية والمسؤولية. تسعى “ميتا” إلى بناء الثقة بين المستخدمين في أنظمة الذكاء الاصطناعي التي تطورها.
  • الامتثال للقوانين: تسعى “ميتا” إلى ضمان امتثال أنظمة الذكاء الاصطناعي التي تطورها للقوانين واللوائح التنظيمية المتعلقة بهذا المجال.

مستقبل الذكاء الاصطناعي في “ميتا”

يعتبر Frontier AI Framework خطوة مهمة نحو تطوير الذكاء الاصطناعي على نحو مسؤول وأخلاقي في “ميتا”.

كذلك تؤكد الشركة أنها ستواصل العمل على تطوير هذا الإطار وتحديثه بما يتماشى مع التطورات في مجال الذكاء الاصطناعي.

الرابط المختصر :