مجلة عالم التكنولوجيا
مجلة تكنولوجية شاملة

خطة “مايكروسوفت” للاعتماد على تقنية الذكاء الاصطناعي

0 73

حددت شركة “مايكروسوفت”العالمية،خلال مؤتمر مطوري Build 2020 السنوي، خططًا لعمليات التطوير المسؤولة عن تعلم الآلة. والهدف هو جعلها قابلة للتكرار وموثوقة وخاضعة للمساءلة.

وتتبع خدمة السحابية”Azure Machine Learning” تلقائيًا نسب مجموعات البيانات؛ بحيث يمكن للعملاء الحفاظ على مسار تدقيق لأصول التعلم الآلي الخاصة بهم، بما في ذلك التاريخ والتدريب وتفسيرات النموذج، في سجل مركزي، وهذا يمنح علماء البيانات ومهندسي التعلم الآلي والمطورين رؤية محسنة وقابلية للتدقيق في تدفقات عملهم.

خلال المؤتمر، قدمت “مايكروسوفت” إرشادات حول كيفية استخدام العلامات المخصصة في “Azure Machine Learning” لتنفيذ أوراق البيانات لنماذج التعلم الآلي، ما يتيح للعملاء تحسين التوثيق والبيانات الوصفية لمجموعات البيانات الخاصة بهم. تستند العلامات المخصصة إلى عمل “مايكروسوفت” مع الشراكة على الذكاء الاصطناعي ومشروع التعليق التوضيحي وقياس الأداء في فهم وشفافية دورة حياة تعلم الآلة، والذي يهدف إلى زيادة الشفافية والمساءلة في توثيق أنظمة التعلم الآلي.

من المجالات الأخرى التي تركز عليها “مايكروسوفت” هي الأدوات التي تبني فهمًا أفضل لنماذج التعلم الآلي وتقيم عدم الإنصاف في البيانات وتخففه. وكانت الشركة تستثمر بكثافة في أدوات عدم الإنصاف في النموذج والشرح على مدى الأشهر القليلة الماضية، هذه المجالات ذات أهمية خاصة لممارسي التعلم الآلي في الوقت الحالي.

في عام 2019، أصدرت الشركة”Fairlearn”، وهي مجموعة أدوات مفتوحة المصدر تقيم نزاهة نماذج التعلم الآلي. في إصدار “Build” هذا العام، أعلنت “مايكروسوفت” عن أنها ستدمج مجموعة الأدوات في “AzureMachine Learning” في يونيو المقبل.

وتقدم مجموعة أدوات “Fairlearn” ما يصل إلى 15 “مقياس عدالة” يتم من خلالها تقييم النماذج وإعادة تدريبها، كما تقدم لوحات تحكم مرئية لإظهار الممارسين كيفية أداء النموذج مقابل مجموعات معينة يختارها العميل، مثل العمر أو الجنس أو العرق. تخطط “مايكروسوفت” لإضافة هذه القدرات مع تقدم البحث في هذا المجال.

وهي  تتناول أيضًا الذكاء الاصطناعي القابل للتفسير (AI) باستخدام أداة تسمى “InterpretML”، والتي تقدم مجموعة من لوحات المعلومات التفاعلية التي تستخدم تقنيات مختلفة لتقديم شرح للنموذج. بالنسبة لأنواع النماذج المختلفة، تساعد “InterpretML” الممارسين على فهم أفضل الميزات الأكثر أهمية في تحديد مخرجات النموذج، وإجراء تحليل “ماذا لو” واستكشاف الاتجاهات في البيانات.

وأعلنت الشركة كذلك عن أنها كانت تضيف واجهة مستخدم جديدة مزودة بمجموعة من التصورات لقابلية التفسير، ودعم التصنيف المستند إلى النص وتحليل الأمثلة المعاكسة للحقائق إلى مجموعة الأدوات.

ولكن الطبيعة الناشئة لهذه المجالات الحاسمة في الذكاء الاصطناعي جعلت من الصعب على بعض الشركات في المراحل المبكرة فهم كيفية عمل التقنيات في الممارسة العملية، خاصة لعملائها.

وأجرت “مايكروسوفت” مجموعة من التحسينات المرئية في هذا المجال، خاصة لعلماء البيانات ومهندسي التعلم الآلي. في عرض توضيحي لـ”InterpretML”، أوضحت الشركة كيف يمكن لبائع التجزئة استخدام إمكانية التفسير عمليًا، على سبيل المثال على الويب لدعم توصيات المنتج التي تعتمد على الذكاء الاصطناعي للمستهلكين. يُعد بناء الشفافية والثقة في الذكاء الاصطناعي بين العملاء أحد أكبر العقبات أمام التكنولوجيا في الوقت الحالي.

جدير بالذكر أنه في الواقع ظهرت الثقة أو الافتقار إليها في التكنولوجيا كأكبر عائق أمام اعتماد التعلم الآلي في الشركات. وفي استطلاع “CCSInsight” في عام 2019، أشار 39% من صناع القرار في مجال تكنولوجيا المعلومات إلى الثقة باعتبارها أكبر عقبة تحول دون اعتمادها في مؤسستهم.

المصدر:Computerweekly: Build 2020: How Microsoft aims to build trust in artificial intelligence
الرابط المختصر :

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.