بناء الثقة في الذكاء الاصطناعي: حالة الحوكمة والتنظيم المحليين

الدكتورة هبة الشيمي

بقلم: الدكتورة هبة الشيمي، أستاذة مساعد فى البيانات والذكاء الاصطناعي، جامعة هيريوت وات دبي

شهد استخدام الذكاء الاصطناعي نموًا متسارعًا خلال السنوات الثلاث الماضية، وازداد الوعي العام بإمكاناته بشكل ملحوظ، لا سيما منذ إطلاق «شات جي بي تي» في أواخر عام 2022، وهو ما أسهم في انتشار واسع لروبوتات الدردشة وتطبيقات الذكاء الاصطناعي المختلفة. ومع هذا التوسع في الاستخدام عبر مجالات الحياة المتعددة، برزت أيضًا بعض التحديات، إذ قد تعاني أنظمة الذكاء الاصطناعي من ظاهرة “الهلوسة”، أو تتصرف أحيانًا بطرق غير متوقعة، كما يمكن في بعض الحالات التلاعب بها. ومع انتشار الذكاء الاصطناعي على نطاق واسع، دخل مجالات حساسة مثل المجالات المالية والقانونية والأمنية والرعاية الصحية، حيث تُؤدي الأخطاء إلى عواقب وخيمة. وقد وجدت دراسة عالمية مشتركة بين KPMG وكلية ملبورن للأعمال، شملت 47 دولة، أن أقل من نصف مستخدمي الذكاء الاصطناعي الحاليين (46%) على استعداد للوثوق به. وهذا التشكيك له ما يبرره، إذ أن معظم النماذج التي تُشغل هذه الأدوات المتقدمة للذكاء الاصطناعي هي “صناديق سوداء”، لا تُقدم أي تفسيرات لقراراتها. وقد جعلت هذه المخاوف حوكمة الذكاء الاصطناعي وتنظيمه ليس فقط أمراً مهماً لضمان التبني الآمن لأنظمة الذكاء الاصطناعي، بل أمراً ملحاً.

الحاجة إلى حوكمة وتنظيم للذكاء الاصطناعي:

قد تفشل نماذج الذكاء الاصطناعي بطرق يصعب اكتشافها، بدءًا من البيانات والتقنيات المستخدمة في التدريب. فقضايا مثل التحيز والإنصاف والأخلاقيات والقيم الثقافية والفروق اللغوية الدقيقة، كلها تحدد ما إذا كان النموذج سيكسب ثقة المستخدمين أم سيفقدها. وقد كشف باحثون في معهد جورجيا للتكنولوجيا كيف فشلت نماذج اللغة الكبيرة الشائعة، التي طُوّرت في الدول الغربية، مثل «شات جي بي تي»، باستمرار في استيعاب القيم الثقافية حتى عند استخدام اللغة العربية.

وبالمثل، درس باحثون في جامعة محمد بن زايد للذكاء الاصطناعي كيفية تعامل نماذج اللغة الكبيرة مع التحيزات العرقية والطبقية عند تقييم المتقدمين للوظائف. وأظهرت النتائج أنه رغم تجنب معظم النماذج التمييز العنصري الصريح، فإنها لم تُظهر الحساسية ذاتها تجاه التحيز الطبقي، مما أدى إلى مخرجات قد تُكرّس أنماطًا غير عادلة، إذ ربطت بعض المهن ذات المكانة المرتفعة، مثل الطب، بالطبقات الاجتماعية الأعلى. واللافت أن هذه النتائج ظهرت حتى في بيئات محايدة، من دون أي تحريض أو توجيه عدائي. تُبرز الدراستان فجوةً جوهرية: فمعظم الجهود الحالية المبذولة لضمان سلامة الذكاء الاصطناعي تتمحور حول منظور غربي، متجاهلةً السياقات الثقافية والإقليمية. وهذا ما يجعل من الضروري لدول مجلس التعاون الخليجي ، تطوير أطر حوكمة ولوائح تحترم القيم واللغات والبنى المجتمعية المحلية.

 

دور الإمارات الرائد في مجال الحوكمة

كانت الإمارات العربية المتحدة من أوائل دول المنطقة التي تبنت الذكاء الاصطناعي في مختلف القطاعات. فعلى سبيل المثال، عُيّن معالي عمر سلطان العلماء، أول وزير دولة في العالم لشؤون الذكاء الاصطناعي، في الإمارات عام 2017. وفي خطوة استراتيجية، أعلنت الإمارات أيضاً عن انضمام نظامها الوطني للذكاء الاصطناعي إلى المجلس الاستشاري الوزاري لتعزيز كفاءة القرارات والسياسات الحكومية، وهو أحد الأهداف العديدة ضمن الاستراتيجية الوطنية للذكاء الاصطناعي 2031، التي تشمل الحوكمة والتنظيم الفعال كأولويات أساسية. ورغم أن الإمارات لا تملك حالياً تشريعاً خاصاً بالذكاء الاصطناعي، إلا أنها حققت إنجازاً هاماً عام 2024 بإصدار ميثاق الإمارات لتطوير واستخدام الذكاء الاصطناعي. تعطي هذه السياسة الأولوية لرفاهية الإنسان وسلامته وإمكانية الوصول إليه وتنوعه، وخصوصية بيانات أفراد المجتمع، والشفافية، والإشراف البشري على الذكاء الاصطناعي، والحوكمة والمساءلة.

أطلقت دولة الإمارات العربية المتحدة بيئات تجريبية تنظيمية (RegLabs)، وهي بيئات خاضعة للرقابة تتيح اختبار الحلول المبتكرة وفقًا لمجموعة من القواعد والضمانات المناسبة تحت إشراف الجهة التنظيمية. وتتوفر عدة بيئات تجريبية للشركات الناشئة والشركات العاملة في مجال الذكاء الاصطناعي، مثل البيئة التجريبية العالمية لتكنولوجيا التجارة، والبيئة التجريبية التنظيمية لتكنولوجيا المعلومات والاتصالات، ومختبر أبوظبي العالمي التنظيمي لحلول التكنولوجيا المالية، والبيئة التجريبية لبيانات الصحة. ومن خلال هذه الجهود، حققت دولة الإمارات التوازن الأمثل: تنظيم الذكاء الاصطناعي الموجه نحو الابتكار والمخصص لقطاعات محددة، والذي يعالج المخاطر الناشئة مع بناء أطر حوكمة فعالة تدريجيًا. وكما أشار معالي الوزير عمر سلطان العلماء ، “ينبغي تصميم اللوائح بما يتناسب مع كل دولة على حدة، مع إدراك أن التحديات التي تواجهها الولايات المتحدة تختلف عن تلك التي تواجهها دولة الإمارات أو اليابان أو الصين أو إنجلترا”. ويجسد نهج دولة الإمارات هذا المبدأ، مما يثبت أن الحوكمة الفعالة للذكاء الاصطناعي يجب أن تُبنى محليًا لكسب الثقة عالميًا.

التطلعات المستقبلية:

تُعد جهود دولة الإمارات جزءًا من زخم إقليمي أوسع. أُسندت إلى البحرين مهمة قيادة تطوير استراتيجية موحدة للذكاء الاصطناعي في دول مجلس التعاون الخليجي، مما يُشير إلى تعاون استراتيجي يهدف إلى جعل دول المجلس مُستعدة للمستقبل. من جهة أخرى، وإدراكاً منها أن نماذج الذكاء الاصطناعي الغربية لا تُلبي احتياجات السكان العرب بشكل كافٍ، استثمرت عدة دول في مجلس التعاون الخليجي في تطوير حلول محلية، من بينها نموذجا فالكون وجيس الإماراتيان، ونموذج علام السعودي، ونموذج فنار القطري.

تتمتع المنطقة بفرصةٍ لتقديم مسارٍ مستقرٍ للعالم نحو تبني الذكاء الاصطناعي بمسؤولية، مسارٍ يوازن بين الابتكار والمساءلة، وبين الطموح العالمي والملاءمة المحلية. ولتحقيق هذه الإمكانية بالكامل، سيكون الاستثمار المستمر في التوعية بالذكاء الاصطناعي، والتعاون بين القطاعات، والمشاركة العامة الشفافة، أمراً بالغ الأهمية.

الرابط المختصر :