قوانين الذكاء الاصطناعي.. عقوبات صارمة

Europe Proposes Strict Rules for Artificial Intelligence

يملك الاتحاد الأوروبي رؤية واضحة حول قوانين الذكاء الاصطناعي، وفي الأسبوع الماضي كشف النقاب عن لوائح صارمة للتحكم في استخدام وممارسة أنظمة الذكاء الاصطناعي، وتعتبر هذه السياسة الأولى من نوعها التي تحدد كيف يمكن للشركات والحكومات استخدام التكنولوجيا التي يُنظر إليها على أنها من أهم المنجزات والاختراعات العلمية، لكن في الآونة الأخيرة نالت بعض الانتقادات حول الأخلاقيات.

إطار قوانين الذكاء الاصطناعي الجديدة للاتحاد الأوروبي

ستضع مسودة القواعد والقوانين الجديدة للاتحاد الأوروبي حدودًا حول استخدام الذكاء الاصطناعي في مجموعة من الأنشطة، والتي تشمل: السيارات ذاتية القيادة وقرارات التوظيف والإقراض المصرفي واختيارات التسجيل في المدارس والتسجيل للامتحانات، كما أنه ستتم مراقبة استخدام الذكاء الاصطناعي من قِبل أجهزة إنفاذ القانون وأنظمة المحاكم باعتبارها مناطق عالية الخطورة؛ حيث يمكن أن تهدد سلامة الناس أو حقوقهم الأساسية وتتسبب في معاداة المنظمات المنادية بحقوق الإنسان.

ووفقًا للقواعد الجديدة للاتحاد الأوروبي فيما يخص قوانين الذكار الاصطناعي سيتم حظر بعض الاستخدامات تمامًا، بما في ذلك التعرف المباشر على الوجه في الأماكن العامة، ولكن سيكون هناك العديد من الاستثناءات في الأمور التي تتعلق بالأمن القومي والأغراض المشابهة الأخرى.

والسياسة  الجديدة للاتحاد الأوروبي هي محاولة لتنظيم التكنولوجيا الناشئة، وقوانين الذكاء الاصطناعي الجديدة لها آثار بعيدة المدى في شركات التكنولوجيا الكبرى التي ضخت الموارد في تطوير تقنيات الذكاء الاصطناعي، بما فيها: Amazon وGoogle وFacebook وMicrosoft، وبالمقابل توجد العشرات من الشركات الأخرى التي تستخدم برنامج تعمل بتقنية الذكاء الاصطناعي لتطوير الطب وضمان مستندات التأمين والحكم على الجدارة الائتمانية، وقد استخدمت الحكومات نسخًا من التكنولوجيا في العدالة الجنائية وتخصيص الخدمات العامة مثل دعم الدخل العام ودخل المواطنين.

 

إجراءات الشركات بعد خرق قوانين الذكاء الاصطناعي الجديدة

قد تواجه الشركات التي تنتهك اللوائح الجديدة، والتي قد تستغرق عدة سنوات للانتقال إلى اتباع السياسات الجديدة في الاتحاد الأوروبي، غرامات تصل إلى 6 في المائة من المبيعات العالمية الخاصة بها، وفي هذا السياق تقول مارجريت فيستاجر Margrethe Vestager؛ نائبة الرئيس التنفيذي للمفوضية الأوروبية، التي تشرف على السياسة الرقمية للكتلة المكونة من 27 دولة، في بيان، إنه فيما يتعلق بأمر قوانين الذكاء الاصطناعي فإن الثقة أمر لا بد منه، وبهذه القواعد التي تعد تاريخيةً يقود الاتحاد الأوروبي تطوير معايير عالمية جديدة؛ للتأكد من إمكانية الوثوق بالذكاء الاصطناعي.

وتتطلب لوائح الاتحاد الأوروبي من الشركات التي توفر الذكاء الاصطناعي في المناطق عالية الخطورة تزويد المنظمين بإثبات سلامتها، بما في ذلك: آلية تقييم المخاطر والوثائق التي تشرح كيفية إشراك التكنولوجيا في عملية اتخاذ القرار، كما يجب على الشركات ضمان الإشراف البشري Human Oversight على كيفية إنشاء الأنظمة واستخدامها.

وبعض التطبيقات، مثل روبوتات الدردشة Chatbots التي توفر محادثة شبيهة بالبشر في مجالات خدمة العملاء إضافة للبرامج التي تنشئ صورًا يصعب اكتشافها مثل التزييف العميق أو الديب فيك Deepfake، يجب أن توضح للمستخدمين أن ما يرونه تم إنشاؤه بواسطة جهاز كمبيوتر وأنظمة الذكاء الاصطناعي.

 

ولسنوات عديدة كان الاتحاد الأوروبي أكثر مراقبي صناعة التكنولوجيا عدوانية في العالم، وغالبًا ما تستخدم الدول الأخرى سياساته كمخططات. وقد سن بالفعل أكثر لوائح خصوصية البيانات بعيدة المدى في العالم، وتناقش قوانين الذكاء الاصطناعي الجديدة قواعد إضافية لمكافحة الاحتكار واعتدال المحتوى، ولكن أوروبا لم تعد وحدها التي تضغط من أجل إشراف أكثر صرامة؛ حيث تواجه أكبر شركات التكنولوجيا الآن رقابة أوسع من الحكومات في جميع أنحاء العالم، ولكلٍ منها دوافعه السياسية والتقنية الخاصة به.

 

قوانين الذكاء الاصطناعي خارج الاتحاد الأوروبي

في الولايات المتحدة زوَّد الرئيس بايدن إدارته بمنتقدي الصناعة، وتقوم بريطانيا بإنشاء منظم تقني لمراقبة الصناعة، وتشدد الهند الرقابة على وسائل التواصل الاجتماعي، واستهدفت الصين عمالقة التكنولوجيا المحليين مثل: علي بابا Alibaba وتينسنت Tencent.

 

أخيرًا يمكن القول إنه يمكن للنتائج في السنوات القادمة إعادة تشكيل كيفية عمل الإنترنت العالمي واستخدام التقنيات الجديدة مع وصول الأشخاص إلى محتوى مختلف أو خدمات رقمية أو حريات عبر الإنترنت بناءً على مكان وجودهم، ولكن نظرًا لأن الأنظمة أصبحت أكثر تعقيدًا وتوسعًا فقد يكون من الصعب فهم سبب اتخاذ برنامج ما قرارًا وهي مشكلة قد تزداد سوءًا مع زيادة قوة أجهزة وأنظمة الكمبيوتر.

الرابط المختصر :
اترك رد