يعد قانون الذكاء الاصطناعي، الذي أقره الاتحاد الأوروبي، أول إطار قانوني على الإطلاق بشأن الذكاء الاصطناعي. حيث يضع القانون أساسًا متينًا قائمًا على الثقة فيما يقدمه الذكاء الاصطناعي من تقنيات، ويتناول مخاطره أيضًا.
ما قانون الذكاء الاصطناعي؟
في يوم 13 يونيو 2024، أصدر البرلمان الأوروبي أول قانون للذكاء الاصطناعي على مستوى العالم. وهو إنجاز تشريعي مهم، يهدف إلى إيجاد تنظيم قانوني لاستخدام تقنيات الذكاء الاصطناعي في دول الاتحاد الأوروبي.
ولكن سيدخل القانون حيز التنفيذ عام 2026، مع مراحل سابقة لتطبيق بعض الأحكام ابتداءً من فبراير 2025.
ويهدف القانون، ووفق الموقع الرسمي للاتحاد الأوروبي، لإيجاد إطار شامل لتنظيم الذكاء الاصطناعي لضمان سلامة الأفراد والمجتمع، وحمايتهم من المخاطر المحتملة. مع تعزيز الابتكار الرقمي المسؤول وضمان الشفافية والمساءلة في استخدام أنظمة الذكاء الاصطناعي.

لذلك ينظم مكتب الذكاء الاصطناعي جلستين تدريبيتين عامتين عبر الإنترنت حول قانون الذكاء الاصطناعي، تستهدفان جميع المشاركين في ميثاق الذكاء الاصطناعي والأطراف المهتمة الأخرى، وتعزز التفاعل بين جميع المشاركين.
كما يعقد سلسلة شهرية من الندوات المفتوحة للجميع بداية من شهر يناير 2025. بالإضافة إلى مجموعة من ورش العمل تركز على جوانب محددة من قانون الذكاء الاصطناعي.
وهذا سيوفر للموقعين على ميثاق الذكاء الاصطناعي فرصة للوصول إلى أفضل الممارسات لتطبيق القانون.
ركائز قانون الذكاء الاصطناعي
يروج الاتحاد الأوروبي لقانون الذكاء الاصطناعي من أجل مساعدة الموقعين عليه للاستعداد لتنفيذه. ويرتكز القانون على ركيزتين أسياسيتين، هما التعاون والامتثال. وقد وقعت أكثر من 100 شركة على ميثاق الاتحاد الأوروبي بشأن الذكاء الاصطناعي.
يتكون القانون من 13 فصلًا، تشمل 113 مادة، تغطي جميع الجوانب المتعلقة بالذكاء الاصطناعي.
بدأ القانون بتعريف دقيق لأنظمة الذكاء الاصطناعي. وتحديد المتطلبات التقنية والقانونية لمزودي الأنظمة، وضبط آليات مراقبة والأنظمة عقب إطلاقها في السوق. وذلك لحماية الأفراد والمجتمعات من مخاطر الذكاء الاصطناعي. والحفاظ على التوازن بين الابتكار ومخاطر التكنولوجيا. إذ يتناول قضايا، مثل:
- إدارة المخاطر.
- متطلبات الشفافية.
- حوكمة البيانات.
- حفظ الوثائق والإبلاغ عن الحوادث.
- تعزيز الشفافية والأمان الاجتماعي.
- مميزات القانون ونطاق تطبيقه.
تعريف الذكاء الاصطناعي
وينص قانون الذكاء الاصطناعي في مادته الأولى على تعزيز الذكاء الاصطناعي الذي يستحق الثقة، ويركز على الإنسان، مع ضمان مستوى عالٍ من حماية الصحة والسلامة والحقوق الأساسية للبشر من الذكاء الاصطناعي.
كما يقدم القانون تعريفات دقيقة لما يزيد على 68 مفهومًا رئيسًا، مثل:
– تعريف الذكاء الاصطناعي الذي عرفه القانون أنه أنظمة برمجية تعتمد على خوارزميات تحلل البيانات وتستنبط الأنماط لاتخاذ القرارات. وتشمل أنواع أنظمة الذكاء الاصطناعي:
- الأنظمة منخفضة المخاطر، مثل: المساعدين الشخصيين.
- الأنظمة عالية المخاطر التي تؤثر في الحقوق الأساسية، والنماذج العامة للذكاء الاصطناعي كالأنظمة اللغوية الكبيرة، مثل: شات جي بي تي. وخصص القانون قواعد مشتركة للأنظمة عالية المخاطر بهدف حماية الحقوق الأساسية للأفراد والمجتمعات. حيث تصنف الأنظمة بكونها عالية المخاطر بناءً على تأثيرها المحتمل في الصحة والسلامة والحقوق الأساسية.
- أنظمة ذات مخاطر غير مقبولة، لا يسمح بها في الاتحاد الأوروبي.
- الأنظمة ذات المخاطر الضئيلة.
علاوة على ذلك، فإن هناك بعدًا وقائيًا واحترازيًا. إذ نص القانون على ضرورة خضوع الأنظمة عالية المخاطر لتدابير أمان مشددة، تشمل:
- مراقبة الأداء.
- تقييم المخاطر. خاصة في القطاعات الحساسة كالرعاية الصحية والتعليم والتوظيف، مع إلزامية وجود إشراف بشري على الأنظمة العالية المخاطر.
أهداف القانون
أما المادة فتشمل مجموعة من الممارسات المحظورة لحماية الأفراد من الانتهاكات المحتملة، مثل:
- منع استغلال الفئات الضعيفة، مثل: الأطفال وذوي الإعاقة.
- يمنع استخدام تقنيات تمييزية للتقييم الاجتماعي. إذ تُعد هذه الأنظمة غير قانونية بسبب قدرتها على انتهاك الخصوصية والتأثير سلبًا على حقوق الإنسان. مثل: تطوير أنظمة ذكية لتقييم الشخص بناءً على سلوكه الاجتماعي.
- يحظر استخدام أدورات الذكاء الاصطناعي لتطوير أنظمة رقمية تعمل على التلاعب بنمط تفكير شخص. أو بمشاعره. مثل: حادثة انتحار “سيول سيتزر” المراهق الأمريكي من ولاية فلوريدا، التي شغلت الرأي العام العالمي. وكان وراءها ارتباطه العاطفي القوي بشخصية افتراضية على منصة Character.AI.
- يقر القانون حظرًا عامًا لاستخدام تقنية التعرف على الوجه باستثناء استخدامها للعثور على المفقودين أو ضحايا الاختطاف، ومنع الاتجار بالبشر. بالإضافة للعثور على المشتبه بهم في قضايا جنائية خطيرة.
- يفرض القانون وضع علامة على المحتوى الذي ينشأ بتقنيات الذكاء الاصطناعي، مثل: الصور أو الصوت أو النص، وذلك لحماية التزييف العميق.
العقوبات في قانون الذكاء الاصطناعي
تتحدد العقوبات في قانون الذكاء الاصطناعي وفقًا لخطورة الانتهاكات. حيث تشمل الإدانة جميع الجهات المعنية في سلسلة أنظمة الذكاء الاصطناعي، سواء أكانوا مطورين أم مستوردين أم موزعين. فيما تكون العقوبة بناءً على مبدأ التناسبية. إذ تتناسب العقوبة مع حجم الجريمة ومدى تأثيرها.
كما تنص العقوبات على غرامات مالية تصل إلى 35 مليون يورو. أو 7% من إجمالي الإيرادات العالمية السنوية، أو أيهما أكبر. في حين أن المادة 100 من القانون تفرض عقوبات إضافية على المؤسسات التي تقدم معلومات مضللة.
ويسعى القانون من خلال أهدافه والعقوبات التي يفرضها إلى حماية حقوق الإنسان. وتأكيد أن استخدام الذكاء الاصطناعي لا يؤدي إلى انتهاك الحقوق الأساسية للبشر، مثل: الحق في الخصوصية، وحماية البيانات الشخصية، وعدم التمييز.















