دراسة جديدة تحذر من مخاطر الذكاء الاصطناعي على البشر

الذكاء الاصطناعي
الذكاء الاصطناعي الخارق

كشفت شركة جارتنر، المتخصصة في تحليل معلومات الأعمال والتقنيات الحديثة. عن نقاط ضعف ناجمة عن مخاطر وعواقب غير مقصودة نتيجة تبني تقنيات الذكاء الاصطناعي التوليدي.

ودعت الشركة مديري تكنولوجيا المعلومات إلى التعامل مع هذه التحديات الخفية بشكل استباقي لضمان تحقيق نتائج إيجابية من تطبيقات الذكاء الاصطناعي التوليدي، وتفادي فشل المشاريع القائمة عليها.

تطور تقنيات وأساليب الذكاء الاصطناعي التوليدي

وقال أرون شاندراسيكاران، نائب الرئيس للأبحاث في “جارتنر”: وفقا لوكالة الأنباء الألمانية، إن تتطور تقنيات وأساليب الذكاء الاصطناعي التوليدي بوتيرة غير مسبوقة، وبشكل يواكب التفاعل الواسع. يجعل من الصعب على مسؤولي تكنولوجيا المعلومات التعامل بمرونة مع هذا المشهد الحيوي والمتغير باستمرار”.

وبينما تركز المؤسسات عادة على التحديات المباشرة المرتبطة بالذكاء الاصطناعي التوليدي. مثل تحقيق القيمة للأعمال والأمن وجاهزية البيانات. فإنها كثيرا ما تهمل الجوانب الخفية. التي قد تشكل مخاطر مؤثرة على المدى الطويل. وتشمل هذه المخاطر ظواهر مثل “الاستخدام غير المصرح به للذكاء الاصطناعي” والديون التقنية وتراجع المهارات ومتطلبات سيادة البيانات ومشكلات التوافق التشغيلي والاعتماد على مورد واحد يصعب استبداله.

وتتوقع “جارتنر” أنه بحلول عام 2030 ستشكل هذه العوامل السلبية. فارقًا واضحًا بين الشركات. التي توسع من نطاق استخدام الذكاء الاصطناعي بأسلوب آمن واستراتيجي، وتلك التي تواجه قيود أو اضطرابات داخلية.

ومن أجل الحفاظ على القدرة التنافسية والمرونة. ينبغي على قادة تكنولوجيا المعلومات معالجة التحديات والمخاطر الخفية المرتبطة بتبني الجيل الجديد من الذكاء الاصطناعي التوليدي، مع التركيز على معالجة الجوانب الخفية التالية:

الانتشار المتسارع للاستخدام غير المصرح به للذكاء الاصطناعي

كشفت دراسة أجرتها شركة “جارتنر”. وشملت 302 من مسؤولي وقادة الأمن السيبراني خلال الفترة من مارس إلى مايو 2025. أن 69% من المؤسسات تشتبه في أن موظفيها يستخدمون أدوات ذكاء اصطناعي توليدي عامة غير مصرح بها.

ثورة الذكاء الاصطناعي

ويمكن أن يؤدي الانتشار السريع لاستخدام أدوات الذكاء الاصطناعي غير المصرح بها. إلى آثار ملموسة وغير مباشرة. مثل فقدان الملكية الفكرية وتسريب البيانات وارتفاع مستوى المخاطر الأمنية.

وتتوقع “جارتنر” أنه بحلول عام 2030 ستتعرض أكثر من 40% من المؤسسات لحوادث أمنية أو مخالفات تتعلق بالامتثال نتيجة الاستخدام غير المصرح به لأدوات الذكاء الاصطناعي.

الديون التقنية في مشاريع الذكاء الاصطناعي

تتوقع “جارتنر” أنه بحلول عام 2030 ستواجه 50% من المؤسسات تأخرًا في تحديثات أنظمة الذكاء الاصطناعي. وارتفاعًا في تكاليف الصيانة، نتيجة تراكم الديون التقنية غير المدارة ضمن تطبيقات الذكاء الاصطناعي التوليدي.

الطلب المتزايد على سيادة البيانات والذكاء الاصطناعي

تتوقع “جارتنر” أنه بحلول عام 2028 ستطبق 65% من الحكومات حول العالم متطلبات للسيادة التقنية بهدف تعزيز استقلاليتها وحماية أنظمتها من التدخلات التنظيمية العابرة للحدود.

ويمكن أن تؤدي القيود التنظيمية المفروضة على مشاركة البيانات عبر الحدود إلى إبطاء وتيرة نشر حلول الذكاء الاصطناعي على مستوى المؤسسة. وزيادة التكلفة الإجمالية للملكية، وتحقيق نتائج أقل كفاءة من المتوقع.

ولمواجهة هذه التحديات، ينبغي على مديري تكنولوجيا المعلومات دمج مبادئ سيادة البيانات ضمن استراتيجيات الذكاء الاصطناعي منذ المراحل الأولى. من خلال إشراك الفرق القانونية وفرق الامتثال في وقت باكر. وإعطاء الأولوية للموردين، الذين يلتزمون بمتطلبات سيادة البيانات والذكاء الاصطناعي الخاصة بهم.

تراجع المهارات البشرية

يمكن أن يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى تراجع الخبرات البشرية الأساسية وضعف القدرة على اتخاذ القرار وفقدان المعرفة الضمنية، التي يصعب توثيقها أو استبدالها.

ويحدث هذا التراجع بشكل تدريجي، وغالبا من دون أن يلاحظه أحد في البداية، ما يجعل مديري تكنولوجيا المعلومات لا يدركون حجم الخطر إلا عندما تواجه المؤسسة صعوبة في أداء مهامها من دون الذكاء الاصطناعي أو عند تعرضه للفشل في المواقف الاستثنائية، التي تتطلب فهما بشريا.

الاعتماد على المنظومات التقنية المتكاملة

غالبا ما تميل المؤسسات، التي تسعى إلى الاستفادة من إمكانات الذكاء الاصطناعي التوليدي على نطاق واسع لاختيار مورد واحد لتحقيق السرعة وتبسيط العمليات، إلا أن هذا الاعتماد العميق قد يحد من مرونتها التقنية، ويضعف من قدرتها على التفاوض مستقبلاً بشأن الأسعار أو الشروط أو مستويات الخدمة.

ولا يدرك العديد من مديري تكنولوجيا المعلومات مدى ارتباط بياناتهم ونماذجهم وسير عملهم بواجهات برمجة التطبيقات، ومستودعات البيانات وأدوات المنصات الخاصة بالموردين.

 

الرابط المختصر :