وجدت دراسة جديدة لشركة Cisco أن أكثر من واحدة من كل أربع مؤسسات قد حظرت استخدام الذكاء الاصطناعي هذا العام. بسبب مخاطر الخصوصية وأمن البيانات.
كما حظرت أكثر من ربع المؤسسات استخدام الذكاء الاصطناعي التوليدي (Gen AI). مما يسلط الضوء على المخاوف المتزايدة بشأن الخصوصية مع Gen AI وتحديات الثقة التي تواجه المؤسسات بشأن استخدامها للذكاء الاصطناعي.
تأتي الدراسة المعيارية لخصوصية البيانات لعام 2024 من Cisco وسط مناقشات مستمرة حول الاستغلال المحتمل لجيل الذكاء الاصطناعي من قبل جهات فاعلة سيئة. مع تقرير سابق من ISACA يظهر أن 99% يشعرون بالقلق إلى حد ما بشأن تأثير التكنولوجيا على أعمالهم.
مخاوف سيسكو
ومن بين أهم المخاوف التي وردت في تقرير سيسكو كانت التهديدات التي تتعرض لها الحقوق القانونية وحقوق الملكية الفكرية للمؤسسة (69%)، ومخاطر الكشف عن المعلومات للجمهور أو المنافسين (68%).
قالت معظم المنظمات إنها تدرك هذه المخاطر وتضع ضوابط للحد من التعرض لها. قال ما يقرب من الثلثين (63%) إنهم وضعوا قيودًا على البيانات التي يمكن إدخالها. و61% لديهم قيود على أدوات Gen AI التي يمكن للموظفين استخدامها. وقال 27% إن مؤسساتهم حظرت تطبيقات Gen AI تمامًا في الوقت الحالي.
دور الحوكمة المدروسة
علق ديف ستالكوبف. المدير القانوني لشركة Cisco قائلاً: “تنظر المؤسسات إلى الذكاء الاصطناعي العام على أنه تقنية مختلفة جذريًا مع وجود تحديات جديدة يجب مراعاتها”. “يعتقد أكثر من 90% من المشاركين في الاستطلاع أن الجيل الجديد من الذكاء الاصطناعي يتطلب تقنيات جديدة لإدارة البيانات والمخاطر. وهنا يأتي دور الحوكمة المدروسة. ويعتمد الحفاظ على ثقة العملاء على ذلك.”
يشعر المستهلكون بالقلق بشأن استخدام الذكاء الاصطناعي في بياناتهم اليوم. ومع ذلك، تدرك 91% من المؤسسات أنها بحاجة إلى بذل المزيد من الجهد لطمأنة عملائها بأن بياناتهم تُستخدم فقط للأغراض المقصودة والمشروعة في الذكاء الاصطناعي.
تختلف أولويات المنظمات لبناء ثقة المستهلك عن أولويات الأفراد. حدد المستهلكون أولوياتهم القصوى على أنها الحصول على معلومات واضحة حول كيفية استخدام بياناتهم بالضبط، وعدم بيع بياناتهم لأغراض تسويقية. وفي الوقت نفسه، حددت الشركات أولوياتها القصوى وهي الالتزام بقوانين الخصوصية (25%) وتجنب خروقات البيانات (23%). ويشير تقرير سيسكو إلى أن الاهتمام الإضافي بالشفافية سيكون مفيدًا، خاصة مع تطبيقات الذكاء الاصطناعي حيث قد يكون من الصعب فهم كيفية اتخاذ الخوارزميات لقراراتها.
دور الشهادات والقوانين الخارجية
تدرك المؤسسات الحاجة إلى طمأنة عملائها بشأن كيفية استخدام بياناتهم. وقال 98% منهم إن شهادات الخصوصية الخارجية تمثل عاملاً مهمًا في قرارات الشراء الخاصة بهم.
وعلى الرغم من التكاليف والمتطلبات التي قد تفرضها قوانين الخصوصية على المؤسسات، قال 80% من المشاركين إن قوانين الخصوصية كان لها تأثير إيجابي عليهم، وقال 6% فقط إن التأثير كان سلبيًا. يعزز تنظيم الخصوصية القوي ثقة المستهلك وثقته في المنظمات التي يختارون مشاركة بياناتهم معها.
على مدى السنوات الخمس الماضية. تضاعف الإنفاق على الخصوصية، واتجهت الفوائد نحو الارتفاع، وظلت العائدات قوية. هذا العام، أشار 95% إلى أن فوائد الخصوصية تتجاوز تكاليفها. وأفادت المؤسسات المتوسطة بأنها تحصل على فوائد خصوصية تبلغ 1.6 ضعف إنفاقها.
علاوة على ذلك، أشار 80% منهم إلى حصولهم على فوائد كبيرة في مجال “الولاء والثقة” من استثماراتهم في الخصوصية. وهذه نسبة أعلى (92%) بالنسبة للمؤسسات الأكثر نضجًا في مجال الخصوصية.
الإنفاق على الخصوصية
في عام 2023، قامت أكبر المؤسسات التي تضم أكثر من 10000 موظف بزيادة إنفاقها على الخصوصية بنسبة 7-8% منذ العام الماضي. ومع ذلك، شهدت المؤسسات الأصغر حجمًا استثمارًا أقل.
على سبيل المثال. خفضت الشركات التي تضم ما بين 50 إلى 249 موظفًا استثمارها في الخصوصية بمقدار الربع في المتوسط.
يوضح هارفي جانج ، نائب رئيس Cisco والمدير التنفيذي للخصوصية: “قال 94% من المشاركين أن عملائهم لن يشتروا منها إذا لم يقوموا بحماية البيانات بشكل كافٍ”. “إنهم يبحثون عن أدلة دامغة على أنه يمكن الوثوق بالمنظمة. أصبحت الخصوصية مرتبطة ارتباطًا وثيقًا بثقة العملاء وولائهم. ويصدق هذا بشكل أكبر في عصر الذكاء الاصطناعي. حيث يؤدي الاستثمار في الخصوصية إلى تمكين المؤسسات من الاستفادة من الذكاء الاصطناعي بشكل أخلاقي ومسؤول.
اقرأ أيضا:
خطط Cisco لإنشاء مدن ذكية في المستقبل


















