في الوقت الذي يتزايد فيه اعتماد المستخدمين على منصات محادثة الذكاء الصناعي مثل: «شات جي بي تي» “Chat GPT” و«جوجل بارد» في حياتهم اليومية حذر خبراء معهد (إتش بي آي) الألماني، المتخصص في تكنولوجيا المعلومات، من مخاطر تقديم معلومات حساسة أثناء استخدام تلك المنصات.
وذلك بسبب ضعف عوامل حماية البيانات والمحافظة على السرية عبر هذه المنصات.
وتؤكد سياسة الخصوصية على منصة Chat GPT أن أي مستخدم يتداول معلومات سرية على أي منصة ذكاء صناعي فإنه يخاطر بالتخلي عن سرية بياناته، فضلًا عن خطورة تقديم إجابات خاطئة أو مزيفة عن الأسئلة؛ لأن هذه الخدمة لا يجب اعتبارها مصدرُا موثوقُا أو مكانًا جيدًا للحفاظ على السرية.
تحذيرات الخبراء من استخدام تطبيق Chat GPT:
لذلك يحذر خبراء أمن البيانات من تداول المعلومات السرية عبر هذه المنصات أو الاعتماد عليها كمصدر.
وهم يحذرون أيضًا من سياسة الخداع التي تتبعها منصات محادثة الذكاء الاصطناعي؛ فكلما قدم لها المستخدم معلومات تمكنت من تقديم إجابات بطريقة أفضل وأذكى وبالتالي تغري المستخدم من تقديم معلومات أكثر خصوصية من أجل الحصول على معلومات أكثر دقة، حسب دراسات نشرها معهد “إتش بي آي” الألماني.
وأضاف الخبراء أن هذه التحذيرات لا تقتصر فقط على البيانات الشخصية أو الأعمال الفردية وإنما تخص الشركات؛ بمعني: أي شخص يستعين بمنصة Chat GPT لترتيب وتحليل الأرقام المالية للشركة الخاصة به؛ لكي يستخدمها في إعداد عرض تقديمي أو تقارير محددة، فإنه يحمّل البيانات الداخلية لموظفي شركته وبذلك يعرض بيانات الشركة للخطر.
جاء هذا التحذير بعد أن سربت شركات عديدة كمًا هائلًا من البيانات والمعلومات عن غير قصد مئات المرات كل أسبوع؛ بسبب مبالغة الموظفين في استخدام “شات جي بي تي”، حسب تقرير شركة أمن البيانات “سايبر هيفين”.
ودفع ضعف عوامل حماية البيانات والمحافظة على السرية في هذه المنصة الخبراء والمحللين إلى تحذير المستخدمين من عمليات الاختراق وسرقة البيانات.