تواجه شركة “اوبن ايه اي”، المطورة لروبوت الدردشة التفاعلي “تشات جي بي تي”، أزمة جديدة في أوروبا بعد تقديم شكوى ضد الروبوت تتعلق بتوليد معلومات كاذبة تسببت في ضرر جسيم لسمعة أحد الأشخاص في النرويج.
اوبن ايه اي وهلوسة تشات جي بي تي
وكشفت منظمة Noyb، المدافعة عن حقوق الخصوصية. عن حادثة مروعة حيث قام “تشات جي بي تي” باختلاق قصة زائفة تزعم أن شخصًا يدعى آرفي هيلمار هولمن أدين بقتل اثنين من أطفاله ومحاولة قتل الثالث، وهو ما لم يحدث على الإطلاق.
وأوضحت المنظمة أن هذه المعلومات الكاذبة تم توليدها استنادًا إلى بيانات خاطئة موجودة على الإنترنت. وأن “تشات جي بي تي” لم يتمكن من التمييز بين المعلومات الصحيحة والخاطئة. وفقًا لموقع “techcrunch”.
وتضمنت شكاوى الخصوصية السابقة بشأن توليد ChatGPT بيانات شخصية غير صحيحة مسائل مثل تاريخ ميلاد غير صحيح أو تفاصيل سيرة ذاتية خاطئة .
وكان أحد المخاوف هو أن OpenAI لا توفر للأفراد طريقة لتصحيح المعلومات الخاطئة التي ينتجها الذكاء الاصطناعي عنهم.

وعادة ما تعرض OpenAI حظر الردود على مثل هذه المطالبات. ولكن بموجب اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي. يتمتع الأوروبيون بمجموعة من حقوق الوصول إلى البيانات، بما في ذلك الحق في تصحيح البيانات الشخصية.
صرح يواكيم سودربيرغ، محامي حماية البيانات في شركة نويب، في بيان: “اللائحة العامة لحماية البيانات واضحة. يجب أن تكون البيانات الشخصية دقيقة”.
وأضاف: “إذا لم تكن كذلك، يحق للمستخدمين تعديلها لتعكس الحقيقة. لا يكفي مجرد توضيح بسيط لمستخدمي ChatGPT بأن روبوت الدردشة قد يرتكب أخطاءً واضحة. لا يمكنك نشر معلومات كاذبة ثم إضافة توضيح بسيط يفيد بأن كل ما قلته قد لا يكون صحيحًا”.
يمكن أن تؤدي الخروقات المؤكدة للوائح حماية البيانات العامة (GDPR) إلى فرض عقوبات تصل إلى 4% من إجمالي المبيعات السنوية العالمية.
تغييرات في منتجات الذكاء الاصطناعي
يستلزم تطبيق القانون إدخال تغييرات على منتجات الذكاء الاصطناعي، حيث سبق أن تدخلت هيئة حماية البيانات الإيطالية لتطبيق اللائحة العامة لحماية البيانات (GDPR)، ما أدى إلى حظر مؤقت لوصول ChatGPT في إيطاليا خلال ربيع عام 2023. دفع هذا التدخل شركة OpenAI إلى تعديل سياسات الإفصاح عن المعلومات للمستخدمين. وفي وقت لاحق، فرضت الهيئة غرامة قدرها 15 مليون يورو على الشركة بسبب معالجتها بيانات المستخدمين دون سند قانوني واضح.



















