واجهت شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي، انتقادات واسعة بسبب فشلها في توفير أداة فعالة لإدارة المحتوى وحماية حقوق المبدعين. حيث كان من المتوقع أن تؤدي الأداة، المعروفة باسم “Media Manager”، دورًا حاسمًا في منع استخدام نماذج اللغة الكبيرة، مثل: ChatGPT، في إنشاء محتوى مسروق أو مزيف.
شركة OpenAI تفشل في توفير “Media Manager”
وفي شهر مايو الماضي أعلنت شركة OpenAI أنها تعمل على تطوير أداة تسمح للمبدعين بتحديد كيفية تضمين أعمالهم في بيانات تدريب الذكاء الاصطناعي أو استبعادها منها. ولكن بعد مرور سبعة أشهر، لم تر هذه الميزة النور بعد.
وقالت شركة OpenAI، في ذلك الوقت، إن الأداة التي أطلق عليها Media Manager ستحدد النصوص والصور والمقاطع الصوتية والفيديو المحمية بحقوق الطبع والنشر؛ لتعكس تفضيلات المبدعين “عبر مصادر متعددة”.
وكشفت التحقيقات عن وجود ثغرات أمنية في نماذج اللغة الكبيرة الخاصة بـ OpenAI؛ ما سمح للمستخدمين بإنشاء محتوى مزيف أو مسروق بسهولة.
و لم تتمكن الشركة من تطوير آليات فعالة لتصفية المحتوى المحمي بحقوق النشر. وذلك سمح لنماذجها بإنشاء محتوى يشبه إلى حد كبير الأعمال الأصلية.
سبب عدم توفير أداة حماية حقوق المبدعين
ووضعت OpenAI عبء الإبلاغ عن الانتهاكات على عاتق المستخدمين. ما يعتبر حلًا غير كافٍ ولا يضمن حماية شاملة لحقوق المبدعين.
وهي لم تقدم أي تحديث بشأن تقدم Media Manager حتى الآن، كما فوتت الشركة الموعد النهائي الذي فرضته على نفسها لتوفير الأداة “بحلول عام 2025”.
جدير بالذكر أن نماذج الذكاء الاصطناعي، مثل: OpenAI، تتعلم الأنماط في مجموعات البيانات للتنبؤ. وهذا يسمح للنماذج بتعلم كيفية عمل العالم، إلى حد ما، من خلال مراقبته. ويمكن لـ ChatGPT كتابة رسائل بريد إلكتروني ومقالات مقنعة. بينما يستطيع Sora، مولد الفيديو الخاص بـ OpenAI، إنشاء لقطات واقعية نسبيًا.
وأدى فشل OpenAI في توفير “Media Manager” إلى تآكل الثقة بين المبدعين والشركة. كما أثار هذا الإخفاق مخاوف جدية بشأن الاستخدام الأخلاقي للذكاء الاصطناعي وتأثيره في الصناعات الإبداعية.