برامج التزييف العميق.. لا تصدق كل ما تراه أو تسمعه

تزييف العميق
تزييف العميق

أثارت التقنيات الحديثة للتزييف العميق حالة من الجدل بين المستخدمين؛ خصوصًا بعد تطوير أدواتها، لتشمل تعديل الصوت والصورة؛ ما يجعلنا نتساءل: هل تلك التطورات مفيدة أم خطيرة؟

ما التزييف العميق؟

تستطيع بكل سهولة عبر استخدام هذه التقنية أن تصبح الشخص الذي تريده عبر تعديل الصورة والصوت. بالإضافة إلى أنك تستطيع أن تخرج في “لايف” مباشر، ليس بشخصيتك الحقيقية، لكن بالشخصية التي تريدها.

التزييف العميق.. مخاطر وفوائد
التزييف العميق.. مخاطر وفوائد

 

لذا برامج “deep fake” باتت تهدد الكثيرين؛ فقد أصبحت مجانية ويمكنها استبدال الشخص بالصوت والصورة والجسد. ما قد يؤدي إلى انتشار عمليات الابتزاز والسرقة. لذا؛ لا تصدق كل ما تراه أو تسمعه من الآن.

تم اشتقاق الاسم من كلمتي Deep، والتي تعني “عميق” في إشارة إلى تقنية التعليم العميق “Deep Learning”، التي تنتهج تقنية الذكاء الاصطناعي. وكلمة “Fake” والتي تعني”غير حقيقي”.

ما هي تقنية Deepfake؟ وهل يجب أن نقلق بشأنها؟

من هنا كانت كلمة ديب فيك “Deepfake” تعني طريقة إنتاج فيديوهات غير حقيقية عبر استخدام تقنية التعلم العميق في استخلاص ملامح دقيقة عالية المستوى من المحتوى الأصلي “الخام”. بتخزين بيانات ضخمة عن ملامح الوجه لشخص معين وطريقة حركته في أثناء الكلام وتعابير الوجه والشكل العام للوجه.

كيف يعمل Deep fake؟

يتم تجميع كل البيانات المتعلقة بصورة الشخص ومعالجتها عبر تقنية التعلم العميق. لإنتاج فيديوهات تأخذ شكل الشخص. ولكن ليس لها وجود لأنها من نسج خيال وتطبيقات صانع محتوى “الديب فيك”. ويتطلب الأمر تجميع كمية كبيرة من صور الضحية والفيديو الذي يريده أن يكون عليه.

وبتقنيات الذكاء الاصطناعي يتم تقريب أوجه الشبه بين صورتي الشخصيتين. وذلك بأخد تعابير الوجه الأول وتغذيتها في الوجه الثاني وعمل العكس. ثم دمج الصورتين لإنتاج الفيديو.

وتوجد طريقة أخرى لإنتاج فيديو الديب فيك عبر تقنية تسمى Generative Adversarial Network أو GAN. والتي تحتوي على خوارزميات الذكاء الاصطناعي وتعمل مع بعضها البعض. ويطلق على الطرف الأول منها “المُولِّد”. ويتكون من صور عشوائية تتم ضمها للخوارزمية الثانية التي تحتوي على ما يسمى “المميز” وعادة ما تكون صورة لأحد المشاهير.

وجمع أكبر قدر من الصور الشخصية سيلفي Selfie يكفي لتحديد الشكل العام للوجه. ثم يقوم بتغذية هذه الصور لخوارزميات تقنية الديب فيك. التي تنتج فيديو لوجه الشخص بناءً على حركة الجسم الذي يريد وضع الوجه عليه.

مخاطر التزييف العميق

المؤسف أن الجهل بهذه التقنية أدى إلى مشكلات كبيرة جدًا في أوساط الأسر لظهور فيديوهات مفبركة لأشخاص ليس لهم أي ذنب سوى تصوير أنفسهم صورًا عادية. ونشرها على مواقع التواصل الاجتماعي. ولا يقتصر عمل تقنية الديب فيك فقط على إنتاج الفيديوهات المزيفة. ولكنه يمتد إلى عمل صور لأشخاص لا وجود لهم على أرض الوقع.

مثل الحساب الذي أنشيء باسم صحفية بلومبرج Maisy Kinsley على منصتي “لينكد إن” وإكس”. كما تمتد مجالات “الديب فيك” لتشمل مقاطع الصوت أيضًا كاستنساخ أصوات المشاهير والسياسيين.

مخاطر الذكاء الاصطناعي على البشر.. بين الحقيقة والتهويل

وفي الغالب لا يمكن أن نحكم على تقنية بأنها سيئة أو جيدة؛ لأن ذلك يعتمد على طريقة استخدامها وفي يد من وقعت.

وكذلك تقنية الديب فيك. إذ يمكن أن تكون التقنية مفيدة في كثير من التجارب مثل استحداث أصوات لأشخاص فقدوا القدرة على الكلام. أو إصدار فيديوهات لممثلين رحلوا عن العالم. كما يمكن الاستفادة من هذه التقنية في إدارة المعارض والمتاحف.

ولكن لمواجهة هذه التقنية اجعل كلمة سر بينك وبين الأشخاص الذين تعرفهم كموقف جمعكم أو مقولة مأثورة بينكم لا يعلمها سواكم.

وسواء كانت زوجتك أو صديقك أو قريب. ولا تثق فيمن يطلب نقودًا للطوارئ إلا بعد التأكد من الشخص نفسه.

الرابط المختصر :