سيطرت مقاطع فيديو الذكاء الاصطناعي على خلاصات مواقع التواصل الاجتماعي. لهذا إليك دليلًا واحدًا يساعدك على اكتشاف الفيديوهات المزيفة.
احترس من فخ فيديو الذكاء الاصطناعي
انتهى الأمر. ستقع في الفخ. ربما وقعت فيه بالفعل. في الأشهر الستة الماضية، تطورت مولِّات الفيديو بالذكاء الاصطناعي بشكل كبير لدرجة أن علاقتنا بالكاميرات على وشك الانهيار.
وهنا نقدم لك السيناريو الأمثل: ستخدع مرارًا وتكرارًا، حتى تمل لدرجة أنك ستشكك في كل ما تراه ليس حقيقًا.
لكن في الوقت الحالي، لا تزال هناك بعض العلامات التحذيرية التي يجب الانتباه إليها. من أبرزها:
إذا شاهدت فيديو بجودة صورة سيئة مثل لقطات ضبابية أو مشوشة ستشعر أنك ربما تشاهد تقنية الذكاء الاصطناعي.
وهنا يقول هاني فريد. أستاذ علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي. وهو رائد في مجال الطب الشرعي الرقمي ومؤسس شركة اكتشاف التزييف العميق GetReal Security: “إنه أحد الأشياء الأولى التي يجب النظر إليها”.
حيث إن الحقيقة المحزنة هي أن أدوات الفيديو المدعومة بالذكاء الاصطناعي ستتطور مع مرور الوقت.
وستصبح هذه النصيحة عديمة الفائدة قريبًا. وقد يحدث ذلك خلال أشهر، أو قد يستغرق سنوات. يصعب الجزم!
لكن إذا تعمقت في التفاصيل قليلاً، فقد تنقذك هذه النصيحة من بعض مخلفات الذكاء الاصطناعي حتى تتعلم تغيير نظرتك إلى الحقيقة.
لأن أفضل أدوات الذكاء الاصطناعي قادرة على إنتاج مقاطع جميلة ومتقنة. والمقاطع منخفضة الجودة ليست بالضرورة من إنتاج الذكاء الاصطناعي.
من جانبه، يقول ماثيو ستام. الأستاذ ورئيس مختبر الوسائط المتعددة وأمن المعلومات في جامعة دريكسل بالولايات المتحدة. “إذا رأيتَ شيئًا منخفض الجودة حقًا، فهذا لا يعني أنه مزيف. ولا يعني أي شيء سييء”.
بل إن المقصود هو أن مقاطع الفيديو الضبابية والمبكسلة بتقنية الذكاء الاصطناعي هي الأكثر عرضة لخداعك.
على الأقل في الوقت الحالي. إنها علامة على أنك قد ترغب في إلقاء نظرة فاحصة على ما تشاهده.
تحويل النصوص إلى مقاطع فيديو
في الوقت نفسه يقول فريد: “لا تزال برامج تحويل النصوص إلى مقاطع فيديو الرائدة، مثل Veo من جوجل وSora من OpenAI، تُنتج تناقضات طفيفة. لكن الأمر ليس مجرد أخطاء في النص أو تشويش. إنه أكثر دقة من ذلك”.
حتى أكثر نماذج اليوم تطورًا غالبًا ما تسبب مشاكل، مثل:
- ملمس بشرة ناعم بشكل غريب.
- أنماط غريبة أو متغيرة في الشعر والملابس.
- أجسام خلفية صغيرة تتحرك بطرق مستحيلة أو غير واقعية.
- من السهل إغفال كل هذا، ولكن كلما كانت الصورة أوضح، زادت احتمالية اكتشاف أخطاء الذكاء الاصطناعي الدالة.
هذا ما يجعل مقاطع الفيديو منخفضة الجودة جذابة للغاية. فعندما تطلب من الذكاء الاصطناعي صورةً تبدو وكأنها صُوّرت بهاتف قديم أو كاميرا مراقبة.

على سبيل المثال، فإنه يخفي العيوب التي قد تلفت انتباه المشاهدين.
خلال الأشهر القليلة الماضية، خدعت بعض مقاطع الفيديو الشهيرة المصوَّرة بتقنية الذكاء الاصطناعي أعدادًا هائلة من الناس.
فيما كان هناك قاسم مشترك بينها جميعًا. حصد مقطع فيديو مزيَّف ولكنه مبهج لأرانب برية تقفز على الترامبولين أكثر من 240 مليون مشاهدة على تيك توك. لكنهم واجهوا خيبة الأمل عندما اتضح أنه مزيَّف.
كيف تكتشف أن مقطع الفيديو مزيف؟
في جين يقول فريد الأمور الثلاثة التي يجب البحث عنها هي الدقة والجودة والطول”.
الطول هو الأسهل. “في الغالب، تكون مقاطع فيديو الذكاء الاصطناعي قصيرة جدًا، حتى أنها أقصر من مقاطع الفيديو النموذجية التي نشاهدها على تيك توك أو إنستجرام. التي تتراوح مدتها بين 30 و60 ثانية.
بالإضافة إلى الغالبية العظمى من مقاطع الفيديو التي يطلب التحقق منها تكون مدتها ست أو ثماني أو عشر ثوانٍ.
وذلك لأن إنتاج مقاطع فيديو الذكاء الاصطناعي مكلف، لذا تنتج معظم الأدوات مقاطع قصيرة فقط.
علاوة على ذلك، كلما كان الفيديو أطول، زاد احتمال حدوث أخطاء في أداء الذكاء الاصطناعي. يمكنك دمج عدة مقاطع فيديو معًا، ولكنك ستلاحظ انقطاعًا كل ثماني ثوانٍ تقريبًا.
أما العاملان الآخران، الدقة والجودة، مرتبطان ولكنهما مختلفان. تشير الدقة إلى عدد أو حجم البكسلات في الصورة.
بينما الضغط عملية تقلل حجم ملف الفيديو عن طريق إزالة التفاصيل، مما يخلف غالبًا أنماطًا متكتلة وحوافًا ضبابية.
التزييف العميق
في الواقع، يقول فريد إن الفيديوهات المزيفة منخفضة الجودة جذابة لدرجة أن المجرمين يتعمدون تخفيض جودة عملهم.
يقول فريد: “إذا كنت أحدهم يحاول خداع الناس، فماذا يفعل؟ ينتج فيديو مزيفًا، ثم يخفّض الدقة حتى يتمكن من رؤيته، مع إمكانية تمييز جميع التفاصيل الصغيرة. ثم أيضيف ضغطًا يخفي أي عيوب محتملة. إنها تقنية شائعة.
تعمل شركات التكنولوجيا أيضًا على وضع معايير جديدة للتحقق من المعلومات الرقمية. في الأساس، يمكن للكاميرات تضمين معلومات في الملف لحظة إنشاء الصورة للمساعدة في إثبات صحتها.
وفي السياق نفسه، يمكن لأدوات الذكاء الاصطناعي إضافة تفاصيل مماثلة تلقائيًا إلى مقاطع الفيديو والصور لإثبات زيفها.
في النهاية الحل الحقيقي، وفقًا لخبير الثقافة الرقمية مايك كولفيلد، هو أن نبدأ جميعًا بالتفكير بشكل مختلف فيما نراه على الإنترنت. مع التخلي عن فكرة أن مقاطع الفيديو أو الصور لها أي معنى خارج سياقها.
المصدر: bbc




















