كانت، منذ سنوات، عملية تزوير الصور والفيديو، تتطلب وقتا طويلا ومهارة تقنية عالية وأيضا تقنيات متطورة وقدرات حوسبة كبيرة ما عرف حينذاك بالـ Computer Generated Imagery، الصور المنشأة بمساعدة الكمبيوتر، أو بالتالي، أن يكون مستخدم برنامج فوتوشوب فائق البراعة ولديه الوقت والصبر لإنشاء الصور المزيفة المثالية. لكن اليوم مع تطور تقنيات الذكاء الاصطناعي التي وضعت القدرات التقنية في متناول الجميع. بدأت الصور والفيديوهات المزيفة تأخذ منحاً غير مُطَمئِن، خاصة مع الأخبار الكاذبة أو ما نطلق عليه اليوم تعبير الـDisinformation و Misinformationوبالفرنسية يستخدم تعبير Intox، و Infox بدل كلمة Fake News؛ التي تنتشر عبر النصوص والصور في غير محلها. أصبحت اليوم أخطر من خلال ما يسمى بالـ.DeepFake

Deepfake،هي كلمة مستحدثة تجمع بين مصطلحي، التعلم العميقdeep learning وعبارة Fake مزيف. وهي تقنية تستخدم خوارزميات الذكاء الاصطناعيلدمج وتركيب الصور ومقاطع الفيديو. وهي كناية عن برمجية معلوماتية قادره على تغيير أطر الفيديو frame by frame، لاستبدال وجه شخص ما بوجه شخص آخر.أو تغيير خلفية المشهد في الفيديو، حذف أو إضافة كائنات أو أناس غير موجودين في الواقع.
يتم إنشاء مقاطع الفيديو هذه عن طريق تحميل مجموعة معقده من التعليمات إلى جهاز الكمبيوتر، بالإضافة إلى الكثير من الصور وتسجيلات فيديو والتسجيلات الصوتية. ثم يتعلم برنامج الكمبيوتر كيفية نسخ تعبيرات الوجه لكل شخص، وأيضا الحركات، وأنماط الصوت والتحدث.
انتشرت أشرطة فيديو الـDeepFake منذ عام 2017 على منصات اجتماعية كـ Reddit وأيضا تويتر وأثارت جدلا كبيرا، خاصة أشرطة الفيديو الإباحية المزيفة لمشاهير وأيضا لما يعرف بالـ Revenge porn للانتقام. كذلك استخدمت لتغيير خطابات سياسيين في بلدان عدة ومنهم باراك أوباما وجعلته ينطق خطابا لم يحصل في الواقع.
في أغسطس 2018 قامت جامعة Carnegie Mellon مع باحثين من Facebook Reality Lab بتطوير تقنيه جديده، تتيح حرفيا وضع كلمات شخص في فم شخص آخر وجعله يقول الأشياء التي لم يقلها.
و انطلاقا من شبكات تعرف بالـGenerative Adversarial Networks ، وهي مجموعة من الخوارزميات التي تقوم بالتعلم غير المراقب أو التعلم الاستنتاجي. وهذا التعلم هو منأبرز الفروع في مجال تعلم الآلةmachine learning والذكاء الاصطناعيوالشبكات العصبونية الاصطناعية، الذي يتيح لخوارزميات تعلم الآلة التعلّم عن طريق تمييز أنماط البيانات بدون أن تكون هذه البيانات مسمات. هذه الشبكات طورت عام 2014، وهي شبكات في تنافس ضد بعضها البعض. أي الشبكة الاولىهي التي تقوم إنشاء نسخه من نمط الفيديو. والشبكة الثانية هي للتمييز التي تقوم بفحص المحتوي المنتج ومقارنته مع الأصل وتقوم بتقييم تناسقه، وإذا لم يتناسق مع تمييزها ترده للشبكة الأولى لتحسينه.
هنا انطلاقا من شبكات الـ Gan ذهب باحثوا Carnegie Mellon و Facebook Reality Lab إلى أبعد من ذلك، بتطوير، ما اسموه بالــ Recycle-GAN, ، وهي خوارزميات لا تحلل فقط التغيرات البصرية ولكن أيضا التغييرات مع مرور الوقت، والذي يتيح الحصول على محاكاة للإيقاع وللحركات بشكل كامل من صورة واحدة إلى أخرى .
تشكل تقنية الـDeepFakeخطرا كبيرا اليوم، فباستطاعتها التلاعب بمشاعر الناس؛ إذ لديها القدرة على تقويض الحقيقة وخلق الإبهام وتوليد الخلط لدى المشاهد وزرع الشقاق على نطاق واسع، بقدر أوسع مما شاهدناه مع المنشورات والنصوص المزيفة عبر المنصات الاجتماعية.
يشكل هذا الجيل الجديد من البيانات “المزيفة” تحديا حقيقيا لوسائل الاعلام التي تضع أدوات للتعرف عليها. من بين تلك الأدوات انشاء فريق من الصحافيين المختصين، وأيضا عبر أدوات معلوماتية كبرنامج Truepic أوEerelay، وهي تقنيات تعتمد على تقنية بلوك تشين للمصادقة على الصور، أو محرك بحث TinEye، الذي يتيح القيام بعمليات البحث العكسي للعثور على الإصدارات القديمة من الفيديو. وأخيرا بمساعدة منحة من غوغل، طورت وكالة أسوشيتد برس أداة verify، التي سيتم نشرها في العام المقبل 2020، ويمكن بعد ذلك اتاحتها لوسائل الإعلام الأخرى.
يبقى أنه بين الـIntox الـ Disinformation و الـInfox الـ DeepFake مهمتنا كإعلاميين باتت شاقة ولكن ليست مستحيلة.