مختارات

كيف يعمل التزييف العميق | ماهي مخاطره، وما السر لكشف هذه الفبركة؟

احدى طرائف التكنولوجيا أو ما يعرف بالتزييف العميق، أن عمدة  برلين "فرانزيسكا" قامت بعمل محادثة مرئية مع عمدة "كييف" في إطار التعاون القائم بين ألمانيا وأوكرانيا الى هنا كل شي عادي 

لكن وبعد 15 دقيقة من الحوار المرئي اكتشفت أنها وقعت ضحية احتيال شخص مجهول استخدم التزييف العميق Deepfake لتقمّص شكل عمدة "كييف" وهناك مخاوف حول من قاموا بذلك لأخذ معلومات منها 

هذه التقنية مخيفة جدا، كل هذا الإحتراف وهي لا تزال تعتبر في بدايتاها فقط، فكيف سوف تكون بعد سنوات من الآن.

التزييف العميق مالذي تعرفه عنه؟ ماذا ينتظرنا وراء هذه التقنية المرعبة؟ والى أين تقودنا مستقبلاً؟

ما هو التزييف العميق؟

التزييف العميق هو فيديو أو تسجيل صوتي يتم إجراؤه أو تعديله باستخدام الذكاء الاصطناعي. لا يشير هذا المصطلح إلى المحتوى الذي تم إنشاؤه بهذه الطريقة فحسب، بل يشير أيضًا إلى التقنيات المستخدمة.

كلمة deepfake هي اختصار لكل من "DeepFake" و "Fake" يمكن ترجمتها على أنها "عمق زائف". في الواقع، يشير إلى المحتوى المزيف الذي تم تصديقه بعمق بواسطة أحد فروع  الذكاء الاصطناعي المعروف بـ "التعلم العميق".

إذن ماهو التعلم العميق؟

التعلم العميق أو Deep Learning وهو جزء من قسم تعلم الآلة يعرف بـ "Machine Learning" التابع هو الآخر لمجال أكبر وأوسع يعرف بالذكاء الاصطناعي.

ظهر مصطلح التعلم الآلي ثم فرعه التعلم العميق في ثمانينيات القرن الماضي، وكانت بجدوى للعديد من الاوراق البحثية حوله.

انفجر المجال أكثر منذ 2006 وأصبح له العديد من المحاولات التطويرية كالتفريق بنسبة أكبر بين الصور، وايجاد حلول بالاعتماد على قواعد بيانات عملاقة.

التعلم العميق هو مجال يحاول محاكات العقل البشري في العديد من قدراته، بمحاولة الفهم والرؤية وتكوين الافكار، والأصوات. لما يخضع لمجموعة متنوعة من التكرارات يولد من خلالها نتائج محسنة بمرور التجارب.

معلومات وقصة أقرب عن الموضوع ستجدونها في مقالنا. هل مستقبل الذكاء الاصطناعي يهدد مكانة البشر ؟ أم للعلماء رأي آخر.

بعض أنواع استخدامات تقنية التزيف العميق

  • التزييف المرئي: تتم عن طريق تغيير صور وجه شخص بالشخص المراد تركيب صوره، والتلاعب ببعض الملحقات الأخرى كالحركة والصوت.
  • التزييف السمعي: يتم بتقمّص واستبدال صوت شخص بصوت شخص آخر، مع مراعات نبرة الصوت وشدته.
  • تبطيء المقاطع المرئية: تعمل هذه الطريقة على تبطيئ من سرعة صوت شخص ما مع الحفاظ على خامة صوته، بهدف اظهار عدم حضور وعي الشخص للمساس بسمعته.
  • التلاعب بالأزمنة والأماكن: وهذا بجلب أزمة أقدم وتركيبها على أزمنة أحدث بغية الوصول الى هدف ما، مما يولد انتشار الاخبار الزائفة التي تكون من اسباب نشوء الفوضى واختلال امن المجتمع.

ما الذي يميز التزييف العميق عن التزييف القديم؟

التزييف العميق في أكثر صورها شيوعًا، هي مقاطع فيديو يتم فيها استبدال مثلاً وجه شخص ما بشكل مُقنِع بوجه آخر تم إنشاؤه بواسطة الكمبيوتر، والذي يشبه غالبًا شخصًا محدداً. 

برزت العملية عام 2017 على موقع reddit عبر الإنترنت، الذي بدأ أعضاؤه في مشاركة مقاطع فيديو إباحية يبدو أنها تعرض لمشاهير النساء. 

كان من الواضح أن هؤلاء المشاهير ليس لهم أي دور في صنع مقاطع الفيديو هذه، لكن الأساليب المستخدمة تعني أنهم كانوا أكثر إقناعًا من المنتجات المقلدة التقليدية التي تنقل الوجه من مقطع فيديو إلى الجسم من مقطع فيديو لآخر.

يساعد فرع "التعلم العميق" التابع للـ AI. في إنشاء هذه الوجوه بالكامل بواسطة الكمبيوتر بالاعتماد على هذا الوسيط. فيجعل من التزييف العميق شيئاً مختلفًا، وربما أكثر خطورة من المنتجات المقلدة التي تم إنشاؤها يدويًا بواسطة البشر.

كيف يتم إنشاء هذه الخدع العميقة؟

لإنشاء فيديو واقعي لتزييف عميق لشخص موجود حقاً، تحتاج الشبكة العصبية تقليديًا إلى التدرب على الكثير من لقطات الفيديو لهذا الشخص بما في ذلك مجموعة واسعة من تعابير الوجه، تحت جميع أنواع الإضاءة المختلفة، ومن كل زاوية يمكن تصورها. 

لذلك يحصل AI على "فهم" متعمق لجوهر الشخص المعني، يتم بعد ذلك دمج الشبكة المدربة مع تقنيات مثل رسومات الكمبيوتر المتقدمة من أجل تركيب نسخة ملفقة من هذا الشخص على تلك الموجودة في الفيديو. 

على الرغم من أن هذه العملية أسرع بكثير مما كانت عليه قبل عامين فقط، إلا أن الحصول على نتائج موثوقة حقًا لا يزال يستغرق وقتًا طويلاً ومعقدًا.

ومع ذلك، فإن أحدث التقنيات مثل تقنية Samsung AI التي تم إنشاؤها في مختبر روسي للذكاء الاصطناعي، تجعل من الممكن إنشاء مقاطع فيديو مزيفة باستخدام عدد قليل من الصور، أو حتى صورة واحدة فقط.

ما هي المخاطر المرتبطة بالتزييف العميق؟

مخاطر التزييف العميق

بفضل الذكاء الاصطناعي، يمكن لأي شخص إنشاء مقاطع فيديو مزيفة بسهولة شديدة وبدون معرفة تقنية خاصة وهذا فقط عن طريق تنزيل تطبيق بسيط مثل FakeApp. 

من خلال تحليل حركات وجوهنا، ستكون خوارزمية التطبيق قادرة على "تجديد شبابنا" أو "تقدمنا ​​في العمر" بكل بساطة.

مع ظهور الأخبار المزيفة وتأثيراتها الضارة على الشبكات الاجتماعية، فإن نشر تقنية deepfake على الويب يشكل بالتالي تهديدًا تكنولوجيًا جديدًا.

فالتلاعب والتضليل والإذلال والتشهير ...من  مخاطر التزييف العميق وستزداد أكثر فأكثر. هذا هو السبب في أن Google نشرت في سبتمبر 2019، قاعدة بيانات لما يزيد عن 3000 مقطع فيديو عن طريق التزييف العميق تساعد المهندسين والباحثين على اكتشاف آلياتها اعتماداً على الذكاء الاصطناعي. 

سيؤدي هذا أيضًا إلى زيادة فعالية هذه الأدوات، خاصة وأن Google تواصل تغذية قاعدة البيانات هذه الأخيرة.

يمكن أن تصل مخاطر التزييف العميق حد الأمن القومي للدول، خاصة عندما تكون في حالات اللااسقرار لما يتم التلاعب بالصور القديمة وتواريخها وأزمنتها.


أحد أكثر الفبركات العميقة الواقعية في الوقت الحالي تلك المتعلقة بـ Tom Cruise على TikTok (إن كان كذلك طبعاً؟) وهو يشارك مقاطع فيديو له وهو يلعب الجولف ويتجول.

طرق تساعدك على اكتشاف الفبركة والتنكر العميق

  • انتبه للوجه. غالبًا ما تكون عمليات التلاعب في DeepFake المتطورة عبارة عن تحولات في الوجه.
  • انتبه للخدين والجبهة. هل يبدو الجلد ناعمًا جدًا أو متجعدًا جدًا؟ هل شيخوخة الجلد مشابهة لشيخوخة الشعر والعينين؟ غالبًا ما تكون تقنية DeepFakes غير متوافقة في بعض الأبعاد.
  • انتبه للعيون والحاجبين. هل تظهر الظلال في الأماكن التي تتوقعها؟ غالبًا ما تفشل DeepFakes في تمثيل الفيزياء الطبيعية للمشهد بشكل كامل.
  • انتبه للنظارات. هل هناك أي وهج؟ هل هناك الكثير من الوهج؟ هل تتغير زاوية الوهج عندما يتحرك الشخص؟ مرة أخرى، غالبًا ما تفشل DeepFakes في تمثيل الفيزياء الطبيعية للإضاءة بشكل كامل.
  • انتبه لشعر الوجه أو قلة الشعر. هل يبدو شعر الوجه هذا حقيقيا؟ DeepFakes قد تضيف أو تزيل الشارب أو السوالف أو اللحية. ولكن، غالبًا ما تفشل DeepFakes في جعل تحولات شعر الوجه طبيعية تمامًا.
  • انتبه لشامات الوجه. هل تبدو الخانات والغمز حقيقية؟
  • انتبه إلى الوميض. هل يرمش الشخص بشكل كافٍ أم كثيرًا؟
  • انتبه إلى حجم الشفاه ولونها. هل يتناسب الحجم واللون مع باقي وجه الشخص؟

مستقبل تقنية التزييف العميق

مثلما يحذو مجال التزييف العميق سبل متقدمة، يحذو أيضاً الجانب المضاد لها خطوات مشابهة.

حيث لن تصبح تقنية deepfake أسهل في الوصول إليها فحسب، بل أصبح إنشاء محتوى deepfake أسهل ويصعب تمييزه بشكل تدريجي حقا. 

تستمر تقنية Deepfakes في التطور والانتشار بشكل أكبر، وسيتم التغلب على مشكلات مثل نقص التفاصيل في التوليف، بتقليل هياكل الشبكات العصبية ذات الوزن الخفيف والتقدم في الأجهزة والتدريب ووقت التوليد بشكل كبير.

لقد رأينا بالفعل خوارزميات جديدة يمكنها تقديم مستويات أعلى بشكل متزايد من الواقعية وتعمل في الوقت الفعلي تقريبًا. 

وبينما يتزايد استخدام تقنية التزييف العميق من أجل الخير بسرعة في قطاعات مثل الترفيه والأخبار والتعليم، فإن هذه التطورات. على العكس من ذلك، ستقدم أيضًا تهديدات أكثر خطورة للجمهور، بما في ذلك زيادة النشاط الإجرامي، وانتشار المعلومات المضللة، والاحتيال الاصطناعي للهوية والتدخل في الانتخابات والتوتر السياسي. 

هناك جانب آخر يجب مراعاته وهو أن التزييف العميق يتلاعب بالوكالة والهوية. يمكنك أن تجعل شخصًا ما يفعل شيئًا لم يفعله من قبل، باستخدام صورته، التي ربما لم يأذن المالك بها مطلقًا. وبمجرد أن يصبح مقطع الفيديو على الإنترنت، تفقد السيطرة الكاملة على كيفية استخدامه أو تفسيره.

للمضي قدمًا، من أجل تقليل الخداع وكبح تقويض الثقة، سيلعب الخبراء الفنيون والصحفيون وصانعو السياسات دورًا حاسمًا في التحدث علنًا وتثقيف الجمهور حول إمكانات وأخطار الوسائط التركيبية.

وإذا استطعنا نحن العامة، تثقيف أنفسنا بشأن الثقة فقط في المحتوى من مصادر موثوقة، فقد نجد أن الاستخدامات الجيدة للتزييف العميق يمكن أن تفوق في الواقع الأشياء السيئة. 

مع زيادة الوعي العام، يمكننا أن نتعلم الحد من التأثير السلبي للتزييف العميق، وإيجاد طرق للتعايش معهم، أوحتى الاستفادة منها في المستقبل.


المصدر

4     3     2     1

تعليقات
ليست هناك تعليقات
إرسال تعليق