هل 'المزيفة العميقة' هي الحدود الجديدة للجريمة الرقمية؟

شهدت تكنولوجيا المؤثرات الخاصة ازدهارًا حقيقيًا في العقود القليلة الماضية ، مع انتقال CGI من بدائية بدائية وبدائية إلى لا يمكن تمييزها تقريبًا عن الواقع. الآن ، مع تزايد شيوع إنشاء صور شبه عسكرية ، يتوقع الخبراء السياسيون وخبراء العدالة الجنائية على حد سواء حالة من الذعر حول ما يسمى بالتكنولوجيا 'المزيفة العميقة' ، والتي لديها القدرة على زيادة تعقيد النقاش الدولي المستمر حول 'الأخبار المزيفة'. ولكن ما هو بالضبط 'التزييف العميق' وما مدى التهديد الذي ستشكله هذه التكنولوجيا في المستقبل؟





قتلة الوجوه المبتسمة: البحث عن العدالة

تشير التكنولوجيا المزيفة العميقة (المصممة أحيانًا باسم 'deepfake') إلى الصور و / أو مقاطع الفيديو المركبة و / أو المتراكبة التي تم إنشاؤها بواسطة الذكاء الاصطناعي باستخدام الصور ومقاطع الفيديو الموجودة. باستخدام التعلم الآلي ، يمكن لهذه التقنية أن تخلق نظريًا لقطات مقنعة لشخص يقوم بعمل لم يحدث في الواقع في الواقع.

قدم أوين ويليامز ، مهندس برمجيات محترف وفنان مؤثرات بصرية ، شرحًا بسيطًا.



قال ويليامز: 'إنها طريقة لاستخدام نظام برمجي آلي لاستبدال وجه شخص ما في مقطع فيديو بوجه آخر يكون أكثر تلقائية وإقناعًا مما كان ممكنًا مع التكنولوجيا السابقة'. Oxygen.com .



أشار ويليامز إلى أن الأفلام السائدة والشعبية مثل 'Jurassic Park' و 'Blade Runner: The Final Cut' تستخدم برامج الكمبيوتر لمشاهد معينة بطرق ربما كانت مقدمة لمزيف عميق: 'في صناعة السينما ، هذا أمر شائع حقًا. لنفترض أن لديك شخصية تحتاج إلى أداء حيلة وتفضل أن يكون وجهها مرئيًا. سيكون الحل الكلاسيكي هو أنك لن تراهم إلا من الخلف ، أو سيكون شعرهم في وجوههم حتى لا تتمكن من معرفة أنه مزدوج. لكن هناك تاريخًا رائعًا من صانعي الأفلام الذين يستخدمون أجهزة الكمبيوتر لوضع وجه الممثل على وجه مزدوج.



تابع ويليامز: 'لقد كانت عملية يدوية للغاية'. الآن ، مع التكنولوجيا المزيفة العميقة ، تقوم بتغذية الكمبيوتر بشيئين: أولاً الفيديو الذي ستستبدله ، ثم مجموعة من المدخلات للوجه الذي ستستبدل به. يجب أن تحصل على صور كافية لشخص يقوم بتعبيرات وجه مختلفة ومن زوايا مختلفة. أنت تقوم بإنشاء مكتبة لما يمكن أن يبدو عليه وجه هذا الشخص في المواقف المختلفة ، وبعد ذلك يمر الكمبيوتر وينظر إلى الفيديو. لا تحتاج إلى تطابق تام أيضًا. يمكنها سحق وتحويل ما لديها في المكتبة لتناسب ما تحتاجه. ما كان يتطلب من عشرات الفنانين مئات الساعات لمحاولة تنفيذ تأثير معقد حقًا الآن هو مجرد ضغطة زر.

أحد جوانب هذه التقنية التي تثير قلق الناس هو أن الشخص لا يحتاج بالضرورة إلى تقديم وجهه عن طيب خاطر لتنفيذ هذه العملية ، مع الأخذ في الاعتبار عدد الصور الموجودة على الإنترنت لمعظم الأشخاص - وخاصة المشاهير والشخصيات السياسية.



قال ويليامز: 'هناك صور كافية لأي شخص مشهور بزوايا كافية بحيث يمكنك إنشاء تلك المكتبة [بدون موافقة]'. هناك قدر معين من العمل المطلوب للقيام بذلك ، ولكن بالنسبة لأي شخصية مشهورة بشكل هامشي ، هذه الأشياء ستكون موجودة. إحساسي هو أنه من غير المحتمل أن يكون هذا ممكنًا بالنسبة لشخص عادي.

ظهرت أول مقاطع الفيديو الوهمية العميقة على منتديات Reddit في أواخر عام 2017 ، حسب Variety . ادعى مستخدم أنه استخدم جهاز الكمبيوتر الخاص به لإنشاء مقاطع فيديو إباحية واقعية للغاية لمشاهير مختلفين يمارسون أنشطة جنسية لم تحدث في الواقع في الواقع. ادعى المستخدم أنه قام بتغذية جهاز الكمبيوتر الخاص به بآلاف صور النجوم ، والتي يمكن للذكاء الاصطناعي من خلالها الحصول على تعابير الوجه والحركات المصورة. تم تنزيل تطبيق يستخدمه منشئو المحتوى المزيفون العميقون ومشاركته على Reddit في النهاية أكثر من 100000 مرة. (سيستمر Reddit في نهاية المطاف في حظر هذا النوع من المحتوى ، قائلاً إنه ينتهك سياستهم بشأن 'المواد الإباحية غير الطوعية' ، وفقًا لـ The Verge .)

يشك ويليامز في الواقعية التي يمكن أن تحققها هذه الوسيلة في الوقت الحالي.

قال ويليامز: 'إذا شاهدت بالفعل أحد هذه المنتجات المزيفة العميقة ... فهناك قدر معين من الغرابة هناك'. 'إنها ليست مصقولة. من المحتمل أن يتحسن الأمر بشكل أفضل ، خاصة وأن هوليوود مهتمة بجعل هذا مؤتمتًا بدلاً من دفع رسوم فنانين باهظين.

وبالمثل ، خمّن ويليامز ذلك بالرغم من ذلك الذعر حول المواد الإباحية المزيفة العميقة ، فإن المواقف الثقافية المتغيرة حول طبيعة أشياء مثل الانتقام الإباحي أو الصور العارية المسربة تعني أنه من المحتمل أن يتم إدانة الأشخاص الذين ينشئون هذا النوع من الوسائط ولن يتم الاحتفاء بهم ، حتى داخل صناعة الترفيه للبالغين.

قال ويليامز نظريًا: `` لن يكون الأمر سائدًا أبدًا. 'بعد ' التلاوة 'حدث شيء على Reddit ، تمكن الناس من تغيير المحادثة والقول ،' هذه ليست فضيحة ، إنها جريمة جنسية. ' لذلك أنا فقط لا أرى أن هذا سيتحول إلى فضيحة بقدر ما يعتقد الناس أنها ستكون كذلك. يمكن للأشخاص أيضًا العثور بسهولة إلى حد ما على المواد الإباحية الأصلية التي تم إنشاء المزيف العميق منها ، مما يعني أنه من السهل جدًا كشف زيفها.

لكنه لا يسبب القلق فقط لأنه يمكن استخدامه لإنشاء إباحية وهمية للمشاهير. كما أن الناس قلقون من التداعيات السياسية.

بدأ النقاد السياسيون الكتابة عن انتشار المنتجات المزيفة العميقة في عام 2018. مقال الجارديان اعتبارًا من نوفمبر من ذلك العام ، لاحظ الانتشار الفيروسي لمقطع فيديو يُفترض أنه يصور الرئيس دونالد ترامب وهو يشجع الأمة البلجيكية على الانسحاب من اتفاقية باريس للمناخ. حفز هذا النقاش على نطاق أوسع حول إمكانية استخدام الحكومات المختلفة لهذه التكنولوجيا في حملات التضليل الجماهيري ، وهي محادثة بدأت بالفعل بفضل التحقيق الجاري في تورط روسيا في الانتخابات الرئاسية الأمريكية لعام 2016.

حتى أن الذعر حول التزييف العميق ألهم هيئة تحرير Bloomberg Media Group لكتابة مقال رأي شديد اللهجة حول هذه المسألة.

أصبحت أدلة الفيديو أحد أعمدة نظام العدالة الجنائية ... على وجه التحديد لأن الفيلم يبدو مثل هذا السجل الموثوق به لخطاب أو أفعال شخص ما. يمكن أن تجعل التزييفات العميقة مثل هذه الأدلة مشبوهة ، ' كتبوا في حزيران (يونيو) 2018. 'التحدي الأكبر ، إذن ، هو تحديد واستدعاء هذه التزويرات - إذا كان ذلك ممكنًا.'

وافق ويليامز على أن طبيعة التزييف العميق تهدد مفاهيمنا عن 'الواقع' فيما يتعلق بأدلة الفيديو ، لكنه أشار إلى أن هذا المستنقع القانوني ليس فريدًا في مشهدنا الرقمي المعاصر.

يعود الأمر نوعًا ما إلى هذه الفكرة القائلة بأن هذا الفيديو يساوي الحقيقة ، وهو ما لم يحدث أبدًا. لقد عرفنا هذا من رودني كينج وما بعده. أو فكر في إريك غارنر : اعتقد الناس أن [الضابط الذي قتله] بريء بغض النظر عن مقطع الفيديو الذي تنبأ بالحادث. بالنسبة لي ، يبدو أن [الكثير من المخاوف حول المنتجات المقلدة العميقة] لا أساس لها إلى حد ما.

سرد ويليامز العديد من الحوادث الأخرى التي لا تنطوي على تقنية مزيفة عميقة والتي أظهرت الطرق التي تم بها التلاعب بالفيديو بجرأة لتحريف الرأي العام حول مسألة ما ، مثل إزالة جيمس أوكيف المثير للجدل من ACORN وفضيحة حديثة تتعلق فيديو مزيف يُفترض أنه يصور مراسل CNN جيم أكوستا يهاجم موظفًا في البيت الأبيض .

كان استنتاج ويليامز النهائي هو أن الهستيريا المحيطة بالمنتجات المقلدة العميقة مبالغ فيها إلى حد ما.

ما أراه يحدث هو أنه سيعمل في كلا الاتجاهين. إذا ظهر مقطع فيديو وكان حقيقيًا ، فسوف يزعم الناس أنه مزيف. إذا ظهر مقطع فيديو وكان مزيفًا ، فسوف يدعي الناس أنه حقيقي. تفترض كل حالة قدرًا معينًا من الحقيقة مخصصًا للفيديو [نفسه]. من الصعب معرفة الاتجاه الذي سيسلكه كل هذا. إذا شريط التبول في الواقع ، على سبيل المثال ، أنت تعرف بالضبط ما سيحدث: نصف الناس سيقولون ، 'هذا ثيران - تي ، إنه ممثل!' ويقول نصف الناس: ها هو ذا! انه حقيقي!' لذلك لن يتغير شيء حقًا. يميل هذا إلى أن يكون ما يحدث مع التكنولوجيا الجديدة: الأشياء لا تتغير بقدر ما يعتقد الناس.

[الصورة: شاول لويب / وكالة الصحافة الفرنسية / غيتي إيمدجز]

فئة
موصى به
المشاركات الشعبية