يشعر أصحاب نظرية «الأرض مسطحة» بالتفرد والتميز، فهم ينتمون إلى مجموعة محددة لديهم إمكانية الوصول إلى المعرفة الحصرية والمُحصَّنة جيداً.

تلك الأفكار هي مركز نظرية «الهوية الاجتماعية» في أبحاث علم النفس؛ حيث إن تصورنا لأنفسنا كأفراد غالباً ما تُحركه مجموعات ننتمي إليها، وهوية نمتلكها، ننجذب إليها لأنها تُمكننا من الشعور المطمئن بامتلاك حقيقة أسمى من حقائق الآخرين، وتوفر لنا أرضية معرفية متماسكة تعلوها سحابة وردية.

خطوتك الأولى لجمع الناس في تلك البلورة المعرفية اللامعة هي امتلاك موقع إخباري مزيف يبدو شرعياً قدر الإمكان لتجني أموالاً طائلة؛ يريد الكثير من الناس دليلاً على أن نظرتهم للعالم هي الرؤية الصحيحة والملائمة. مع العلم أن فكرة تعزيز معتقدات الناس والتأكيد الكاذب لأفكارهم المسبقة هي أمر تحاول المواقع الإخبارية المزيفة استغلاله، مُتبعين في ذلك نهج رئيس جمهورية الفيسبوك الذي لم ننتخبه.

«انقر هنا للمشاهدة»

هناك عدد كافٍ من المتابعين مستعدين للإيمان -بصدق- بكل ما يقرؤونه على الإنترنت، وعليهم تحمل العواقب.

كان هذا رد أحد مُنشئي المواقع الإخبارية المزيفة، والذي لا يرى حرجًا فيما يفعله، بل يُلقي بالذنب على المتابعين المتقاعسين عن دورهم في التحقق من المعلومات قبل مشاركتها. يسعى ذلك الشخص إلى إثارة الجدل، على سبيل المزاح، ولا يعرف ما جريمته إذا ما كان الناس يستمرون في مشاركة قصصه أكثر، حتى لو وضع تحذيراً بأنها ليست حقيقية، «سيستمرون في مشاركتها للتعبير عن غضبهم، ولا أريد سوى ذلك».

تعمل خوارزميات فيسبوك بالتعلم الآلي والذكاء الاصطناعي بشكل جزئي، ما يفسر اضطرار الشركة لإجراء بحث حول تطورات عمل وحدود إمكانيات تلك الخوارزميات في عام 2018. حيث تتمثل المهمة الأساسية للخوارزميات في زيادة تفاعل المستخدمين إلى أقصى حد، بحيث تسلط الضوء على المحتوى الذي يحقق ذلك دون غيره. وقد وجد البحث الداخلي أن إحدى النتائج غير المقصودة لذلك هي التعرض الكثيف لمحتويات مثيرة للاستقطاب، ونمو الجماعات المتطرفة بنسبة 64%، وهي الجماعات التي أوصى بها فيسبوك نفسه نتيجة استغلال الخوارزميات لانجذاب الدماغ البشري للاستقطاب.

وقد أكدت دراسة أجراها باحثون بمعهد أكسفورد للإنترنت ومعهد رويترز لدراسة الصحافة أن 250 مجموعة على فيسبوك كانت المسؤولة عن حوالي نصف الآراء المُضللة حول العالم. وبينما يُحسِّن موقع يوتيوب خوارزمياته لترشيح المصادر الموثوق فيها، تنتشر الفيديوهات المضللة بأية حال على فيسبوك، ففي حين حققت المقاطع المُضللة حوالي 11 ألف إعجاب وتعليق على يوتيوب بين شهري أكتوبر/تشرين الأول 2019 ويونيو/حزيران 2020، حقق 55 فيديو مُضللاً ما يقرب من 20 مليون مشاركة على فيسبوك، وكان هناك حوالي 200 مليون تفاعل شهري مع قصص إخبارية مزيفة بسبب زر «انقر هنا للمشاهدة».

تجرف الأخبار الكاذبة ملايين المستخدمين وتُغيِّر أفكارهم، بينما صارت أرضية الإعلام الرسمي هي الأخرى زلقة للغاية؛ حيث ينشر موقع إخباري مزيف خبراً، ومن ثَمَّ يلتقطه موقع آخر، ويكتب تلك القصة كما لو كانت صحيحة، وقد لا يشير إلى الموقع -الوهمي- الأصلي. من هنا يكون رد الفعل متسلسل، حيث من الممكن أن يلتقطه صحافي في موقع موثوق به إلى حد كبير، فيكتب الخبر بسرعة، لأن العديد من الصحافيين يحاولون كتابة أكبر عدد ممكن من القصص التي تجذب الاهتمام الاجتماعي، بدافع إنتاج المزيد دون التحقق.

وقد كشفت دراسة حديثة لمحطات التلفزيون المحلية في الولايات المتحدة أن ما يقرب من 40% من سياساتها التحريرية لم تتضمن أي إرشادات حول كيفية التحقق من المعلومات على وسائل التواصل الاجتماعي، واعترف مديرو الأخبار في المحطات التلفزيونية بأن ثلثهم على الأقل نقلت نشراتهم الإخبارية معلومات من وسائل التواصل الاجتماعي تم الكشف عن خطئها لاحقًا.

هل يقتل الأطباء مُصابي فيروس كورونا؟

في أعقاب نتائج الانتخابات الرئاسية الأمريكية عام 2016، انتقد الكثيرون مارك زوكربيرج، قائلين إن الأخبار المزيفة على فيسبوك ساعدت في صعود دونالد ترامب، الفكرة التي وصفها زوكربيرج بالجنون، ورد بأن 99% من المحتوى على فيسبوك «حقيقي»، وأنه يسعى لخلق عالم أكثر انفتاحاً وترابطاً، لكن بعد تورطه في فضيحة تسريب بيانات 87 مليون مستخدم على فيسبوك، شهد زوكربيرج أمام الكونجرس الأمريكي عام 2017 بوجود 270 مليون حساب مزيف على فيسبوك، ووعد بإزالة أي محتوى من المحتمل أن يؤدي إلى «ضرر فوري» للمستخدمين، ووعد كذلك بشنِّ حرب من أجل حماية نزاهة الانتخابات الرئاسية المقبلة.

ببساطة لم يعد كافياً أن ينكر زوكربيرج قضية ما ويتوقع من الناس أن يصدقوه؛ ذكرت صحيفة «وول ستريت جورنال» أن كبار المسؤولين التنفيذيين في فيسبوك طُلب منهم اتخاذ إجراءات للحد من رؤية المحتوى المثير للتطرف، لكنهم اختاروا عدم القيام بذلك. أرجع التقرير موقف الشركة إلى سبب واضح، وهو عدم رغبتهم في تقليل الوقت المستغرق في التصفح، وهناك وجهة نظر يُعلنها زوكربيرج مفادها أنه لا ينبغي للشركة الحد من «حرية التعبير»، حتى لو كان ذلك في مصلحة المستخدمين، كي لا يكون «سلطوياً»، أو صاحب موقف سياسي.

ويعد «مصلحة المستخدمين» تعبيراً فضفاضاً، يبدأ بموت الديمقراطية في الظلام على حد تعبير صحيفة «واشنطن بوست»، مروراً بالقضاء على السلامة النفسية مثلما رأينا في فيلم نتفليكس «المعضلة الاجتماعية»، ونهاية بانتشار فيروس «مُميت» في مشهد لم يسعنا الوقت لنسيانه، لأننا ما زلنا نعيش آثاره حتى اللحظة الحالية.

أظهر تحليل لصحيفة الجارديان تضاعف التفاعل مع المنشورات المناهضة للقاحات فيروس كورونا بنسبة 300% على فيسبوك بين يوليو/تموز وأغسطس/آب. وفي بحث صادر عن مركز مكافحة الكراهية الرقمية (CCDH)، فشل فيسبوك في اتخاذ إجراءات بشأن 95% من الأخبار الكاذبة المناهضة للقاحات كورونا والرافضة لارتداء الكمامات، وكان رد الشركة بأنها اتخذت عدداً من الخطوات لمكافحة المعلومات المضللة خلال انتشار فيروس كورونا، وتزيل المحتوى الذي ينتهك سياساتها.

حسناً مارك، لكن وجد التقرير الصادر عن معهد أكسفورد للإنترنت أن التقارير الإخبارية المزيفة ​​حققت ما يقرب من أربعة أضعاف عدد المشاركات على فيسبوك مقابل تقارير منظمة الصحة العالمية خلال الأشهر الست الأولى من انتشار فيروس كورونا، مما قوَّض الثقة في خبراء الصحة العامة. وكانت تلك الأخبار الكاذبة سبباً في إبلاغ المسعفين البريطانيين عن خوف مصابي فيروس كورونا في أحرج حالاتهم من التوجه إلى المستشفى، ومحاولاتهم الشفاء بالعلاجات البديلة التي قرؤوها على الإنترنت، بسبب الرسائل الإخبارية الكاذبة التي تفيد بأن الأطباء «سيقتلونهم».

في زمن التقنية الحديثة: العين صارت تكذب

إذن، يبدو أن الفيديو هو الحل الأمثل للتأكد من صحة المعلومات، فما دامت الكلمات خادعة فإن البصر لم يخدعك أبداً. لكن للأسف لا يسري هذا في عام 2020.

فقبل أشهر، كان الفيديو وسيلة فعالة لإثبات الواقعة، حتى شاهدنا مقاطع فيديو مُعدلة بتقنية «التزييف العميق» Deep Fake، وأصبحت عنصراً رئيسياً في حملات التضليل للتأثير على الرأي العام.

جعل الذكاء الاصطناعي إنتاج مقطع فيديو يبدو لك حقيقياً، وذلك باستخدام مكتبة من الصور والفيديوهات ومقاطع الصوت المتاحة لشخص ما، مما يساعد على محاكاة تعبيراته وأسلوبه، فهذه التقنية تستخدم نظاماً آلياً يُسمى «الشبكة العصبية العميقة» لفحص حركات وجه شخص واحد، ومن ثَمَّ يقول ويفعل أي شيء يريده المُبرمِج، لخلق لحظة لم تحدث أبداً. ونظراً لأن هذه التقنيات جديدة للغاية، يواجه الأشخاص صعوبة في معرفة الفرق بين مقاطع الفيديو الحقيقية ومقاطع الفيديو المزيفة.

لا يوجد دليل مباشر يُذكر حول التأثيرات التي يمكن أن يُحدِثها محتوى الفيديو المضلل، لكنها بدأت بالفعل كإحدى أدوات حملة دونالد ترامب الانتخابية في سباقه أمام جو بايدن، بعدما تلاعب مدير منصات التواصل الاجتماعي في البيت الأبيض بالفيديو لإظهار بايدن نائماً في مقابلة تلفزيونية، وذلك من أجل التشكيك في صحته العقلية، ونُشر فيديو مزيف لإدانته بالتحرش بالأطفال، ما قد يجعل انتخابات الرئاسة الأمريكية 2020 بداية لحقبة لم يعد فيها البشر متأكدين من أن ما يرونه هو الحقيقة.

هناك العديد من الجهود التي تهدف إلى اكتشاف مقاطع الفيديو المزيفة وحظرها، من جانب باحثين يطورون طريقة تعتمد على التدقيق في عدد المرات التي ترمش فيها عين الوجه المحاكي، والتي تزيد عن المعدل الطبيعي للإنسان، بالإضافة إلى جهود من بعض وسائل الإعلام للتعامل مع الفيديو المُعدَّل للتحقق منه مثل ما يقدمه موقع صحيفة «واشنطن بوست»، ليتحول الأمر إلى سباق غير متكافئ مع المزيفين، يشبه لعبة الشطرنج، فقط لتصحيح ما يمكن. وهنا يلعب التحيز التأكيدي، أو ظاهرة قبول الأشخاص للمعلومات التي تؤكد معتقداتهم بدلاً من دحضها، دوراً كبيراً في تحديد منْ يقبل مقاطع الفيديو المُعدَّلة كدليل.

وجدت الأبحاث منذ عام 2016 أن الأفراد كانوا -على الأرجح- يساهمون بنشر المعلومات المضللة عندما يدعمون مرشحهم المفضل، وهو ملاحظة تنطبق بشكل خاص على مؤيدي ترامب، وأن 24.8% منهم يشاركونها وهم يعلمون بكذبها؛ وهو السيناريو الذي رآه الباحثون معقولًا لتفسير فوز ترامب في السباق أمام هيلاري كلينتون بأقل من 80 ألف صوت.

زوكربيرج ليس مضطراً لتنقية الأخبار

في بداية عامنا الجاري، وقَّع 200 موظف بشركة فيسبوك رسالة يطلبون فيها من مارك زوكربيرج إعادة النظر في سياسات الشركة المتورطة في حملات التضليل قبل الانتخابات الأمريكية 2020؛ حيث إن «حرية التعبير والإعلان المدفوع ليسا متماثلين».

لم يتأثر مارك، وقال: «حسناً، لكن أعتقد أنه يجب أن يكون الناس قادرين على الحكم بأنفسهم على الشخصيات السياسية، وكما تعلمون، لا أعتقد أن شركة خاصة يجب أن تراقب السياسيين أو الأخبار»، وجهة النظر التي دفعته إلى اتخاذ قرار بعدم التحقق من صحة الإعلانات السياسية قبل الانتخابات الأمريكية 2020، حتى إغلاق صناديق الاقتراع؛ خوفاً من إرباك الرأي العام.

حاز رد زوكربيرج على إعجاب دونالد ترامب، ونقله في تغريدة، لكن المُحيِّر هو ما تبع ذلك التصريح. حيث انتشرت أخبار مُضللة على فيسبوك، تنوعت بين وفاة زوكربيرج، وتحرشه بالأطفال، وتعاطيه الحبوب المهلوسة؛ انتشار فيروسي تداول المحللون أصداءه بسخرية، لأن «الكارما لا ترحم أحداً»، والكارما في الديانة البوذية والهندوسية هي «قانون الجزاء».

مزحة تلو مزحة، تتابع هزلي لا حقيقة فيه سوى أننا في منطقة مجهولة تماماً؛ لم يكن يوماً لدى أي شركة خاصة مثل تلك القوة والتأثير المباشر على تصرفاتنا: كيف نشعر؟ كيف نفكر؟ كيف نواعد؟ كيف نشتري؟ كيف نقاتل؟ كيف ننتخب؟

من المغري أن نقول إن كل منْ يصدق الأخبار الكاذبة هو شخص غبي، ولكن هذا ليس صحيحاً بالطبع؛ لأن التعرض لمعلومات سياسية سلبية يساهم في تشكيل المواقف حتى بعدما تفقد تلك المعلومات مصداقيتها، وهو ما يُطلق عليه تعبير «أصداء المعتقدات»، وهي عملية تلقائية، دافعها هو استمرار التداول.

إذن الحل أن نُعلِّق حساباتنا على فيسبوك؟

معضلة أخرى قدمها لنا فيلم نتفليكس الأشهر «المعضلة الاجتماعية»، والذي سرعان ما تم تصنيفه كأحد أهم الأفلام الوثائقية حالياً، وذلك عندما وجه نصيحة بتحديد عدد الساعات التي نقضيها على منصات التواصل الاجتماعي، لكن ذلك لن يساعدنا في اكتشاف الفرق بين المزيف والحقيقي.

ولإنهاء الجدل؛ زوكربيرج ليس مضطراً لتنقية الأخبار قبل أن تصلنا، لكن التجربة الفنلندية أثبتت أن منح المواطنين المعرفة لدحض نظريات المؤامرة بأنفسهم، هو السبيل الأكثر فاعلية، أكثر من تزويدهم بالمعلومات الصحيحة.

هذه ليست الكلمة الأخيرة في اكتشاف الكذب؛ تتحسن التكنولوجيا بسرعة، والمنافسة ليست في صالح الأخيار، ستتحسن قدرات الأشخاص الذين يريدون إرباك الجمهور في إنشاء مقاطع فيديو كاذبة، وسنحتاج نحن وحُماة الأمان الرقمي إلى مواصلة البحث عن طرق لاكتشافها.