كيف تزيد الإنترنت الإستقطاب في المجتمع؟

Fadi Amroush
6 min readOct 14, 2015

--

نميل كبشرٍ للانجذاب إلى الناس الذين يفكرون مثلنا، إذا ما اتفقنا مع أحد ما في المعتقدات، فهذا يزيد من إمكانية تكوين صداقة مع هذا الشخص، كما أننا نحيط أنفسنا بالمعلومات التي تتطابق مع معتقداتنا وآراءنا في الحياة. قد يبدو هذا منطقياً للوهلة الأولى، ولكنه يعني أننا نغض الطرف بشكل غير واعٍ عن أي معلومات قد تهدد وجهات نظرنا الأخرى، ذلك أننا نحيط أنفسنا بأناس ومعلومات تحملنا على الإيقان بصحة ما نفكر به، وتجعلنا بالمقابل أكثر تمسكاً به.

يدعى هذا بالانحياز التأكيدي (confirmation bias)، ويحدث عندما نختار بشكل انتقائي مصادر المعلومات التي تؤكد معتقداتنا. نوافق من يوافقنا، لذلك نزور المواقع التي تعبر عن آرائنا السياسية، وللسبب ذاته نمضي أوقاتنا مع من لديهم ذوق أو وجهة نظر مشابهة لخاصتنا، ونفضل الابتعاد عن الأفراد أو المجموعات أو مصادر الأخبار التي تدفعنا للشك في وجهة نظرنا -هذا ما دعاه (عالم النفس السلوكي) ب. ف. سكينر بـ(النفور الإدراكي)، والذي أشار إلى أن هذا النمط الانتقائي من السلوك، هو ما يؤدي بنا إلى الإنحياز التأكيدي.

إنه ذلك التصرف الغير واعي الذي يدفعنا للميل إلى وجهات النظر تلك التي تغذّي آراءنا المسبقة، وفي الوقت عينه لتجاهل أو رفض الآراء -بغض النظر عن مدى صحتها- التي تهدد نظرتنا للعالم، والمفارقة أن الإنترنت التي بنيت لتكون الإطار الديمقراطي المفتوح للجميع، قد جعلت هذا الميل أكثر إنتشاراً، لا بل أنها عززته بشكل كبير، فعوضاً أن نبحث عن المصادر المؤيدة لرأينا، تقوم الشبكات الإجتماعية ومحركات البحث بذلك عوضاً عننا مباشرة بواسطة خوارزمياتها الخفية.

بحجج تسويقية، تقوم محركات البحث المختلفة وعلى قمتها غوغل، بالإضافة لشبكة التواصل الإجتماعية فيس بوك، باختيار النتائج التي تتوافق مع آراءنا السابقة، متعللة أنها تعرض النتائج التي تعتقد أنها مهمة لنا، بعبارة أخرى تختلف النتائج التي نحصل عليها عبر الغوغل من شخص لآخر، وبالمقابل يستخدم فيس بوك خوارزمية برمجية، تقوم باختيار أهم الأخبار التي يعتقد أنها تهمنا، ويعرضها بعد دخولنا إلى الفيس بوك، ويختار دون استشارة جديِّة مننا ما يراه مناسباً من حوالي حوالي 1500خبرٍ متاح له.

يشرح إيلي باريسر مؤلف كتاب فقاعات الترشيح filter bubble هذ الظاهرة المخيفة، والتي أطلق عليها مصطلح فقاعات الترشيح، التي تصفي وترشح المعلومات وفق اهتمامتنا السابقة، عوضاً عن عرضها كلها. يمكن العودة لتعريف فقاعات الترشيح من موقع ويكي بيديا، والتي تعرفها بأنها وصف لتأثير تقنية يستخدمها عدد من محركات البحث في تحديد نتائج البحث المعروضة للمستخدمين. هذه التقنية تتمثل في قيام خوارزميات محركات البحث هذه بتخمين المعلومات التي قد يفضل المستخدم أن يراها بناءً على معلومات عنه (مثل المكان وسلوكيات النقر الماضية وتاريخ البحث) ونتيجة لذلك، يصبح المستخدم منفصلًا عن المعلومات التي لا تتفق مع وجهات نظره، وهو وما يعزل المستخدم في فقاعاته الثقافية أو الفكرانية الخاصة.

يبدأ باريسر محاضرته في مؤتمر تيد، والتي نالت أكثر من ثلاثة ملايين مشاهدة، برد مارك زوكربيرج على أحد الصحافيين الذين كان يسأله حول التغذية الإخبارية في الفيس بوك، فجاء ردّه على الصحفي الذي كان يسأله، “لماذا هذا في غاية الأهمية؟” فجاء جواب زوكربيرج، “قد يكون موت سنجاب في فناء بيتكم ذا صلة أكبر باهتماماتك، من موت أولئك الناس في أفريقيا”، وكان إجابته ملخصاً وافياً لمبدأ شبكة الإعلام الإجتماعي الأشهر فيس بوك، والتي تختار لك أهم الأحداث لعرضها من ضمن مئات الأحداث المتاحة.

يبرر فيس بوك ذلك بقوله، أن المستخدم العادي كان سابقاً لا يقرأ سوى 57% من الأخبار التي يتم عرضها في الفيس بوك، وبعد تطبيق الخوارزمية الجديدة باختيار الأخبار التي يتابعها، زادت النسبة إلى 70%. بالطبع ستزيد النسبة فعندما تعرض أخباراً تُعجب المستخدم، فسيقضي وقتاً أطول في قراءتها، والاستمتاع بقراءة وجهات نظر شبيهة لوجهة نظره، وتؤكد الحقائق التي يعرفها. ولتوضيح ذلك بدقة، يمكن العودة ضمن ملفات المساعدة الخاصة بموقع فيس بوك، وسنجد إجابة الفيس بوك حول السؤال كيف يتم في آخر الأخبار اختيار الأحداث التي يتم عرضها؟

تتأثر الأحداث التي تظهر في آخر الأخبار باتصالاتك ونشاطك على فيس بوك. ويساعدك ذلك في مشاهدة المزيد من الأحداث التي تهمك من أكثر الأصدقاء الذين تتفاعل معهم. كما يمكن لعدد التعليقات وتسجيلات الإعجاب التي يحصل عليها المنشور ونوعية الحدث الذي يتناوله (مثل: صورة، مقطع فيديو، تحديث حالة) زيادة فرص ظهوره في آخر الأخبار، كما يمكنك بالطبع التحكم فيما تراه في “آخر الأخبار، وزيادة الإنحياز التأكيدي فيها، إذ يمكنك ضبط ذلك:

يمكنك ضبط ما تراه في آخر الأخبار بمتابعة الأصدقاء أو إلغاء متابعتهم، وإضافة الأشخاص إلى قوائم الأصدقاء، وإخفاء الأحداث التي لا ترغب في مشاهدتها، واختيار مشاهدة الأحداث بترتيب نشرها.

يرى باريسر أن شركات الانترنت تسعى جاهدة لتفصيل خدماتها (بما في ذلك الأخبار ونتائج البحث) وفقا لأذواقنا الشخصية، إلا أن هناك خطورة غير مقصودة قد تنتج عن ذلك، وسنجد أنفسنا قد وقعنا في فخ، وأصبحنا محاصرين داخل فقاعات الترشيح، وهذا سيثبت في نهاية المطاف أنها أساءت لنا، وزادت استقطابنا، وتعنتنا لرأينا، وتشبثنا بوجهات نظرنا، فبدل رؤية الموضوع والبحث عنه أو قراءة مختلف وجهات النظر المختلفة، أصبحت النتائج تأتينا مخصصة لميولنا وحسب الطلب.

يشرح باريسر هذا ضمن محاضرته في تيد، وكيف بدأ الفيس بوك بإخفاء منشورات أصدقاءه ذوي الآراء السياسية المختلفة عنه، ويمكنك اسقاط ذلك على حسابك وملاحظة ذلك أيضاً. يصف بارسر نفسه أنه تقدمي سياسي، ولكنه لا يمانع سماع أراء أصدقاءه المحافظين، وسماع ما يفكرون به. بدأ باريسر رويداً رويداً عبر الفيس بوك ملاحظة أن أصدقاءه المحافظين قد بدؤوا بالإختفاء من تغذيته الإخبارية News feeds على فيس بوك. حقيقة الأمر أن فيس بوك كان ينظر إلى أي الروابط التي ينقر عليها، وكان يلاحظ ذلك، يوضح باريسر ذلك بقوله:

كنت أنقر أكثر على روابط أصدقائي الليبراليين من روابط أصدقائي المحافظين. وبدون أن يستشيرني فيس بوك بخصوص الأمر، قام بإبعادهم. لقد اختفت أخبارهم من صفحتي على فيس بوك. وفي تجربة أقوم بها سنوياً بفتح حساب جديد على الفيس بوك كل عام، لاحظت بعد فتح حساب جديد وإضافة نفس الأصدقاء السابقين، أنني في عالم آخر، إذ ظهرت الكثير من المنشورات لأصدقاء لم تكن تظهر من قبل، وشعرت أن الحساب لشخص آخر وليس ليس فعلاً بسبب الاختلاف الهائل في نوعية الأخبار. يشرح محمد حسن تلك التجربة الشبيهة في مقالة له، حيث قام بإنهاء بإنهاء ملفه الشخصي على فيسبوك وإنشاء حساب جديد. يوضح حسن أنه قام بالأمر بشكل تدريجي أي أنه في وقت ما كان كلا الحسابين فاعلاً وعاملاً. وقام بإضافة مجموعة من الأصدقاء الحقيقين وليس مجرد المعارف في الحساب الجديد. في هذا الحساب أيضًا قام بإجراء المزيد من ضوابط الخصوصية. في الحساب القديم امتنع عن المشاركة بأي مشاركات دالة حرصًا على إبقاء عمل التغذية الإخبارية بشكلها المعتاد ، أما في الحساب الجديد فقد امتنع تمامًا عن الإعجاب بأي صفحة عامة على الموقع وقام باختزال المشاركات لأقل قدر ممكن وبتنويعها، ووصل للنتيجة :

النتيجة لهذه التجربة البسيطة لأبعد الحدود هو التغذية الإخبارية News feed مختلفة تمامًا بين الحساب القديم والحساب الجديد!

كما ذكرنا آنفاً، لا يقوم بذلك فيس بوك فحسب، إنما تقوم محركات البحث المختلفة بذلك ، غوغل تقوم بذلك ايضاً، ويوضح يرى إيلي باريسر بالقول:

إن بحثت عن شيء ما، وبحثتَ عنه، وحتى في نفس اللحظة الآن، قد نحصل على نتائج بحث مختلفة للغاية. حتى إن كنت سجلت الخروج من حسابك، أحد المهندسين أخبرني، هناك 57 إشارة تنظر إليها غوغل — كل شيء بدء من نوع الكمبيوتر الذي تستخدمه إلى نوع المتصفح الذي تستعمله إلى المكان الذي توجد فيه — والتي تستخدمها لتصميم نتائج بحث شخصية. فكروا في الأمر لثانية: لم يعد هناك وجود لغوغل قياسي. وتعرفون، المضحك في الأمر هو أنه من الصعب رؤيته. لا تستطيع رؤية مدى اختلاف نتائج بحثك عن أي شخص آخر.

في تجربة متواضعة طلبت من مجموعة من الأصدقاء السوريين البحث عن جملة “أخبار سورية” ضمن محرك البحث غوغل، والطلب منهم إرسال صورة عن النتائج وترتيبها. كانت الصور التي أرسلها الأصدقاء متوافقة مع ما سبق، حيث اختلف ترتيب المواقع حسب ميول الأفراد الفكرية، والسياسية، وحتى الفنية. ففي حين كان الخبر الأول لأحدهم عن فوز حازم شريف بلقب أراب أيدول، كان لآخر حول تصريح ل بوغدانوف عن سورية. لنتابع كيف اختلفت النتائج من شخص لآخر، حيث تربعت لبعضهم نتائج المواقع المؤيدة لطروحات النظام، في حين تربعت لآخرين المواقع المعارضة للنظام، وعادة ما ينقر المستخدم على النتائج الأولى لبحثه، بعبارة أخرى سينقر على النتائج الأولى التي اختارها غوغل بناء على مقايسس المستخدم، وبالتالي سيؤدي ذلك لتعزيز رأيه وزيادة استقطابه.

بالمحصلة يعيش كل شخص ضمن عالم المعلومات الفريد الخاص به، ويعتقد أنه يمثل الإنترنت، و يصبح لكل شخص فقاعته المرشحة الخاصة به التي ترشح المعلومات وفق ميوله، و يقل تعرض المستخدمين لوجهات نظر متباينة وينعزلون فكريًا في فقاعة معلوماتهم الخاصة مما يزيد انحيازه التأكيدي، ويؤدي بالمحصلة لزيادة الإستقطاب في المجتمع.

:مصادر

https://blog.bufferapp.com/thinking-mistakes-8-common-mistakes-in-how-we-think-and-how-to-avoid-them

www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=en

--

--

Fadi Amroush
Fadi Amroush

Written by Fadi Amroush

A sought-after researcher, consultant, in many areas including Behavioral Economics, Freelancing, E-learning, Growth, and Blockchain Technologies.