کد خبر: ۱۴۸۲۵۷
تاریخ انتشار: ۱۷ مهر ۱۳۹۸ - ۲۲:۳۹
printنسخه چاپی
sendارسال به دوستان
تغییر الگوریتم فیس بوک:
برخی محققان حقوقی خواستار وضع قوانینی برای حفاظت از دمکراسی در برابر احتمال دستکاری الگوریتم ها شده اند که می تواند منافعی انتخاباتی به دنبال داشته باشند. هیچ مدرکی وجود ندارد که در پشت تغییرات فیس بوک نیات سیاسی وجود داشته باشد، اما تصور اینکه این شرکت اگر بخواهد در آینده می تواند از الگوریتم های خود چنین سوء استفاده ای کند سخت نیست.

الگوریتم فید جدید فیس بوک تعیین می کند که کاربران در این پلتفرم چه ببینند؛ مطالبی که از یادداشت های بامزه تا نظرات دوستان را در برمی گیرد. این شرکت مرتبا این الگوریتم را به روزرسانی می کند که می تواند اطلاعاتی را که مردم مصرف می کنند به شدت تغییر دهد.
با نزدیک شدن به انتخابات سال 2020 نگرانی های زیادی در این باره وجود دارد که مقوله ای موسوم به «مداخله روسیه» که در انتخابات ریاست جمهوری سال 2016 شاهد بودیم، ممکن است بار دیگر رخ دهد. اما آنچه که به قدر کافی به آن توجه نشده، نقشی است که تغییرات الگوریتم فیس بوک عامدانه یا غیرعامدانه در این نوع مداخله ایفا می کند.
یک مقوله کلیدی هم طراز با کارزار اشاعه اطلاعات نادرست روسیه، روزنامه نگاری مبتنی بر واقعیات از منابع معتبر بود که از طریق فیس بوک و دیگر پلتفرم های شبکه های اجتماعی به بسیاری از خوانندگانشان می رسیدند. من شاهد شواهدی هستم که تغیرات صورت گرفته در الگوریتم فید فیس بوک، دسترسی کاربران به روزنامه نگاری معتبر را در دوران منتهی به انتخاب ترامپ سرکوب کرده است.
عوامل سیاسی می دانند که فیس بوک به عنوان یک دروازه بان رژیم های اطلاعاتی بیشتر از 200 میلیون آمریکایی و 2 میلیارد کاربر در سطح جهان عمل می کند. اقدامات و سوء استفاده های دیگران از این پلتفرم ها، نگرانی های زیادی را درباره مباحث عمومی به وجود آورده، از جمله در این باره که آمریکاییان پیش از انتخابات چه اندازه شاهد اشاعه اطلاعات نادرست و تبلیغات بوده اند. چیزی که به اندازه کافی از آن سخن گفته نشده، تاثیری است که تغییرات صورت گرفته در الگوریتم های فیس بوک بر دسترسی به اخبار و دمکراسی گذاشته است.

تغییر دادن سیستم
در اواسط سال 2015 فیس بوک یک تغییر الگوریتم گسترده را اعلام کرد که  خوانندگان را از روزنامه نگاری و اخبار دور می کرد و به روزرسانی های بیشتری را از دوستان و خانواده شان در اختیار آنها قرار می داد. این تغییر در لفاف زبان دوستانه پیچیده شد که فیس بوک تلاش داشت اطمینان حاصل کند که کاربران استوری های دوستانشان را از دست نمی دهند. اما داده های شبکه های اجتماعی نشان می دهند که یکی از تاثیرات این تغییر الگوریتم، کاسته شدن از شمار تعاملاتی بوده که کاربران فیس بوک با مراجع خبری معتبر داشتند.
چند ماه قبل از انتخابات 2016 تغییری حتی بزرگ تر در الگوریتم در مورد پست های دوستان و خانواده انجام شد که یک تاثیر ثانویه ای بر ترافیک ناشر داشت. طیف گسترده ای از ناشران اخبار دریافتند که محتوای آنها به شکل قابل ملاحظه ای برای کاربران فیس بوک کمتر قابل دیدن شده است.

بررسی اعداد و ارقام
من در تحقیق خود به نقش فیس بوک در مراجع خبری جریان اصلی  حول و حوش انتخابات 2016 نگاهی انداختم. یافته های من نتیجه گیری های دیگران را تایید می کنند که الگوریتم فیس بوک به شدت نقش کلی آن را در مورد این ناشران سرکوب کرده است.
داده های به دست آمده از کراود تنگل که یک شرکت نظارت بر شبکه های اجتماعی است، نشان می دهد که ترافیک فیس بوک در سی ان ان، ای بی سی، ان بی سی، سی بی سی، فاکس نیوز، نیویورک تایمز و واشنگتن پست در ژوئن 2016 بعد از به روزرسانی الگوریتم های این شرکت به نفع دوستان و خانواده به شدت افت داشته است.
این مسئله ثابت می کند که الگوریتم کاری را انجام داده که برای آن طراحی شده بود، ولی من نگران این هستم که ناشران بزرگ آمریکایی به این طریق سرکوب شده باشند. در انتخابات ریاست جمهوری در سال 2016 تمایل رای دهنده از دو دهه پیش تر بالاتر و اشاعه اطلاعات نادرست نیز گسترده تر بود. تغییرات فیس بوک به این معناست که سازمان های خبری کلیدی در سطح طیف سیاسی، روزگار سخت تری را در رساندن سخن خود درباره اخبار و گزارش های انتخاباتی معتبر  داشته اند.

زنگ های خطر
فیس بوک از نگرانی ها درباره الگوریتم خود حتی قبل از برگزاری انتخابات با خبر بود. یکی از مهندسین خود فیس بوک این تاثیرات بالقوه تغییرات در الگوریتم فیس بوک را در جولای 2015 مطرح کرد. در سال 2016 راجر مک نامی مرشد زاکربرگ نیز تلاش کرد زاکربرگ و مدیران فیس بوک را آگاه کند که این پلتفرم  برای دستکاری در اطلاعات مربوط به انتخابات مورد استفاده قرار می گیرد.
درست بعد از انتخابات، تحقیق  کریگ سیلورمن گزارشگر در «بازفید» نشان داد که اخبار جعلی مربوط به انتخابات بهتر از «اخبار واقعی» عمل کرده است.در اواخر سال 2018 ارزیابی خود شرکت فیس بوک مسائلی را در این باره نشان داد که چگونه الگوریتم این شرکت به آن دسته از «محتوای بینابینی» پاداش داده که احساسی و تحریک آمیز بودند، یعنی چیزی بیشتر شبیه اخبار به شدت حزبی که  پیش از انتخابات داغ می شدند.
تحقیق تازه تری که مرکز شورنستاین هاروارد انجام داده، نشان می دهد که  بعد از انجام تغییرات بیشتر الگوریتم از سوی فیس بوک در سال 2018 ترافیک فیس بوک همچنان با زیانی قابل توجه برای ناشران ادامه یافته است.

شفافیت الگوریتم
تا این تاریخ تحقیقات انجام شده در مورد چگونکی کارکرد الگوریتم فیس بوک به دلیل فقدان دسترسی به  کارکردهای داخلی مربوطه محدود بوده است.  تحقیق درمورد اثرات تغییرات در فید خبری فیس بوک کافی نیست. به اعتقاد من شناخت دلایل وقوع این اتفاق و نیز  فهم اینکه تصمیمات تجاری فیس بوک چگونه  به صورت مستقیم تر بر دمکراسی اثر می گذارند نیز اهمیت دارد.
اطلاعات اخیر در مورد روندهای داخلی این شرکت حاکی از آن است که فیس بوک شروع به درک قدرت خود کرده است. در جولای 2019 بلومبرگ نیوز فاش کرد که این شرکت در پلتفرم خود نرم افزاری را برای نظارت بر پست هایی به کار گرفته است که خود فیس بوک را به اشکالی که به طور بالقوه گمراه کننده اند به تصویر می کشند و از امکان دیده شدن آنها برای حفظ اعتبار این شرکت می کاهد.
برخی محققان حقوقی خواستار وضع قوانینی برای حفاظت از دمکراسی در برابر احتمال دستکاری الگوریتم ها شده اند که می تواند منافعی انتخاباتی به دنبال داشته باشند. هیچ مدرکی وجود ندارد که در پشت تغییرات فیس بوک نیات سیاسی وجود داشته باشد، اما تصور اینکه این شرکت اگر بخواهد در آینده می تواند از الگوریتم های خود چنین سوء استفاده ای کند سخت نیست.
برای محافظت در برابر این احتمال بالقوه، با وضع قوانین جدید می توان انجام تغییرات در الگوریتم ها را در دوره های مبارزات پیش از انتخابات ها ممنوع کرد. برای مثال در صنعت فاینانس «دوره های خاموشی» وجود دارد که پیش از اعلام های شرکتی بزرگ و با هدف جلوگیری از بازاریابی و تلاش های  مرتبط با جامعه از تاثیرگذاری مصنوعی در قیمت های سهام اعمال می شود.
حفاظت های مشابهی را نیز می توان برای الگوریتم ها دربرابر دستکاری های شرکتی در نظر گرفت تا این تضمین به وجود آید که مدیران اجرایی از نظر سیاسی فعال و جویای قدرت یا هر شرکت دیگری که دارای کنترل قابل توجهی بر دسترسی کاربران خود به اطلاعات هستند، نمی توانند از سیستم های خود برای شکل دهی به افکار عمومی یا رفتار رای دهندگان استفاده کنند.
نویسنده: جنیفر  گرایجل (Jennifer Grygiel) استادیار ارتباطات و روزنامه نگاری در دانشگاه سیراکیوز

نام:
ایمیل:
* نظر:
آخرین اخبار