الگوریتم های فیس بوک به تفرقه انگیزی دامن می زنند
گزارشی جدید نشان می دهد فیس بوک با علم به اینکه الگوریتم های این شرکت به تفرقه افکنی و فعالیت گروه های افراطی دامن می زند، تلاشی برای اصلاح آنها نکرده است. […]
به نقل از انگجت، طبق گزارشی جدید مدیران ارشد فیس بوک در برابر تلاش های داخل شرکت برای کاهش تفرقه انگیزی این پلتفرم مقاومت کرده اند. به نوشته وال استریت ژورنال گزارشی داخلی در فیس بوک الگوریتم هایی را رصد کرده که از «قابلیت جذب مغز انسان به تفرقه افکنی» سواستفاده و این شبکه اجتماعی را به یک مکان دوقطبی تبدیل می کند. این نشریه در تحقیقی دیگر اشاره کرده بود فیس بوک در سال ۲۰۱۶ میلادی متوجه شده به دلیل الگوریتم های توصیه ای ، ۶۴ درصد کاربرانش به گروه های افراط گرا موجود در این پلتفرم ملحق می شوند. سال بعد فیس بوک پروژه «فصل مشترک» را راه اندازی کرد. این پروژه تلاشی بود تا وضعیت دوقطبی در شبکه اجتماعی کاهش و همدردی میان کاربران افزایش یابد. اما در نهایت شرکت تصمیم گرفت درباره الگوریتم های توصیه ای فعالیتی انجام ندهد زیرا می ترسید ادعاها درباره تبعیض آمیز بودن فعالیت های شرکت بیشتر شود. از سوی دیگر تغییرات پیشنهادی دیگر برای کاهش این امر نیز به طور سطحی اجرا شدند. سخنگوی فیس بوک در بیانیه ای اعلام کرد این شرکت از سال ۲۰۱۶ تاکنون نکات بیشماری را آموخته و بیش از ۲ میلیون دلار صرف تحقیقات خارج شرکت درباره دوقطبی سازی فضای شبکه اجتماعی کرده است. در این بیانیه آمده است: ما از ۲۰۱۶ تاکنون مطالب بسیاری آموختیم و آن شرکت سابق نیستیم. اکنون یک تیم یکپارچه سازی قدرتمند ساخته ایم، سیاست هایمان و عملکردهایمان را تقویت کرده ایم تا محتوای مضر را محدود کنیم. همچنین سعی داریم با کمک تحقیقات تاثیر پلتفرم خود روی جامعه را درک کنیم.