فیس‌بوک؛الگوریتم پول‌ساز و خطرناک

آنچه بیشتر موجب نگرانی می‌شود این است که به‌تازگی اسنادی منتشر شده که نشان می‌دهد مدیران این شرکت، از این کارایی پایین الگوریتم استقبال هم می‌کنند، زیرا پست‌های جنجالی و خلاف مقررات پلتفرم، بازدیدکننده بیشتری دارند و در نهایت به بالا رفتن سودآوری شرکت می‌انجامند. او کارش را در بخش امور مربوط به اطلاعات نادرست و دموکراسی در این پلتفرم آغاز کرد و همزمان مدیریت بخش فعالیت‌های مرتبط با شنود دسترسی غیرمجاز به داده‌های کاربران را نیز در دست گرفت. بر اساس قانون، همه شرکت‌های حاضر در بورس، باید برخی اطلاعات مشخص درباره عملکرد خود را به صورت عمومی اعلام کنند و البته حق ندارند اقدامی خلاف این سیاست‌های اعلامی انجام دهند. فرانسیس هاگن می‌گوید بسیاری از اقدامات فیسبوک در تضاد با این سیاست‌های عمومی اعلام شده است. خانم هاگن می‌گوید مدیران فیسبوک به‌خوبی از این نکته آگاه بودند که الگوریتم‌ها و پلتفرم‌هایشان به شکلی است که اتفاقا موجب بالا‌ آمدن چنین مطالبی در جستجوها و نیز فید کاربران می‌شود. با محوریت اخبار جعلی و نیز ترویج‌کننده خشونت ‌یا نفرت معمولا موجب جذب بیشتر مخاطب شده که البته این جذابیت به استفاده بیشتر از پلتفرم‌های فیسبوک و در نهایت، درآمدزایی بیشتر برای این شرکت منجر می‌شود. معاون سیاستگذاری و امور بین‌الملل فیسبوک، موارد مطرح‌شده از سوی فرانسیس هاگن را «گمراه‌کننده» خواند و گفت که فیسبوک مجموعه‌ای از صفات خوب و بد انسانی را در خود دارد و البته می‌کوشد ویژگی‌های بد خود را کم کرده و ویژگی‌های خوب را تقویت کند. زیادی برای حفظ ایمنی و مبارزه با محتواها با محوریت تنفر یا خشونت انجام داده است و اینکه فیسبوک نسبت به این موضوع بی‌اعتناست، درست نیست. این سیاست به طور خاص برای رسیدگی به تخلفات افراد سرشناس طراحی شده‌‌ و ظاهرا هدفش نیز جلب نظر مثبت این افراد (و نه پیروی از قوانین کلی پلتفرم) است. بر اساس قوانین پلتفرم فیسبوک، گزارش تخلف یک کاربر، برای مجموعه‌ای از کاربران ناظر ارسال می‌شود. این کاربران که هیچ‌کدام از آنها کارمند فیسبوک نیستند، اقدام به بررسی گزارش تخلف کرده و در صورت قطعی‌بودن تخلف، اقدام لازم را بر اساس مقررات این پلتفرم انجام می‌دهند. اما بر اساس سازوکار «کراس‌چک» تخلفات افراد سرشناس، به این کاربران ناظر ارسال نمی‌شود و در مقابل، تیمی از کارکنان فیسبوک به بررسی آن می‌پردازند. البته بررسی‌های بیشتر نشان می‌دهد بیشتر گزارش‌هایی که تاکنون از صفحات افراد مشهور به دست فیسبوک رسیده، با بی‌اعتنایی رد می‌شود؛ هر چند که برخی از آنها نقض آشکار مقررات اعلامی از سوی این پلتفرم هستند. فرانسیس هاگن می‌گوید الگوریتم کنونی فیسبوک به شکلی است که موجب شکل‌گیری تعاملات معنادار اجتماعی (MSI) می‌شود که همین ویژگی می‌تواند خطرناک باشد. این ویژگی از سال‌ ۲۰۱۸ در الگوریتم خبرخوان (نیوز فید) فیسبوک قرار گرفت و بر اساس آن، مطالبی که بیشترین تعامل (نظیر لایک یا کامنت) را از سوی دیگر دوستان یا افراد خانواده یک کاربر دریافت می‌کند، بیشتر برای او نشان داده می‌شود. اما بر اساس اسنادی که فرانسیس هاگن به دست آورده، کارشناسان تحلیل داده نگران این مسئله هستند که این الگو موجب شکل‌گیری سوگیری و اثراتی منفی بر برخی محتواهای منتشر شده، به ویژه اخبار و نیز مطالب سیاسی شود. فرانسیس هاگن می‌گوید بیش از ۱۰سال در زمینه الگوریتم‌های مرتبط با رده‌بندی محتوا بر اساس علاقه کاربر فعالیت کرده‌ و نگرانی‌هایی که در این زمینه بیان می‌کند، حاصل این یک دهه تجربه است. در واقع، هیجانات بیشتر کاربران به دلیل نشر اخبار و مطالب نادرست و مبتنی بر خشونت یا نفرت در نهایت موجب جذب بیشتر کاربران و البته درآمدزایی بیشتر برای فیسبوک می‌شود. او می‌گوید که فیسبوک برداشت اشتباهی از موضوع دارد، زیرا دقت بیشتر به تدابیر لازم برای حفظ سلامت مطالب منتشرشده و نیز نظارت پژوهشگران و حتی سازمان‌های دولتی بر عملکرد این پلتفرم در نهایت به سود این شرکت خواهد بود. فرانسیس هاگن در مصاحبه تلویزیونی خود گفت: «از آنجا که کمتر کسی از پشت پرده پلتفرم فیسبوک خبر دارد، این شرکت هیچ مسئولیتی را در قبال مشکلات ایجاد شده نمی‌پذیرد. فرانسیس هاگن اسنادی در اختیار دارد که نشان می‌دهد از فیسبوک برای جرایم مختلف حتی در کشورهای دیگر نیز استفاده می‌شود و در عین حال، این شرکت هیچ واکنش مناسبی به چنین مواردی نشان نمی‌دهد. فرانسیس هاگن می‌گوید فقط ۹‌درصد از کاربران فیسبوک به زبان انگلیسی صحبت می‌کنند، ولی ۸۷‌درصد از بودجه‌ای که صرف مبارزه با اطلاعات نادرست در این پلتفرم می‌شود، به زبان انگلیسی اختصاص دارد! اما فرانسیس هاگن بر این باور است که دولت باید فرآیندها و الگوریتم‌های فیسبوک را به صورت پیوسته مورد پایش قرار دهد. وقتی از فرانسیس هاگن پرسیده شد که اگر مدیرعامل فیسبوک بود، چه کاری برای رفع این مشکلات بنیادین انجام می‌داد، او گفت که سیاست‌هایی را پیاده می‌کرد تا اطلاعات بیشتری درباره الگوریتم‌های مورد استفاده در اختیار نهادهای نظارتی مثل کنگره ایالات متحده قرار گیرد. فرانسیس هاگن می‌گوید فیسبوک با ساختار کنونی خود نمی‌تواند جلوی انتشار اخبار و مطالب نادرست درباره واکسن را بگیرد. جالب است بدانید خود فیسبوک اعتراف می‌کند که شناسایی مطالب نادرست توسط چند الگوریتم هوش مصنوعی صورت می‌گیرد که این الگوریتم‌ها نیز نمی‌توانند بیش از ۱۰ تا ۲۰ درصد از این دسته از مطالب را شناسایی کنند. فرانسیس هاگن می‌گوید این قانون باید اصلاح شود تا اگر انتشار اخبار و مطالب نادرست به دلیل نقص در الگوریتم باشد، پلتفرم نیز در این ماجرا مقصر شناخته شود. فرانسیس هاگن می‌گوید که با جدا‌شدن اینستاگرام از فیسبوک مخالف است، زیرا اگر این اتفاق بیفتد، بیشتر آگهی‌دهندگان تمایل دارند پول‌شان را در اینستاگرام خرج کنند و در این صورت، فیسبوک دیگر آن پلتفرم قدرتمند سابق نخواهد بود و نمی‌تواند به درآمدهای قبلی خود دست یابد. از سوی دیگر، کنگره ایالات متحده به دنبال تصویب طرحی برای نظارت بیشتر بر پلتفرم‌هایی است که توسط کودکان و نوجوانان زیر ۱۶سال مورد استفاده قرار می‌گیرد. یکی از اسناد مهمی که فرانسیس هاگن در اختیار دارد، جزئیات یکی از پژوهش‌های فیسبوک درباره اثرات اینستاگرام بر سلامت کاربران را بیان می‌کند. در این مطالعه آمده که خانم‌های جوان پس از مطالعه پست‌های مختلف درباره رژیم‌های غذایی و پیروی از آنها، نمی‌توانند به نتیجه مورد نظر برسند و به همین دلیل احساس ناخوشایند بیشتری می‌یابند و برای کاهش این احساس ناخوشایند بیشتر از این اپلیکیشن استفاده می‌کنند. فرانسیس هاگن می‌گوید فیسبوک تمایلی به اقدام در این زمینه ندارد، زیرا این کاربران بیشتر و بیشتر از اینستاگرام استفاده می‌کنند که این رفتار مساوی با افزایش سود برای شرکت است. او در مصاحبه شغلی خود گفت که موضوع انتشار اطلاعات نادرست برایش اهمیت زیادی دارد و ماجرای دوستش را نیز برای اعضای پنل مصاحبه تعریف کرد.

متن کامل خبر در سایت هفته نامه شنبه

    منبع خبر

    هفته نامه شنبه

    هفته نامه شنبه

    هفته نامه شنبه یک رسانه در شهر تهران می باشد

    نظرات