فیس بوک نتوانست سخنان تنفر آمیز خشونت آمیز را در تبلیغات ارسال شده توسط گروه های غیرانتفاعی تشخیص دهد.

این آزمایش نمی توانست خیلی ساده تر باشد - و فیس بوک همچنان شکست خورد. فیس‌بوک و شرکت مادرش متا بار دیگر در آزمایشی مبنی بر اینکه چقدر می‌توانند سخنان مشروح خشونت آمیز خشونت‌آمیز را در تبلیغات ارسال شده توسط گروه‌های غیرانتفاعی Global Witness و Foxglove به این پلتفرم تشخیص دهند، شکست خوردند.

پیام‌های نفرت‌انگیز بر اتیوپی متمرکز بودند، جایی که اسناد داخلی به دست آمده توسط افشاگر فرانسیس هاوگن نشان می‌داد که اعتدال ناکارآمد فیس‌بوک «به معنای واقعی کلمه به خشونت قومی دامن می‌زند»، همانطور که او در شهادتش در کنگره سال 2021 گفت. در ماه مارس، Global Witness آزمایشی مشابه با سخنان نفرت پراکنی در میانمار انجام داد که فیس بوک نیز نتوانست آن را شناسایی کند.

این گروه 12 آگهی متنی ایجاد کرد که از سخنان تنفرآمیز غیرانسانی برای دعوت به قتل افراد متعلق به هر یک از سه گروه قومی اصلی اتیوپی - آمهارا، اورومو و تیگرایان استفاده می کرد. سیستم های فیس بوک تبلیغات را برای انتشار تایید کردند، درست مانند تبلیغات میانمار. تبلیغات در واقع در فیس بوک منتشر نشده است.

با این حال، این بار، گروه متا را از تخلفات کشف نشده مطلع کرد. این شرکت گفت که این تبلیغات نباید تایید می شد و به کاری که برای جلب محتوای نفرت انگیز در پلتفرم های خود انجام داده اشاره کرد.

یک هفته پس از شنیدن صحبت‌های متا، Global Witness دو آگهی دیگر را برای تأیید ارسال کرد که باز هم با سخنان نفرت آشکار همراه بود. این دو آگهی که به زبان آمهری، پرکاربردترین زبان در اتیوپی نوشته شده بودند، تأیید شدند.

متا گفت که تبلیغات نباید تایید می شد.

این شرکت در بیانیه ای ایمیلی گفت: "ما سرمایه گذاری زیادی در اقدامات ایمنی در اتیوپی انجام داده ایم، کارکنان بیشتری با تخصص محلی اضافه کرده ایم و ظرفیت خود را برای دریافت محتوای نفرت انگیز و تحریک آمیز به رایج ترین زبان ها از جمله آمهری ایجاد کرده ایم." و مردم هنوز هم می توانند اشتباه کنند. بیانیه ای که Global Witness دریافت کرد، یکسان بود.

رزی شارپ، یکی از مبارزان در Global Witness گفت: «ما بدترین مواردی را که می‌توانستیم فکر کنیم انتخاب کردیم. «آنهایی که باید برای فیس بوک راحت ترین تشخیص باشند. آنها زبان رمزی نبودند. آنها سوت سگ نبودند. آنها اظهارات صریحی داشتند که می گفتند این نوع آدم ها انسان نیستند یا باید از گرسنگی بمیرند.

متا به طور مداوم از بیان تعداد ناظر محتوا در کشورهایی که انگلیسی زبان اصلی نیست، خودداری کرده است. این شامل ناظران در اتیوپی، میانمار و سایر مناطقی می شود که مطالب ارسال شده در پلتفرم های شرکت با خشونت در دنیای واقعی مرتبط است.

در ماه نوامبر، متا گفت که پست نخست وزیر اتیوپی را که از شهروندان خواسته بود قیام کنند و نیروهای رقیب تیگری را که پایتخت این کشور را تهدید می کردند، «دفن» کنند، حذف کرد.

در پست حذف شده، ابی گفت: "وظیفه مردن برای اتیوپی متعلق به همه ماست." وی از شهروندان خواست با در دست داشتن هر سلاح و ظرفیتی بسیج شوند.

ابی همچنان به پست های خود در این پلتفرم ادامه داده است، جایی که 4.1 میلیون دنبال کننده دارد. پس از آنکه نخست وزیر در اظهاراتی که در ژوئیه 2021 انجام شد، نیروهای تیگری را به عنوان "سرطان" و "علف هرز" توصیف کرد، ایالات متحده و سایرین به اتیوپی در مورد "لفاظی غیرانسانی" هشدار دادند.

رزا کرلینگ، مدیر Foxglove، یک سازمان غیرانتفاعی حقوقی مستقر در لندن، می‌گوید: «وقتی تبلیغاتی که خواستار نسل‌کشی در اتیوپی می‌شوند به طور مکرر از طریق شبکه فیس‌بوک – حتی پس از اینکه مشکل با فیس‌بوک علامت‌گذاری شد – منتشر می‌شود – تنها یک نتیجه ممکن وجود دارد: هیچ‌کس در خانه نیست. با Global Witness در تحقیقات خود. سال ها پس از نسل کشی میانمار، واضح است که فیس بوک درسی از خود نگرفته است.


منبع