این آزمایش نمی توانست خیلی ساده تر باشد - و فیس بوک همچنان شکست خورد. فیسبوک و شرکت مادرش متا بار دیگر در آزمایشی مبنی بر اینکه چقدر میتوانند سخنان مشروح خشونت آمیز خشونتآمیز را در تبلیغات ارسال شده توسط گروههای غیرانتفاعی Global Witness و Foxglove به این پلتفرم تشخیص دهند، شکست خوردند.
پیامهای نفرتانگیز بر اتیوپی متمرکز بودند، جایی که اسناد داخلی به دست آمده توسط افشاگر فرانسیس هاوگن نشان میداد که اعتدال ناکارآمد فیسبوک «به معنای واقعی کلمه به خشونت قومی دامن میزند»، همانطور که او در شهادتش در کنگره سال 2021 گفت. در ماه مارس، Global Witness آزمایشی مشابه با سخنان نفرت پراکنی در میانمار انجام داد که فیس بوک نیز نتوانست آن را شناسایی کند.
این گروه 12 آگهی متنی ایجاد کرد که از سخنان تنفرآمیز غیرانسانی برای دعوت به قتل افراد متعلق به هر یک از سه گروه قومی اصلی اتیوپی - آمهارا، اورومو و تیگرایان استفاده می کرد. سیستم های فیس بوک تبلیغات را برای انتشار تایید کردند، درست مانند تبلیغات میانمار. تبلیغات در واقع در فیس بوک منتشر نشده است.
با این حال، این بار، گروه متا را از تخلفات کشف نشده مطلع کرد. این شرکت گفت که این تبلیغات نباید تایید می شد و به کاری که برای جلب محتوای نفرت انگیز در پلتفرم های خود انجام داده اشاره کرد.
یک هفته پس از شنیدن صحبتهای متا، Global Witness دو آگهی دیگر را برای تأیید ارسال کرد که باز هم با سخنان نفرت آشکار همراه بود. این دو آگهی که به زبان آمهری، پرکاربردترین زبان در اتیوپی نوشته شده بودند، تأیید شدند.
متا گفت که تبلیغات نباید تایید می شد.
این شرکت در بیانیه ای ایمیلی گفت: "ما سرمایه گذاری زیادی در اقدامات ایمنی در اتیوپی انجام داده ایم، کارکنان بیشتری با تخصص محلی اضافه کرده ایم و ظرفیت خود را برای دریافت محتوای نفرت انگیز و تحریک آمیز به رایج ترین زبان ها از جمله آمهری ایجاد کرده ایم." و مردم هنوز هم می توانند اشتباه کنند. بیانیه ای که Global Witness دریافت کرد، یکسان بود.
رزی شارپ، یکی از مبارزان در Global Witness گفت: «ما بدترین مواردی را که میتوانستیم فکر کنیم انتخاب کردیم. «آنهایی که باید برای فیس بوک راحت ترین تشخیص باشند. آنها زبان رمزی نبودند. آنها سوت سگ نبودند. آنها اظهارات صریحی داشتند که می گفتند این نوع آدم ها انسان نیستند یا باید از گرسنگی بمیرند.
متا به طور مداوم از بیان تعداد ناظر محتوا در کشورهایی که انگلیسی زبان اصلی نیست، خودداری کرده است. این شامل ناظران در اتیوپی، میانمار و سایر مناطقی می شود که مطالب ارسال شده در پلتفرم های شرکت با خشونت در دنیای واقعی مرتبط است.
در ماه نوامبر، متا گفت که پست نخست وزیر اتیوپی را که از شهروندان خواسته بود قیام کنند و نیروهای رقیب تیگری را که پایتخت این کشور را تهدید می کردند، «دفن» کنند، حذف کرد.
در پست حذف شده، ابی گفت: "وظیفه مردن برای اتیوپی متعلق به همه ماست." وی از شهروندان خواست با در دست داشتن هر سلاح و ظرفیتی بسیج شوند.
ابی همچنان به پست های خود در این پلتفرم ادامه داده است، جایی که 4.1 میلیون دنبال کننده دارد. پس از آنکه نخست وزیر در اظهاراتی که در ژوئیه 2021 انجام شد، نیروهای تیگری را به عنوان "سرطان" و "علف هرز" توصیف کرد، ایالات متحده و سایرین به اتیوپی در مورد "لفاظی غیرانسانی" هشدار دادند.
رزا کرلینگ، مدیر Foxglove، یک سازمان غیرانتفاعی حقوقی مستقر در لندن، میگوید: «وقتی تبلیغاتی که خواستار نسلکشی در اتیوپی میشوند به طور مکرر از طریق شبکه فیسبوک – حتی پس از اینکه مشکل با فیسبوک علامتگذاری شد – منتشر میشود – تنها یک نتیجه ممکن وجود دارد: هیچکس در خانه نیست. با Global Witness در تحقیقات خود. سال ها پس از نسل کشی میانمار، واضح است که فیس بوک درسی از خود نگرفته است.