Фацебоок не успева да открије насилне говоре мржње у огласима које су послале непрофитне групе

Тест није могао бити много лакши - а Фацебоок је ипак пропао. Фејсбук и његова матична компанија Мета поново су пропали у тесту колико су добро могли да открију очигледно насилан говор мржње у огласима које су платформи послале непрофитне групе Глобал Витнесс и Фокглове.

Поруке мржње биле су фокусиране на Етиопију, где су интерни документи до којих је дошла узбуњивача Френсис Хауген показали да неефикасна модерација Фејсбука „буквално распирује етничко насиље“, како је рекла у свом сведочењу у Конгресу 2021. У марту је Глобал Витнесс спровео сличан тест са говором мржње у Мјанмару, који Фејсбук такође није успео да открије.

Група је направила 12 текстуалних огласа који су користили дехуманизирајући говор мржње да позивају на убиство људи који припадају свакој од три главне етничке групе у Етиопији — Амхара, Оромо и Тиграјанци. Фацебоок-ови системи су одобрили огласе за објављивање, баш као што су учинили са огласима у Мјанмару. Огласи заправо нису објављени на Фејсбуку.

Овог пута, међутим, група је обавестила Мету о неоткривеним прекршајима. Компанија је рекла да огласи нису требали бити одобрени и указала на посао који је урадила да ухвати садржај мржње на својим платформама.

Недељу дана након што је чуо од Мете, Глобал Витнесс је поднео још два огласа на одобрење, поново са отвореним говором мржње. Два огласа, написана на амхарском, језику који се најчешће користи у Етиопији, одобрена су.

Мета је рекао да огласи нису требали бити одобрени.

„Уложили смо много у безбедносне мере у Етиопији, додајући више особља са локалном експертизом и изграђујући наше капацитете да ухватимо мржњу и запаљив садржај на најраспрострањенијим језицима, укључујући амхарски“, наводи компанија у саопштењу послатом е-поштом, додајући да машине а људи и даље могу да греше. Изјава је била идентична оној коју је Глобал Витнесс примио.

„Изабрали смо најгоре случајеве којих смо могли да се сетимо“, рекла је Роузи Шарп, активисткиња Глобал Витнесс-а. „Оне које би Фејсбуку требало да буде најлакше да открије. Нису били кодирани језик. Нису то биле звиждаљке за псе. То су биле експлицитне изјаве у којима се говорило да овај тип особе није човек или да такве људе треба умирати од глади.”

Мета је доследно одбијала да каже колико модератора садржаја има у земљама у којима енглески није примарни језик. Ово укључује модераторе у Етиопији, Мјанмару и другим регионима у којима је материјал објављен на платформама компаније повезан са насиљем у стварном свету.

У новембру је Мета рекао да је уклонио пост премијера Етиопије који је позвао грађане да устану и „сахрању“ ривалске снаге Тиграја које су претиле главном граду земље.

У пост-избрисаној објави, Абии је рекао да „обавеза да умремо за Етиопију припада свима нама”. Он је позвао грађане да се мобилишу "држањем било каквог оружја или капацитета".

Абии је ипак наставио да објављује на платформи, где има 4.1 милион пратилаца. САД и други упозорили су Етиопију на „дехуманизирајућу реторику“ након што је премијер описао Тиграјеве снаге као „рак“ и „коров“ у коментарима датим у јулу 2021.

„Када се огласи који позивају на геноцид у Етиопији више пута прођу кроз Фејсбук мрежу — чак и након што је проблем означен са Фејсбуком — постоји само један могући закључак: нема никога код куће“, рекла је Роза Керлинг, директорка Фокглове, легалне непрофитне организације са седиштем у Лондону која је била партнер. са Глобал Витнесс-ом у својој истрази. „Годинама након геноцида у Мјанмару, јасно је да Фацебоок није научио лекцију.


извор