Facebook ne uspijeva otkriti nasilne govore mržnje u oglasima koje su poslale neprofitne grupe

Test nije mogao biti mnogo lakši — i Facebook je ipak pao. Facebook i njegova matična tvrtka Meta ponovno su pogriješili na testu koliko dobro mogu otkriti očito nasilan govor mržnje u oglasima koje su platformi poslale neprofitne grupe Global Witness i Foxglove.

Poruke pune mržnje bile su usredotočene na Etiopiju, gdje su interni dokumenti do kojih je došla zviždačica Frances Haugen pokazali da Facebookovo neučinkovito moderiranje “doslovno raspiruje etničko nasilje”, kako je rekla u svom svjedočenju pred Kongresom 2021. godine. U ožujku je Global Witness proveo sličan test s govorom mržnje u Mjanmaru, koji Facebook također nije uspio otkriti.

Grupa je izradila 12 tekstualnih oglasa koji su koristili dehumanizirajući govor mržnje kako bi pozvali na ubojstvo ljudi koji pripadaju svakoj od tri glavne etničke skupine u Etiopiji - Amhara, Oromo i Tigrayans. Facebookovi sustavi odobrili su oglase za objavu, baš kao što su učinili s oglasima iz Mjanmara. Oglasi zapravo nisu objavljeni na Facebooku.

Ovaj put, međutim, grupa je obavijestila Metu o neotkrivenim kršenjima. Tvrtka je rekla da reklame nisu trebale biti odobrene i ukazala na posao koji je poduzela kako bi uhvatila sadržaj koji promiče mržnju na svojim platformama.

Tjedan dana nakon saslušanja od Mete, Global Witness je predao još dva oglasa na odobrenje, opet s očiglednim govorom mržnje. Odobrena su dva oglasa napisana na amharskom, najraširenijem jeziku u Etiopiji.

Meta je rekao da oglasi nisu trebali biti odobreni.

"Puno smo uložili u sigurnosne mjere u Etiopiji, dodajući više osoblja s lokalnom stručnošću i jačajući svoje kapacitete za hvatanje mržnje i huškačkog sadržaja na najraširenijim jezicima, uključujući amharski", rekla je tvrtka u izjavi poslanoj e-poštom, dodajući da strojevi a ljudi još uvijek mogu pogriješiti. Izjava je bila identična onoj koju je dobio Global Witness.

"Odabrali smo najgore slučajeve kojih smo se mogli sjetiti", rekla je Rosie Sharpe, aktivistica Global Witnessa. “One koje bi Facebook trebao najlakše otkriti. Nisu bili kodirani jezik. Nisu to bile zviždaljke za pse. Bile su to eksplicitne izjave koje govore da ova vrsta osobe nije čovjek ili da takvu vrstu ljudi treba izgladnjivati ​​do smrti.”

Meta je stalno odbijala reći koliko moderatora sadržaja ima u zemljama u kojima engleski nije primarni jezik. To uključuje moderatore u Etiopiji, Mianmaru i drugim regijama u kojima je materijal objavljen na platformama tvrtke povezan s nasiljem u stvarnom svijetu.

U studenom je Meta rekla da je uklonila objavu premijera Etiopije koja je pozvala građane da ustanu i "pokopaju" suparničke snage Tigraya koje su prijetile glavnom gradu zemlje.

U postu koji je u međuvremenu izbrisan, Abiy je rekao da "obveza umrijeti za Etiopiju pripada svima nama". Pozvao je građane na mobilizaciju “držanjem bilo kakvog oružja ili kapaciteta”.

Abiy je ipak nastavio objavljivati ​​postove na platformi, gdje ima 4.1 milijun pratitelja. SAD i drugi upozorili su Etiopiju na "dehumanizirajuću retoriku" nakon što je premijer opisao snage Tigraya kao "rak" i "korov" u komentarima iz srpnja 2021.

"Kada oglasi koji pozivaju na genocid u Etiopiji opetovano prolaze Facebookovom mrežom - čak i nakon što je problem označen na Facebooku - postoji samo jedan mogući zaključak: nema nikoga kod kuće", rekla je Rosa Curling, direktorica Foxglovea, pravne neprofitne organizacije sa sjedištem u Londonu koja je postala partner s Global Witnessom u njegovoj istrazi. “Godinama nakon genocida u Mjanmaru, jasno je da Facebook nije naučio lekciju.”


izvor