Facebook nije uspio otkriti nasilne govore mržnje u oglasima koje su poslale neprofitne grupe

Test nije mogao biti mnogo lakši — a Facebook je ipak pao. Facebook i njegova matična kompanija Meta još jednom su propali u testu koliko dobro mogu otkriti očigledno nasilan govor mržnje u reklamama koje su platformi poslale neprofitne grupe Global Witness i Foxglove.

Poruke mržnje bile su fokusirane na Etiopiju, gdje su interni dokumenti do kojih je došla zviždača Frances Haugen pokazali da Facebookova neefikasna moderacija "bukvalno raspiruje etničko nasilje", kako je rekla u svom svjedočenju u Kongresu 2021. U martu je Global Witness izveo sličan test s govorom mržnje u Mijanmaru, koji Facebook također nije otkrio.

Grupa je kreirala 12 tekstualnih oglasa koji su koristili dehumanizirajući govor mržnje kako bi pozvali na ubistvo ljudi koji pripadaju svakoj od tri glavne etničke grupe Etiopije - Amhara, Oromo i Tigrayans. Facebookovi sistemi su odobrili oglase za objavljivanje, baš kao što su to učinili sa oglasima u Mijanmaru. Oglasi zapravo nisu objavljeni na Facebooku.

Ovog puta, međutim, grupa je obavestila Metu o neotkrivenim prekršajima. Kompanija je rekla da oglasi nisu trebali biti odobreni i ukazala na posao koji je uradila kako bi uhvatila sadržaj mržnje na svojim platformama.

Sedmicu nakon što je čuo od Mete, Global Witness je podnio još dva oglasa na odobrenje, opet sa očitim govorom mržnje. Dva oglasa, napisana na amharskom, jeziku koji se najčešće koristi u Etiopiji, odobrena su.

Meta je rekao da oglasi nisu trebali biti odobreni.

"Veoma smo uložili u sigurnosne mjere u Etiopiji, dodajući više osoblja s lokalnom ekspertizom i izgrađujući naše kapacitete za hvatanje sadržaja mržnje i zapaljivanja na najrasprostranjenijim jezicima, uključujući amharski", navodi se u saopštenju kompanije, dodajući da mašine a ljudi i dalje mogu pogriješiti. Izjava je bila identična onoj koju je primio Global Witness.

“Izabrali smo najgore slučajeve kojih smo se mogli sjetiti”, rekla je Rosie Sharpe, aktivistica Global Witnessa. “One koje bi Facebooku trebalo najlakše otkriti. Nisu bili kodirani jezik. Nisu to bile zviždaljke za pse. Bile su to eksplicitne izjave u kojima se govorilo da ovaj tip osobe nije čovjek ili da takve ljude treba umirati od gladi.”

Meta je uporno odbijala da kaže koliko ima moderatora sadržaja u zemljama u kojima engleski nije primarni jezik. Ovo uključuje moderatore u Etiopiji, Mjanmaru i drugim regijama u kojima je materijal objavljen na platformama kompanije povezan s nasiljem u stvarnom svijetu.

U novembru je Meta rekao da je uklonio post premijera Etiopije koji poziva građane da ustanu i "sahranju" rivalske snage Tigraja koje su prijetile glavnom gradu zemlje.

U post-izbrisanoj objavi, Abiy je rekao da "obaveza da umremo za Etiopiju pripada svima nama". Pozvao je građane da se mobilišu "držanjem bilo kakvog oružja ili kapaciteta".

Abiy je ipak nastavio da objavljuje na platformi, gdje ima 4.1 milion pratilaca. SAD i drugi upozorili su Etiopiju na "dehumanizirajuću retoriku" nakon što je premijer opisao Tigrajeve snage kao "rak" i "korov" u komentarima datim u julu 2021.

"Kada se oglasi koji pozivaju na genocid u Etiopiji stalno prođu kroz Facebook mrežu - čak i nakon što je problem označen Facebookom - postoji samo jedan mogući zaključak: nema nikoga kod kuće", rekla je Rosa Curling, direktorica Foxglove, pravne neprofitne organizacije sa sjedištem u Londonu koja je bila partner sa Global Witnessom u svojoj istrazi. “Godinama nakon genocida u Mjanmaru, jasno je da Facebook nije naučio lekciju.”


izvor