Facebookowi nie udaje się wykryć brutalnej mowy nienawiści w reklamach przesyłanych przez grupy non-profit

Test nie mógł być dużo prostszy — a Facebook nadal nie powiódł się. Facebook i jego spółka macierzysta Meta po raz kolejny wypadli w teście, jak dobrze potrafią wykryć mowę nienawiści w oczywisty sposób zawierającą przemoc w reklamach przesłanych na platformę przez organizacje non-profit Global Witness i Foxglove.

Nienawistne wiadomości koncentrowały się na Etiopii, gdzie wewnętrzne dokumenty uzyskane przez demaskatora Frances Haugen wykazały, że nieskuteczna moderacja Facebooka „dosłownie podsyca przemoc etniczną”, jak powiedziała w swoim zeznaniu przed Kongresem w 2021 roku. W marcu Global Witness przeprowadził podobny test z mową nienawiści w Myanmarze, którego Facebook również nie wykrył.

Grupa stworzyła 12 reklam tekstowych, które wykorzystywały odczłowieczającą mowę nienawiści, by nawoływać do mordowania ludzi należących do każdej z trzech głównych grup etnicznych Etiopii – Amhara, Oromo i Tigrayans. Systemy Facebooka zatwierdziły reklamy do publikacji, tak samo jak zrobiły to z reklamami Myanmaru. Reklamy w rzeczywistości nie były publikowane na Facebooku.

Tym razem jednak grupa poinformowała Metę o niewykrytych naruszeniach. Firma stwierdziła, że ​​reklamy nie powinny były zostać zatwierdzone i zwróciła uwagę na pracę, jaką wykonała, aby złapać nienawistne treści na swoich platformach.

Tydzień po otrzymaniu wiadomości od Meta firma Global Witness przesłała do zatwierdzenia jeszcze dwie reklamy, ponownie zawierające rażącą mowę nienawiści. Zatwierdzono dwie reklamy napisane w języku amharskim, najczęściej używanym w Etiopii.

Meta powiedział, że reklamy nie powinny były zostać zatwierdzone.

„Dużo zainwestowaliśmy w środki bezpieczeństwa w Etiopii, dodając więcej pracowników posiadających lokalną wiedzę specjalistyczną i budując naszą zdolność do wyłapywania nienawistnych i podżegających treści w najczęściej używanych językach, w tym w języku amharskim” – poinformowała firma w e-mailowym oświadczeniu, dodając, że maszyny a ludzie wciąż mogą popełniać błędy. Oświadczenie było identyczne z tym, które otrzymał Global Witness.

„Wybraliśmy najgorsze przypadki, jakie mogliśmy wymyślić” – powiedziała Rosie Sharpe, działaczka w Global Witness. „Te, które powinny być najłatwiejsze do wykrycia przez Facebooka. To nie był zakodowany język. To nie były gwizdki na psy. Były to wyraźne stwierdzenia mówiące, że ten typ osoby nie jest człowiekiem lub że tego typu ludzie powinni zostać zagłodzeni na śmierć”.

Meta konsekwentnie odmawia podania liczby moderatorów treści w krajach, w których angielski nie jest językiem podstawowym. Obejmuje to moderatorów w Etiopii, Birmie i innych regionach, w których materiały zamieszczone na platformach firmy zostały powiązane z przemocą w świecie rzeczywistym.

W listopadzie Meta poinformowała, że ​​usunęła post premiera Etiopii, który wzywał obywateli do powstania i „pochowania” rywalizujących sił Tigray, które zagrażały stolicy kraju.

W usuniętym od tego czasu poście Abiy powiedział, że „obowiązek śmierci za Etiopię należy do nas wszystkich”. Wezwał obywateli do mobilizacji „poprzez posiadanie jakiejkolwiek broni lub zdolności”.

Abiy nadal publikuje posty na platformie, na której ma 4.1 miliona obserwujących. Stany Zjednoczone i inne kraje ostrzegły Etiopię przed „odczłowieczającą retoryką” po tym, jak premier opisał siły Tigray jako „raka” i „chwasty” w komentarzach z lipca 2021 r.

„Kiedy reklamy wzywające do ludobójstwa w Etiopii wielokrotnie pojawiają się w sieci Facebooka – nawet po zgłoszeniu problemu na Facebooku – jest tylko jeden możliwy wniosek: nikogo nie ma w domu” – powiedziała Rosa Curling, dyrektorka Foxglove, londyńskiej organizacji non-profit, która jest partnerem z Global Witness w swoim dochodzeniu. „Lata po ludobójstwie w Birmie jest jasne, że Facebook nie odrobił lekcji”.


Źródło