Facebook undlader at opdage voldelige hadefulde ytringer i annoncer indsendt af non-profit grupper

Testen kunne ikke have været meget nemmere - og Facebook fejlede stadig. Facebook og dets moderselskab Meta floppede endnu en gang i en test af, hvor godt de kunne opdage åbenlyst voldelige hadefulde ytringer i reklamer indsendt til platformen af ​​nonprofit-grupperne Global Witness og Foxglove.

De hadefulde beskeder fokuserede på Etiopien, hvor interne dokumenter indhentet af whistlebloweren Frances Haugen viste, at Facebooks ineffektive mådehold "bogstaveligt talt tilskynder til etnisk vold", som hun sagde i sit kongresvidneudsagn fra 2021. I marts kørte Global Witness en lignende test med hadefulde ytringer i Myanmar, som Facebook heller ikke kunne opdage.

Gruppen oprettede 12 tekstbaserede annoncer, der brugte dehumaniserende hadefuld tale til at opfordre til mord på mennesker, der tilhører hver af Etiopiens tre hovedetniske grupper - Amhara, Oromo og Tigrayanerne. Facebooks systemer godkendte annoncerne til offentliggørelse, ligesom de gjorde med Myanmar-annoncerne. Annoncerne blev faktisk ikke offentliggjort på Facebook.

Denne gang informerede gruppen dog Meta om de uopdagede overtrædelser. Virksomheden sagde, at annoncerne ikke burde være blevet godkendt og pegede på det arbejde, det har gjort for at fange hadefuldt indhold på sine platforme.

En uge efter at have hørt fra Meta, indsendte Global Witness yderligere to annoncer til godkendelse, igen med åbenlys hadefulde ytringer. De to annoncer, skrevet på amharisk, det mest udbredte sprog i Etiopien, blev godkendt.

Meta sagde, at annoncerne ikke skulle have været godkendt.

"Vi har investeret kraftigt i sikkerhedsforanstaltninger i Etiopien, tilføjet flere medarbejdere med lokal ekspertise og opbygget vores kapacitet til at fange hadefuldt og inflammatorisk indhold på de mest udbredte sprog, inklusive amharisk," sagde virksomheden i en e-mail-meddelelse og tilføjede, at maskiner og folk kan stadig lave fejl. Udtalelsen var identisk med den, Global Witness modtog.

"Vi udvalgte de værste sager, vi kunne komme i tanke om," sagde Rosie Sharpe, en kampagneleder hos Global Witness. "Dem, der burde være nemmest for Facebook at opdage. De var ikke kodet sprog. De var ikke hundefløjter. De var eksplicitte udtalelser, der sagde, at denne type mennesker ikke er et menneske, eller at denne type mennesker burde sultes ihjel."

Meta har konsekvent nægtet at sige, hvor mange indholdsmoderatorer det har i lande, hvor engelsk ikke er det primære sprog. Dette inkluderer moderatorer i Etiopien, Myanmar og andre regioner, hvor materiale, der er lagt ud på virksomhedens platforme, er blevet forbundet med vold i den virkelige verden.

I november sagde Meta, at det fjernede et indlæg fra Etiopiens premierminister, der opfordrede borgerne til at rejse sig og "begrave" rivaliserende Tigray-styrker, der truede landets hovedstad.

I det siden slettede indlæg sagde Abiy, at "forpligtelsen til at dø for Etiopien tilhører os alle." Han opfordrede borgerne til at mobilisere "ved at holde ethvert våben eller kapacitet."

Abiy er dog fortsat med at skrive på platformen, hvor han har 4.1 millioner følgere. USA og andre har advaret Etiopien om "dehumaniserende retorik", efter at premierministeren beskrev Tigray-styrkerne som "kræft" og "ukrudt" i kommentarer fremsat i juli 2021.

"Når annoncer, der opfordrer til folkedrab i Etiopien gentagne gange kommer gennem Facebooks net - selv efter at problemet er markeret med Facebook - er der kun én mulig konklusion: der er ingen hjemme," sagde Rosa Curling, direktør for Foxglove, en London-baseret juridisk nonprofitorganisation, der samarbejdede. med Global Witness i sin undersøgelse. "År efter folkedrabet i Myanmar er det klart, at Facebook ikke har lært lektien."


Kilde