Facebook klarer ikke å oppdage voldelige hatytringer i annonser sendt inn av ideelle grupper

Testen kunne ikke vært mye enklere - og Facebook mislyktes fortsatt. Facebook og dets morselskap Meta floppet nok en gang i en test av hvor godt de kunne oppdage åpenbart voldelige hatytringer i annonser sendt til plattformen av nonprofit-gruppene Global Witness og Foxglove.

De hatefulle meldingene fokuserte på Etiopia, der interne dokumenter innhentet av varsleren Frances Haugen viste at Facebooks ineffektive moderering «bokstavelig talt oppmuntrer til etnisk vold», som hun sa i sitt kongressvitnesbyrd fra 2021. I mars kjørte Global Witness en lignende test med hatytringer i Myanmar, som Facebook heller ikke klarte å oppdage.

Gruppen opprettet 12 tekstbaserte annonser som brukte dehumaniserende hatytringer for å oppfordre til drap på mennesker som tilhører hver av Etiopias tre hovedetniske grupper - Amhara, Oromo og Tigraanerne. Facebooks systemer godkjente annonsene for publisering, akkurat som de gjorde med Myanmar-annonsene. Annonsene ble faktisk ikke publisert på Facebook.

Denne gangen informerte gruppen Meta om de uoppdagede bruddene. Selskapet sa at annonsene ikke burde ha blitt godkjent og pekte på arbeidet det har gjort for å fange hatefullt innhold på plattformene sine.

En uke etter å ha hørt fra Meta, sendte Global Witness inn ytterligere to annonser for godkjenning, igjen med åpenbare hatytringer. De to annonsene, skrevet på amharisk, det mest brukte språket i Etiopia, ble godkjent.

Meta sa at annonsene ikke skulle ha blitt godkjent.

"Vi har investert tungt i sikkerhetstiltak i Etiopia, lagt til flere ansatte med lokal ekspertise og bygget vår kapasitet til å fange hatefullt og provoserende innhold på de mest talte språkene, inkludert amharisk," sa selskapet i en e-postmelding, og la til at maskiner og folk kan fortsatt gjøre feil. Uttalelsen var identisk med den Global Witness mottok.

"Vi plukket ut de verste tilfellene vi kunne tenke oss," sa Rosie Sharpe, en forkjemper hos Global Witness. "De som burde være lettest for Facebook å oppdage. De var ikke kodet språk. De var ikke hundefløyter. De var eksplisitte uttalelser som sa at denne typen mennesker ikke er et menneske, eller at denne typen mennesker burde sultes i hjel.»

Meta har konsekvent nektet å si hvor mange innholdsmoderatorer den har i land der engelsk ikke er hovedspråket. Dette inkluderer moderatorer i Etiopia, Myanmar og andre regioner der materiale som er lagt ut på selskapets plattformer har vært knyttet til vold i den virkelige verden.

I november sa Meta at de fjernet et innlegg fra Etiopias statsminister som oppfordret innbyggerne til å reise seg og "begrave" rivaliserende Tigray-styrker som truet landets hovedstad.

I det siden slettede innlegget sa Abiy at «forpliktelsen til å dø for Etiopia tilhører oss alle». Han oppfordret innbyggerne til å mobilisere «ved å holde et hvilket som helst våpen eller kapasitet».

Abiy har imidlertid fortsatt å poste på plattformen, hvor han har 4.1 millioner følgere. USA og andre har advart Etiopia om «dehumaniserende retorikk» etter at statsministeren beskrev Tigray-styrkene som «kreft» og «ugress» i kommentarer fra juli 2021.

"Når annonser som oppfordrer til folkemord i Etiopia gjentatte ganger kommer gjennom Facebooks nett - selv etter at problemet er flagget med Facebook - er det bare én mulig konklusjon: det er ingen hjemme," sa Rosa Curling, direktør for Foxglove, en London-basert juridisk ideell organisasjon som samarbeidet. med Global Witness i sin etterforskning. "År etter folkemordet i Myanmar er det klart at Facebook ikke har lært leksen."


kilde