Facebook misslyckas med att upptäcka våldsamma hatretorik i annonser som skickas in av ideella grupper

Testet kunde inte ha varit mycket enklare - och Facebook misslyckades fortfarande. Facebook och dess moderbolag Meta floppade ännu en gång i ett test av hur väl de kunde upptäcka uppenbart våldsamt hatpropaganda i annonser som skickats till plattformen av de ideella grupperna Global Witness och Foxglove.

De hatiska meddelandena fokuserade på Etiopien, där interna dokument som inhämtats av whistleblower Frances Haugen visade att Facebooks ineffektiva moderering "bokstavligen uppmuntrar etniskt våld", som hon sa i sitt kongressvittnesmål 2021. I mars körde Global Witness ett liknande test med hatretorik i Myanmar, som Facebook inte heller kunde upptäcka.

Gruppen skapade 12 textbaserade annonser som använde avhumaniserande hatretorik för att uppmana till mord på människor som tillhör var och en av Etiopiens tre etniska huvudgrupper - Amhara, Oromo och Tigrayan. Facebooks system godkände annonserna för publicering, precis som de gjorde med Myanmar-annonserna. Annonserna publicerades faktiskt inte på Facebook.

Men den här gången informerade gruppen Meta om de oupptäckta kränkningarna. Företaget sa att annonserna inte borde ha godkänts och pekade på det arbete det har gjort för att fånga hatiskt innehåll på sina plattformar.

En vecka efter att ha hört av sig från Meta skickade Global Witness ytterligare två annonser för godkännande, återigen med flagranta hatretorik. De två annonserna, skrivna på amhariska, det mest använda språket i Etiopien, godkändes.

Meta sa att annonserna inte borde ha godkänts.

"Vi har investerat kraftigt i säkerhetsåtgärder i Etiopien, lagt till mer personal med lokal expertis och byggt upp vår kapacitet att fånga hatiskt och inflammatoriskt innehåll på de mest talade språken, inklusive amhariska", säger företaget i ett e-postmeddelande och tillade att maskiner och folk kan fortfarande göra misstag. Uttalandet var identiskt med det som Global Witness fick.

"Vi valde ut de värsta fallen vi kunde tänka oss", säger Rosie Sharpe, en kampanjledare på Global Witness. "De som borde vara lättast för Facebook att upptäcka. De var inte kodat språk. De var inte hundvisslor. De var tydliga uttalanden som sa att den här typen av människor inte är en människa eller att den här typen av människor borde svältas ihjäl.”

Meta har konsekvent vägrat att säga hur många innehållsmoderatorer det har i länder där engelska inte är huvudspråket. Detta inkluderar moderatorer i Etiopien, Myanmar och andra regioner där material som lagts ut på företagets plattformar har kopplats till verkligt våld.

I november sa Meta att det tog bort ett inlägg från Etiopiens premiärminister som uppmanade medborgarna att resa sig upp och "begrava" rivaliserande Tigray-styrkor som hotade landets huvudstad.

I det sedan raderade inlägget sa Abiy att "skyldigheten att dö för Etiopien tillhör oss alla." Han uppmanade medborgarna att mobilisera "genom att hålla i vapen eller kapacitet."

Abiy har dock fortsatt att publicera på plattformen där han har 4.1 miljoner följare. USA och andra har varnat Etiopien för "avhumaniserande retorik" efter att premiärministern beskrev Tigray-styrkorna som "cancer" och "ogräs" i kommentarer från juli 2021.

"När annonser som uppmanar till folkmord i Etiopien upprepade gånger kommer igenom Facebooks nät - även efter att problemet flaggats med Facebook - finns det bara en möjlig slutsats: det finns ingen hemma", säger Rosa Curling, chef för Foxglove, en Londonbaserad juridisk ideell organisation som samarbetar. med Global Witness i sin utredning. "År efter folkmordet i Myanmar är det tydligt att Facebook inte har lärt sig sin läxa."


Källa