Facebook slaagt er niet in gewelddadige haatdragende toespraken te detecteren in advertenties van non-profitgroepen

De test had niet veel eenvoudiger kunnen zijn - en Facebook faalde nog steeds. Facebook en zijn moederbedrijf Meta flopten opnieuw in een test van hoe goed ze duidelijk gewelddadige haatzaaiende uitlatingen konden detecteren in advertenties die door de non-profitorganisaties Global Witness en Foxglove op het platform werden ingediend.

De haatdragende berichten concentreerden zich op Ethiopië, waar interne documenten verkregen door klokkenluider Frances Haugen aantoonden dat de ineffectieve moderatie van Facebook "letterlijk etnisch geweld aanwakkert", zoals ze zei in haar getuigenis van het congres in 2021. In maart voerde Global Witness een soortgelijke test uit met haatzaaiende uitlatingen in Myanmar, die ook Facebook niet kon detecteren.

De groep creëerde 12 op tekst gebaseerde advertenties die onmenselijke haatzaaiende taal gebruikten om op te roepen tot de moord op mensen die behoren tot elk van de drie belangrijkste etnische groepen in Ethiopië: de Amhara, de Oromo en de Tigrayans. De systemen van Facebook keurden de advertenties goed voor publicatie, net zoals ze deden met de advertenties in Myanmar. De advertenties zijn niet daadwerkelijk op Facebook gepubliceerd.

Deze keer informeerde de groep Meta echter over de onopgemerkte overtredingen. Het bedrijf zei dat de advertenties niet hadden mogen worden goedgekeurd en wees op het werk dat het heeft gedaan om haatdragende inhoud op zijn platforms te vangen.

Een week na het horen van Meta diende Global Witness nog twee advertenties ter goedkeuring in, opnieuw met flagrante haatzaaiende uitlatingen. De twee advertenties, geschreven in het Amhaars, de meest gebruikte taal in Ethiopië, werden goedgekeurd.

Meta zei dat de advertenties niet hadden mogen worden goedgekeurd.

"We hebben zwaar geïnvesteerd in veiligheidsmaatregelen in Ethiopië, meer personeel met lokale expertise toegevoegd en onze capaciteit vergroot om haatdragende en opruiende inhoud op te vangen in de meest gesproken talen, waaronder Amhaars", zei het bedrijf in een verklaring per e-mail, eraan toevoegend dat machines en mensen kunnen nog steeds fouten maken. De verklaring was identiek aan die van Global Witness.

"We hebben de ergste gevallen uitgekozen die we konden bedenken", zegt Rosie Sharpe, een campagnevoerder bij Global Witness. “Degenen die voor Facebook het gemakkelijkst te detecteren zouden moeten zijn. Het was geen gecodeerde taal. Het waren geen hondenfluitjes. Het waren expliciete uitspraken die zeiden dat dit type persoon geen mens is of dat dit soort mensen zouden moeten worden uitgehongerd.”

Meta heeft consequent geweigerd te zeggen hoeveel contentmoderators het heeft in landen waar Engels niet de primaire taal is. Dit omvat moderators in Ethiopië, Myanmar en andere regio's waar materiaal dat op de platforms van het bedrijf is geplaatst, in verband is gebracht met geweld in de echte wereld.

In november zei Meta dat het een bericht van de premier van Ethiopië had verwijderd waarin de burgers werden opgeroepen in opstand te komen en rivaliserende Tigray-troepen die de hoofdstad van het land bedreigden te "begraven".

In het sindsdien verwijderde bericht zei Abiy dat de "verplichting om te sterven voor Ethiopië van ons allemaal is". Hij riep burgers op om te mobiliseren "door elk wapen of capaciteit vast te houden".

Abiy is echter doorgegaan met posten op het platform, waar hij 4.1 miljoen volgers heeft. De VS en anderen hebben Ethiopië gewaarschuwd voor "onmenselijke retoriek" nadat de premier de Tigray-strijdkrachten in juli 2021 omschreef als "kanker" en "onkruid".

"Wanneer advertenties die oproepen tot genocide in Ethiopië herhaaldelijk via het net van Facebook komen - zelfs nadat het probleem bij Facebook is gemeld - is er maar één mogelijke conclusie: er is niemand thuis", zegt Rosa Curling, directeur van Foxglove, een in Londen gevestigde juridische non-profitorganisatie die samenwerkt met met Global Witness in haar onderzoek. "Jaren na de genocide in Myanmar is het duidelijk dat Facebook zijn les niet heeft geleerd."


bron