Facebook non riesce a rilevare discorsi di odio violenti negli annunci inviati da gruppi senza scopo di lucro

Il test non avrebbe potuto essere molto più semplice e Facebook ha comunque fallito. Facebook e la sua società madre Meta hanno fallito ancora una volta in un test su come riuscivano a rilevare discorsi di odio palesemente violenti nelle pubblicità inviate alla piattaforma dai gruppi no-profit Global Witness e Foxglove.

I messaggi di odio si sono concentrati sull'Etiopia, dove i documenti interni ottenuti dall'informatrice Frances Haugen hanno mostrato che la moderazione inefficace di Facebook sta "letteralmente alimentando la violenza etnica", come ha affermato nella sua testimonianza al Congresso del 2021. A marzo, Global Witness ha condotto un test simile con l’incitamento all’odio in Myanmar, che anche Facebook non è riuscito a rilevare.

Il gruppo ha creato 12 annunci basati su testo che utilizzavano discorsi disumanizzanti di odio per chiedere l'omicidio di persone appartenenti a ciascuno dei tre principali gruppi etnici dell'Etiopia: Amhara, Oromo e Tigrini. I sistemi di Facebook hanno approvato la pubblicazione degli annunci, proprio come hanno fatto con gli annunci del Myanmar. Gli annunci non sono stati effettivamente pubblicati su Facebook.

Questa volta, però, il gruppo ha informato Meta delle violazioni non rilevate. La società ha affermato che gli annunci non avrebbero dovuto essere approvati e ha sottolineato il lavoro svolto per catturare contenuti che incitano all'odio sulle sue piattaforme.

Una settimana dopo aver ascoltato Meta, Global Witness ha presentato altri due annunci per l’approvazione, sempre con palesi discorsi di incitamento all’odio. I due annunci, scritti in amarico, la lingua più usata in Etiopia, sono stati approvati.

Meta ha detto che gli annunci non avrebbero dovuto essere approvati.

"Abbiamo investito molto in misure di sicurezza in Etiopia, aggiungendo più personale con esperienza locale e rafforzando la nostra capacità di catturare contenuti odiosi e provocatori nelle lingue più parlate, incluso l'amarico", ha affermato la società in una dichiarazione via e-mail, aggiungendo che le macchine e le persone possono ancora commettere errori. La dichiarazione era identica a quella ricevuta da Global Witness.

“Abbiamo selezionato i casi peggiori a cui potevamo pensare”, ha detto Rosie Sharpe, attivista di Global Witness. “Quelli che dovrebbero essere più facili da rilevare per Facebook. Non erano un linguaggio in codice. Non erano fischietti per cani. Erano dichiarazioni esplicite che dicevano che questo tipo di persone non è un essere umano o che questo tipo di persone dovrebbero essere fatte morire di fame”.

Meta si è costantemente rifiutata di dire quanti moderatori di contenuti ha nei paesi in cui l'inglese non è la lingua principale. Ciò include moderatori in Etiopia, Myanmar e altre regioni in cui il materiale pubblicato sulle piattaforme dell'azienda è stato collegato alla violenza nel mondo reale.

A novembre, Meta ha dichiarato di aver rimosso un post del primo ministro etiope che esortava i cittadini a sollevarsi e “seppellire” le forze rivali del Tigray che minacciavano la capitale del paese.

Nel post poi cancellato, Abiy ha affermato che “l’obbligo di morire per l’Etiopia appartiene a tutti noi”. Ha invitato i cittadini a mobilitarsi “con qualsiasi arma o capacità”.

Abiy, tuttavia, ha continuato a pubblicare post sulla piattaforma, dove ha 4.1 milioni di follower. Gli Stati Uniti e altri hanno messo in guardia l’Etiopia dalla “retorica disumanizzante” dopo che il primo ministro ha descritto le forze del Tigray come “cancro” ed “erbacce” nei commenti fatti nel luglio 2021.

"Quando annunci che incitano al genocidio in Etiopia arrivano ripetutamente attraverso la rete di Facebook - anche dopo che il problema è stato segnalato su Facebook - c'è solo una possibile conclusione: non c'è nessuno in casa", ha detto Rosa Curling, direttrice di Foxglove, un'organizzazione no-profit legale con sede a Londra che ha collaborato con Global Witness nella sua indagine. “Anni dopo il genocidio del Myanmar, è chiaro che Facebook non ha imparato la lezione”.


Fonte