Facebook nu reușește să detecteze discursurile violente de ură în reclamele trimise de grupuri non-profit

Testul nu ar fi putut fi mult mai ușor - și Facebook încă a eșuat. Facebook și compania-mamă Meta au eșuat încă o dată într-un test pentru a detecta cât de bine au putut detecta discursurile de ură evident violente în reclamele trimise platformei de grupurile nonprofit Global Witness și Foxglove.

Mesajele pline de ură s-au concentrat asupra Etiopiei, unde documentele interne obținute de denunțătoarea Frances Haugen au arătat că moderarea ineficientă a Facebook „folie literalmente violența etnică”, așa cum a spus ea în mărturia ei din 2021 la Congres. În martie, Global Witness a efectuat un test similar cu discursuri instigatoare la ură în Myanmar, pe care nici Facebook nu l-a detectat.

Grupul a creat 12 reclame text care au folosit discursuri dezumanizante ale urii pentru a solicita uciderea persoanelor aparținând fiecăreia dintre cele trei grupuri etnice principale ale Etiopiei - amhara, oromo și tigrayenii. Sistemele Facebook au aprobat reclamele pentru publicare, la fel cum au făcut cu reclamele din Myanmar. Reclamele nu au fost de fapt publicate pe Facebook.

De data aceasta, însă, grupul a informat-o pe Meta despre încălcările nedetectate. Compania a spus că reclamele nu ar fi trebuit să fie aprobate și a subliniat munca pe care a făcut-o pentru a capta conținut de ură pe platformele sale.

La o săptămână după ce a auzit de Meta, Global Witness a mai trimis două anunțuri spre aprobare, din nou cu un discurs flagrant instigator la ură. Cele două reclame, scrise în amharică, cea mai răspândită limbă în Etiopia, au fost aprobate.

Meta a spus că reclamele nu ar fi trebuit să fie aprobate.

„Am investit mult în măsuri de siguranță în Etiopia, adăugând mai mult personal cu expertiză locală și construind capacitatea noastră de a surprinde conținut de ură și inflamator în cele mai vorbite limbi, inclusiv amharică”, a spus compania într-un comunicat trimis prin e-mail, adăugând că mașinile iar oamenii mai pot face greșeli. Declarația a fost identică cu cea primită de Global Witness.

„Am ales cele mai grave cazuri la care ne-am putut gândi”, a spus Rosie Sharpe, un militant la Global Witness. „Cele care ar trebui să fie cel mai ușor de detectat de Facebook. Nu erau un limbaj codificat. Nu erau fluiere pentru câini. Erau declarații explicite care spuneau că acest tip de persoană nu este un om sau că acest tip de oameni ar trebui să moară de foame.”

Meta a refuzat constant să spună câți moderatori de conținut are în țările în care engleza nu este limba principală. Aceasta include moderatori din Etiopia, Myanmar și alte regiuni în care materialele postate pe platformele companiei au fost legate de violența din lumea reală.

În noiembrie, Meta a declarat că a eliminat o postare a prim-ministrului Etiopiei care îndemna cetățenii să se ridice și să „îngroape” forțele rivale din Tigray care amenințau capitala țării.

În postarea ștearsă de atunci, Abiy a spus că „obligația de a muri pentru Etiopia ne aparține tuturor”. El le-a cerut cetățenilor să se mobilizeze „prin deținerea de orice armă sau capacitate”.

Abiy a continuat să posteze pe platformă, unde are 4.1 milioane de urmăritori. SUA și alții au avertizat Etiopia cu privire la „retorica dezumanizantă” după ce prim-ministrul a descris forțele din Tigray drept „cancer” și „buruieni” în comentariile făcute în iulie 2021.

„Când reclamele care îndeamnă la genocid în Etiopia trec în mod repetat prin rețeaua Facebook – chiar și după ce problema este semnalată cu Facebook – există o singură concluzie posibilă: nu este nimeni acasă”, a declarat Rosa Curling, directorul Foxglove, o organizație legală nonprofit cu sediul în Londra, care s-a asociat. cu Global Witness în ancheta sa. „La ani de la genocidul din Myanmar, este clar că Facebook nu și-a învățat lecția.”


Sursă