A Facebook nem észleli az erőszakos gyűlöletbeszédet a non-profit csoportok által beküldött hirdetésekben

A teszt nem is lehetett volna sokkal könnyebb – és a Facebook még mindig kudarcot vallott. A Facebook és anyavállalata, a Meta ismét bukott azon a teszten, hogy mennyire tudják kimutatni a nyilvánvalóan erőszakos gyűlöletbeszédet a Global Witness és a Foxglove nonprofit csoportok által a platformhoz benyújtott hirdetésekben.

A gyűlöletkeltő üzenetek Etiópiára összpontosultak, ahol a bejelentő Frances Haugen által megszerzett belső dokumentumok azt mutatták, hogy a Facebook nem hatékony moderálása „szó szerint szurkol az etnikai erőszaknak”, amint azt 2021-es kongresszusi vallomásában mondta. Márciusban a Global Witness hasonló tesztet végzett a gyűlöletbeszéddel Mianmarban, amit a Facebooknak sem sikerült észlelnie.

A csoport 12 szöveges hirdetést hozott létre, amelyek dehumanizáló gyűlöletbeszédet használtak Etiópia három fő etnikai csoportjához – az amharához, az oromohoz és a tigrayához – tartozó emberek meggyilkolására szólítottak fel. A Facebook rendszerei jóváhagyták a hirdetések közzétételét, akárcsak a mianmari hirdetéseket. A hirdetéseket valójában nem tették közzé a Facebookon.

Ezúttal azonban a csoport tájékoztatta Metát a fel nem tárt jogsértésekről. A cég szerint a hirdetéseket nem kellett volna jóváhagyni, és rámutatott arra a munkára, amelyet azért végzett, hogy gyűlöletkeltő tartalmakat fogjon fel a platformjain.

Egy héttel a Meta meghallgatása után a Global Witness további két hirdetést nyújtott be jóváhagyásra, ismét nyilvánvaló gyűlöletbeszéddel. A két, Etiópiában legszélesebb körben használt amhara nyelvű hirdetést jóváhagyták.

Meta szerint a hirdetéseket nem kellett volna jóváhagyni.

„Sokat fektettünk be a biztonsági intézkedésekbe Etiópiában, több helyi szakértelemmel rendelkező munkatársat adtunk hozzá, és kifejlesztettük kapacitásunkat, hogy a legszélesebb körben beszélt nyelveken, köztük az amhara nyelven is elkaphassuk a gyűlöletkeltő és lázító tartalmakat” – áll a vállalat e-mailben elküldött közleményében, hozzátéve, hogy a gépek és az emberek még mindig hibázhatnak. A nyilatkozat megegyezett azzal, amit a Global Witness kapott.

„A legrosszabb eseteket választottuk ki, amelyekre gondolni tudtunk” – mondta Rosie Sharpe, a Global Witness egyik kampányosa. „Azokat, amelyeket a Facebooknak a legkönnyebben észlelnie kell. Nem kódolt nyelvek voltak. Nem kutyafüttyök voltak. Kifejezetten kijelentették, hogy az ilyen típusú emberek nem emberek, vagy az ilyen típusú embereket éhen kell halni.”

A Meta következetesen visszautasította, hogy hány tartalommoderátora van azokban az országokban, ahol nem az angol az elsődleges nyelv. Ide tartoznak a moderátorok Etiópiában, Mianmarban és más olyan régiókban, ahol a vállalat platformjain közzétett anyagokat a valós erőszakhoz kapcsolták.

Novemberben a Meta közölte, hogy eltávolította Etiópia miniszterelnökének azt a posztját, amely felszólította a polgárokat, hogy keljenek fel, és „temessék el” az ország fővárosát fenyegető rivális Tigray erőket.

Az azóta törölt bejegyzésben Abiy azt mondta, hogy „mindannyiunk kötelessége meghalni Etiópiáért”. Felszólította a polgárokat, hogy „bármilyen fegyverrel vagy kapacitással” mozgósítsanak.

Abiy azonban továbbra is posztolt a platformon, ahol 4.1 millió követője van. Az Egyesült Államok és mások figyelmeztették Etiópiát a „dehumanizáló retorikára”, miután a miniszterelnök 2021 júliusában a Tigray-erőket „ráknak” és „gaznak” minősítette.

„Amikor Etiópiában népirtásra felszólító hirdetések ismételten átkerülnek a Facebook hálózatán – még azután is, hogy a problémát a Facebook megjelölte –, egyetlen következtetés vonható le: senki sincs otthon” – mondta Rosa Curling, a Foxglove, a londoni székhelyű jogi nonprofit szervezet igazgatója. nyomozásában a Global Witness-szel. "Évekkel a mianmari népirtás után nyilvánvaló, hogy a Facebook nem tanulta meg a leckét."


forrás