Facebook ne zazna nasilnih sovražnih govorov v oglasih, ki jih oddajo neprofitne skupine

Preizkus ne bi mogel biti veliko lažji - in Facebook še vedno ni uspel. Facebook in njegovo matično podjetje Meta sta ponovno padla v testu, kako dobro znata zaznati očitno nasilen sovražni govor v oglasih, ki sta jih na platformo poslala neprofitni skupini Global Witness in Foxglove.

Sovražna sporočila so se osredotočila na Etiopijo, kjer so interni dokumenti, ki jih je pridobil žvižgač Frances Haugen, pokazali, da Facebookovo neučinkovito zmerjanje "dobesedno spodbuja etnično nasilje", kot je dejala v svojem kongresnem pričanju leta 2021. Marca je Global Witness izvedel podoben test s sovražnim govorom v Mjanmaru, ki ga tudi Facebook ni zaznal.

Skupina je ustvarila 12 besedilnih oglasov, ki so uporabljali razčloveški sovražni govor, da bi pozvali k umoru ljudi, ki pripadajo vsaki od treh glavnih etničnih skupin v Etiopiji - Amhara, Oromo in Tigrajci. Facebookovi sistemi so oglase odobrili za objavo, tako kot so to storili z oglasi v Mjanmaru. Oglasi dejansko niso bili objavljeni na Facebooku.

Tokrat pa je skupina Meto obvestila o neodkritih kršitvah. Podjetje je dejalo, da oglasi ne bi smeli biti odobreni, in opozorilo na delo, ki ga je opravilo za lovljenje sovražne vsebine na svojih platformah.

Teden dni po tem, ko je zaslišala Meta, je Global Witness poslala v odobritev še dva oglasa, spet z očitnim sovražnim govorom. Oba oglasa, napisana v amharščini, najbolj razširjenem jeziku v Etiopiji, sta bila odobrena.

Meta je dejala, da oglasi ne bi smeli biti odobreni.

"Veliko smo vlagali v varnostne ukrepe v Etiopiji, dodali smo več osebja z lokalnim strokovnim znanjem in gradili naše zmogljivosti za lovljenje sovražne in vnetljive vsebine v najbolj razširjenih jezikih, vključno z amharščino," je družba zapisala v e-pošti in dodala, da stroji in ljudje lahko še vedno delajo napake. Izjava je bila enaka tisti, ki jo je prejel Global Witness.

"Izbrali smo najhujše primere, ki smo si jih lahko zamislili," je povedala Rosie Sharpe, aktivistka pri Global Witness. »Tisti, ki bi jih moral Facebook najlažje odkriti. Niso bili kodirani jezik. Niso bile pasje piščalke. To so bile eksplicitne izjave, ki so govorile, da ta tip osebe ni človek ali da bi te vrste ljudi morali umreti od lakote."

Meta je dosledno zavračala povedati, koliko moderatorjev vsebine ima v državah, kjer angleščina ni primarni jezik. To vključuje moderatorje v Etiopiji, Mjanmaru in drugih regijah, kjer je bilo gradivo, objavljeno na platformah podjetja, povezano z nasiljem v resničnem svetu.

Novembra je Meta dejala, da je odstranila objavo etiopskega premierja, ki je državljane pozivala, naj vstanejo in "pokopljejo" tekmečne sile Tigray, ki so ogrožale prestolnico države.

V odkar izbrisani objavi je Abiy dejal, da "obveznost umreti za Etiopijo pripada vsem nam." Državljane je pozval, naj se mobilizirajo "s kakršnim koli orožjem ali zmogljivostjo".

Abiy je še naprej objavljal na platformi, kjer ima 4.1 milijona sledilcev. ZDA in drugi so Etiopijo opozorili na "dehumanizirajočo retoriko", potem ko je premier v komentarjih julija 2021 opisal Tigrajeve sile kot "raka" in "plevel".

"Ko oglasi, ki pozivajo k genocidu v Etiopiji, vedno znova pridejo po Facebookovem omrežju - tudi potem, ko je težava označena s Facebookom - je možna le ena ugotovitev: nikogar ni doma," je dejala Rosa Curling, direktorica Foxglove, londonske pravne neprofitne organizacije, ki je sodelovala. z Global Witness v svoji preiskavi. "Leta po mjanmarskem genocidu je jasno, da se Facebook ni naučil lekcije."


vir