Facebook не успява да засече насилствени речи на омраза в реклами, изпратени от групи с нестопанска цел

Тестът не можеше да бъде много по-лесен - и Facebook все още се провали. Facebook и неговата компания-майка Meta се провалиха отново в теста за това колко добре могат да открият очевидно насилствена реч на омразата в реклами, изпратени до платформата от неправителствените групи Global Witness и Foxglove.

Съобщенията с омраза се фокусираха върху Етиопия, където вътрешни документи, получени от подателя на сигнали Франсис Хауген, показват, че неефективното модериране на Facebook „буквално раздухва етническото насилие“, както тя каза в показанията си в Конгреса през 2021 г. През март Global Witness проведе подобен тест с реч на омразата в Мианмар, който Facebook също не успя да открие.

Групата създаде 12 текстови реклами, които използваха дехуманизираща реч на омразата, за да призовават към убийството на хора, принадлежащи към всяка от трите основни етнически групи в Етиопия - амхара, оромо и тиграяни. Системите на Facebook одобриха рекламите за публикуване, точно както направиха с рекламите в Мианмар. Обявите всъщност не са публикувани във Facebook.

Този път обаче групата информира Мета за неоткритите нарушения. Компанията заяви, че рекламите не е трябвало да бъдат одобрени и посочи работата, която е свършила, за да хване омразно съдържание на своите платформи.

Седмица след като чу Мета, Global Witness изпрати още две реклами за одобрение, отново с откровена реч на омразата. Двете реклами, написани на амхарски, най-широко използвания език в Етиопия, бяха одобрени.

Мета каза, че рекламите не е трябвало да бъдат одобрени.

„Инвестирахме сериозно в мерките за безопасност в Етиопия, като добавихме повече персонал с местен опит и изградихме капацитета си за улавяне на омразно и провокативно съдържание на най-широко разпространените езици, включително амхарски“, се казва в изявление на компанията по имейл, добавяйки, че машините и хората все още могат да правят грешки. Изявлението беше идентично с това, което Global Witness получи.

„Избрахме най-лошите случаи, за които можехме да се сетим“, каза Роузи Шарп, активист на Global Witness. „Тези, които би трябвало да бъдат най-лесни за откриване от Facebook. Те не бяха кодиран език. Не бяха кучешки свирки. Те бяха изрични изявления, в които се казваше, че този тип хора не са хора или този тип хора трябва да умрат от глад.”

Meta последователно отказва да каже колко модератори на съдържание има в страни, където английският не е основният език. Това включва модератори в Етиопия, Мианмар и други региони, където материали, публикувани на платформите на компанията, са свързани с насилие в реалния свят.

През ноември Мета заяви, че е премахнала пост на етиопския министър-председател, който призовава гражданите да се надигнат и да „погребат“ съперническите сили на Тигрей, които заплашваха столицата на страната.

В изтритата публикация Абий каза, че „задължението да умре за Етиопия принадлежи на всички нас“. Той призова гражданите да се мобилизират „като държат каквото и да било оръжие или капацитет“.

Абий обаче продължи да публикува в платформата, където има 4.1 милиона последователи. САЩ и други предупредиха Етиопия за „дехуманизираща реторика“, след като премиерът определи силите на Тигрей като „рак“ и „плевели“ в коментари, направени през юли 2021 г.

„Когато рекламите, призоваващи за геноцид в Етиопия, преминават многократно в мрежата на Facebook – дори след като проблемът е маркиран във Facebook – има само едно възможно заключение: няма никой вкъщи“, каза Роза Кърлинг, директор на Foxglove, базирана в Лондон легална нестопанска организация, която си партнира с Global Witness в своето разследване. „Години след геноцида в Мианмар е ясно, че Facebook не си е научил урока.


източник