Facebook не может обнаружить агрессивные высказывания, разжигающие ненависть, в рекламе, представленной некоммерческими группами

Тест не мог быть намного проще — и Facebook все равно провалился. Facebook и его материнская компания Meta снова потерпели неудачу в тесте на то, насколько хорошо они могут обнаруживать явно агрессивные высказывания ненависти в рекламных объявлениях, представленных на платформе некоммерческими группами Global Witness и Foxglove.

Ненавистнические сообщения были сосредоточены на Эфиопии, где внутренние документы, полученные разоблачителем Фрэнсис Хауген, показали, что неэффективная модерация Facebook «буквально разжигает этническое насилие», как она сказала в своих показаниях Конгрессу в 2021 году. В марте Global Witness провела аналогичный тест с разжиганием ненависти в Мьянме, который Facebook также не смог обнаружить.

Группа создала 12 текстовых объявлений, в которых использовались бесчеловечные высказывания ненависти, призывающие к убийству людей, принадлежащих к каждой из трех основных этнических групп Эфиопии — амхара, оромо и тиграяны. Системы Facebook одобрили рекламу для публикации, как и в случае с рекламой в Мьянме. Объявления фактически не публиковались на Facebook.

Однако на этот раз группа сообщила Мете о необнаруженных нарушениях. Компания заявила, что реклама не должна была быть одобрена, и указала на работу, которую она проделала, чтобы поймать ненавистный контент на своих платформах.

Через неделю после получения известия от Meta организация Global Witness представила на рассмотрение еще две рекламы, опять же с откровенно разжигающими ненависть высказываниями. Два объявления, написанные на амхарском языке, наиболее распространенном языке в Эфиопии, были одобрены.

Мета сказала, что объявления не должны были быть одобрены.

«Мы вложили значительные средства в меры безопасности в Эфиопии, наняв больше сотрудников с местными знаниями и нарастив наши возможности для обнаружения ненавистнического и подстрекательского контента на наиболее распространенных языках, включая амхарский», — говорится в сообщении компании по электронной почте. а люди все еще могут ошибаться. Заявление было идентично тому, которое получил Global Witness.

«Мы выбрали наихудшие случаи, которые только могли придумать», — сказала Рози Шарп, участник кампании Global Witness. «Те, которые должно быть легче всего обнаружить Facebook. Они не были закодированным языком. Это были не собачьи свистки. Это были явные заявления о том, что этот тип людей не является человеком, или что такие люди должны умереть от голода».

Meta постоянно отказывается сообщать, сколько у нее модераторов контента в странах, где английский не является основным языком. Сюда входят модераторы в Эфиопии, Мьянме и других регионах, где материалы, размещенные на платформах компании, были связаны с насилием в реальном мире.

В ноябре Meta заявила, что удалила пост премьер-министра Эфиопии, в котором призывал граждан подняться и «похоронить» соперничающие силы Тыграя, которые угрожали столице страны.

В удаленном посте Абий сказал, что «обязанность умереть за Эфиопию лежит на всех нас». Он призвал граждан мобилизоваться, «имея в руках любое оружие или способность».

Тем не менее, Абий продолжает публиковать сообщения на платформе, где у него 4.1 миллиона подписчиков. США и другие страны предупредили Эфиопию о «бесчеловечной риторике» после того, как премьер-министр назвал силы Тыграя «раком» и «сорняками» в комментариях, сделанных в июле 2021 года.

«Когда объявления, призывающие к геноциду в Эфиопии, неоднократно попадают в сеть Facebook — даже после того, как Facebook отмечает эту проблему — возможен только один возможный вывод: дома никого нет», — сказала Роза Керлинг, директор Foxglove, лондонской юридической некоммерческой организации, которая является партнером с Global Witness в своем расследовании. «Спустя годы после геноцида в Мьянме становится ясно, что Facebook не усвоил урок».


Источник