Facebook не можа выявіць гвалтоўныя выказванні нянавісці ў рэкламе, прадстаўленай некамерцыйнымі групамі

Тэст не мог быць нашмат прасцей — і Facebook усё роўна праваліўся. Facebook і яго мацярынская кампанія Meta зноў праваліліся ў тэсце таго, наколькі добра яны могуць выяўляць выразна гвалтоўную мову нянавісці ў рэкламе, прадстаўленай на платформу некамерцыйнымі групамі Global Witness і Foxglove.

Ненавісныя паведамленні былі сканцэнтраваны на Эфіопіі, дзе ўнутраныя дакументы, атрыманыя інфарматарам Фрэнсіс Хаўген, паказалі, што неэфектыўная мадэрацыя Facebook «літаральна распальвае этнічны гвалт», як яна заявіла ў сваім паказанні ў Кангрэсе ў 2021 годзе. У сакавіку Global Witness правёў падобны тэст з мовай нянавісці ў М'янме, якую Facebook таксама не выявіў.

Група стварыла 12 тэкставых рэкламных аб'яваў, якія выкарыстоўвалі дэгуманістычную мову нянавісці, каб заклікаць да забойства людзей, якія належаць да кожнай з трох асноўных этнічных груп Эфіопіі — амхара, арома і тыграйцаў. Сістэмы Facebook ухвалілі рэкламу для публікацыі, як і з рэкламай М'янмы. Рэклама насамрэч не была апублікаваная ў Facebook.

Аднак на гэты раз група паведаміла Meta аб незаўважаных парушэннях. Кампанія заявіла, што рэклама не павінна была ўхваляцца, і адзначыла працу, якую яна правяла, каб выявіць ненавісны кантэнт на сваіх платформах.

Праз тыдзень пасля паведамлення Meta Global Witness адправіла на зацвярджэнне яшчэ дзве аб'явы, зноў з відавочнай мовай нянавісці. Дзве аб'явы, напісаныя на амхарскай мове, самай распаўсюджанай мове ў Эфіопіі, былі зацверджаны.

Мета сказаў, што рэклама не павінна была ўхваляцца.

«Мы ўклалі значныя сродкі ў меры бяспекі ў Эфіопіі, дадаўшы больш персаналу з мясцовым вопытам і пашырыўшы нашу здольнасць вылоўліваць ненавісны і падбухторваючы кантэнт на найбольш распаўсюджаных мовах, у тым ліку на амхарскай», — гаворыцца ў паведамленні кампаніі па электроннай пошце, дадаючы, што машыны і людзі ўсё яшчэ могуць рабіць памылкі. Заява была ідэнтычнай той, што атрымала Global Witness.

«Мы выбралі найгоршыя выпадкі, пра якія мы маглі падумаць», — сказала Розі Шарп, удзельнік кампаніі Global Witness. «Тыя, якія Facebook павінна быць прасцей за ўсё выявіць. Яны не былі закадаванай мовай. Гэта былі не сабачыя свісткі. Гэта былі відавочныя заявы, у якіх гаварылася, што гэты тып людзей не з'яўляецца чалавекам, або гэтыя людзі павінны быць забітыя голадам».

Кампанія Meta паслядоўна адмаўляецца паведамляць, колькі ў яе мадэратараў кантэнту ў краінах, дзе англійская мова не з'яўляецца асноўнай. Гэта ўключае ў сябе мадэратараў у Эфіопіі, М'янме і іншых рэгіёнах, дзе матэрыялы, размешчаныя на платформах кампаніі, былі звязаны з гвалтам у рэальным свеце.

У лістападзе Meta заявіла, што выдаліла паведамленне прэм'ер-міністра Эфіопіі, які заклікаў грамадзян паўстаць і «пахаваць» канкуруючыя сілы Тыграя, якія пагражалі сталіцы краіны.

У выдаленым паведамленні Абій сказаў, што «абавязак памерці за Эфіопію належыць усім нам». Ён заклікаў грамадзян мабілізавацца, «трымаючы ў руках любую зброю і сродкі».

Аднак Абій працягвае публікаваць паведамленні на платформе, дзе ў яго 4.1 мільёна падпісчыкаў. ЗША і іншыя папярэдзілі Эфіопію аб «дэгуманізацыі рыторыкі» пасля таго, як прэм'ер-міністр апісаў сілы Тыграя як «рак» і «пустазелле» ў каментарыях, зробленых у ліпені 2021 года.

«Калі рэклама, якая заклікае да генацыду ў Эфіопіі, пастаянна трапляе ў сетку Facebook — нават пасля таго, як праблема была пазначана ў Facebook — ёсць толькі адна магчымая выснова: дома нікога няма», — сказала Роза Керлінг, дырэктар Foxglove, юрыдычнай некамерцыйнай арганізацыі з Лондана, якая стала партнёрам з Global Witness у сваім расследаванні. «Ясна, што праз гады пасля генацыду ў М'янме Facebook не засвоіў урок».


крыніца