Facebook не вдається виявити насильницькі ворожі висловлювання в рекламі, поданій некомерційними групами

Тест не міг бути набагато легшим — і Facebook все одно провалився. Facebook і його материнська компанія Meta знову провалилися в тесті того, наскільки добре вони можуть виявляти явно насильницькі висловлювання ненависті в рекламі, поданій на платформу некомерційними групами Global Witness і Foxglove.

Ненависні повідомлення були зосереджені на Ефіопії, де внутрішні документи, отримані інформатором Френсіс Хауген, показали, що неефективна модерація Facebook «буквально розпалює етнічне насильство», як вона сказала у своїх свідченнях у Конгресі 2021 року. У березні Global Witness провів подібний тест на мову ворожнечі в М'янмі, який Facebook також не виявив.

Група створила 12 текстових оголошень, які використовували дегуманізуючу мову ненависті, щоб закликати до вбивства людей, які належать до кожної з трьох основних етнічних груп Ефіопії — амхари, оромо та тиграйці. Системи Facebook схвалили оголошення для публікації, так само, як і рекламу в М'янмі. Оголошення фактично не були опубліковані у Facebook.

Однак цього разу група повідомила Мета про невиявлені порушення. У компанії заявили, що рекламу не слід було схвалювати, і вказали на роботу, яку вона зробила, щоб відловити ненависний контент на своїх платформах.

Через тиждень після повідомлення від Meta Global Witness подала на затвердження ще два оголошення, знову з кричущими ворожими висловами. Два оголошення, написані амхарською мовою, найпоширенішою мовою в Ефіопії, були схвалені.

Мета сказав, що оголошення не повинні були схвалюватися.

«Ми вклали значні кошти в заходи безпеки в Ефіопії, додавши більше співробітників з місцевими знаннями та зміцнивши наш потенціал для виявлення ненависницького та провокаційного вмісту на найбільш поширених мовах, включаючи амхарську», – йдеться в повідомленні компанії, додавши, що машини і люди все ще можуть робити помилки. Заява була ідентична заяві, отриманій Global Witness.

«Ми вибрали найгірші випадки, які тільки могли придумати», — сказала Роузі Шарп, активістка Global Witness. «Ті, які Facebook мало б найлегше виявити. Це не була кодована мова. Це були не собачі свистки. Це були відверті заяви про те, що цей тип людини не є людиною або таких людей треба морити голодом».

Meta постійно відмовляється повідомляти, скільки у неї модераторів контенту в країнах, де англійська не є основною мовою. Це включає модераторів в Ефіопії, М’янмі та інших регіонах, де матеріали, розміщені на платформах компанії, пов’язані з реальним насильством.

У листопаді Мета заявила, що видалила пост прем'єр-міністра Ефіопії, який закликав громадян піднятися і «поховати» сили-конкуренти Тиграя, які загрожували столиці країни.

У видаленому дописі Абій сказав, що «обов’язок померти за Ефіопію належить усім нам». Він закликав громадян до мобілізації «з будь-якою зброєю чи здатністю».

Але Абій продовжував публікувати повідомлення на платформі, де у нього 4.1 мільйона підписників. США та інші країни попередили Ефіопію про «дегуманізуючу риторику» після того, як прем’єр-міністр назвав сили Тиграя «раком» і «бур’яном» у коментарях, зроблених у липні 2021 року.

«Коли реклама із закликом до геноциду в Ефіопії постійно потрапляє в мережу Facebook — навіть після того, як ця проблема позначена у Facebook — є лише один можливий висновок: вдома нікого немає», — сказала Роза Керлінг, директор Foxglove, лондонської легальної некомерційної організації, яка співпрацює. разом із Global Witness у його розслідуванні. «Через роки після геноциду в М’янмі, очевидно, що Facebook не засвоїв урок».


Source