Facebook은 비영리 단체가 제출한 광고에서 폭력적인 증오심 표현을 탐지하지 못했습니다.

테스트가 훨씬 쉬울 수 없었으며 Facebook은 여전히 ​​실패했습니다. Facebook과 그 모회사 Meta는 비영리 단체 Global Witness와 Foxglove가 플랫폼에 제출한 광고에서 명백히 폭력적인 증오심 표현을 얼마나 잘 감지할 수 있는지 테스트에서 다시 한 번 실패했습니다.

내부 고발자 Frances Haugen이 입수한 내부 문서에 따르면 페이스북의 비효율적인 중재는 2021년 의회 증언에서 말했듯이 "말 그대로 인종 폭력을 부채질하고 있다"는 혐오 메시지가 에티오피아에 집중되었습니다. XNUMX월에 Global Witness는 미얀마에서 증오심 표현으로 유사한 테스트를 실행했지만 Facebook도 감지하지 못했습니다.

이 그룹은 에티오피아의 12대 주요 민족인 암하라(Amhara), 오로모(Oromo), 티그라얀(Tigrayans)에 속한 사람들의 살해를 촉구하기 위해 비인간적인 증오심 표현을 사용하는 XNUMX개의 텍스트 기반 광고를 만들었습니다. Facebook의 시스템은 미얀마 광고와 마찬가지로 광고 게재를 승인했습니다. 광고는 실제로 Facebook에 게시되지 않았습니다.

그러나 이번에는 그룹이 감지되지 않은 위반 사항에 대해 Meta에 알렸습니다. 회사는 광고가 승인되어서는 안 되며 플랫폼에서 혐오스러운 콘텐츠를 잡기 위해 한 일을 지적했습니다.

Meta로부터 소식을 들은 지 일주일 후 Global Witness는 노골적인 증오심 표현으로 승인을 위해 두 개의 광고를 추가로 제출했습니다. 에티오피아에서 가장 널리 사용되는 언어인 암하라어로 작성된 두 개의 광고가 승인되었습니다.

메타는 광고가 승인되어서는 안 된다고 말했습니다.

회사는 이메일 성명에서 "우리는 에티오피아의 안전 조치에 막대한 투자를 했고 현지 전문 지식을 갖춘 직원을 더 추가하고 암하라어를 포함하여 가장 널리 사용되는 언어로 증오 및 선동적인 콘텐츠를 잡을 수 있는 능력을 구축했습니다"라고 덧붙였습니다. 사람들은 여전히 ​​실수를 할 수 있습니다. 그 진술은 Global Witness가 받은 것과 동일했습니다.

Global Witness의 캠페인 활동가인 Rosie Sharpe는 “우리는 생각할 수 있는 최악의 경우를 골라냈습니다. “페이스북이 가장 쉽게 감지할 수 있는 것. 그들은 코딩된 언어가 아니었습니다. 그들은 개 호루라기가 아니 었습니다. 이런 사람은 인간이 아니면 굶어죽어야 한다는 노골적인 발언이었다”고 말했다.

Meta는 영어가 기본 언어가 아닌 국가에서 얼마나 많은 콘텐츠 중재자가 있는지 계속해서 밝히기를 거부했습니다. 여기에는 에티오피아, 미얀마 및 회사 플랫폼에 게시된 자료가 실제 폭력과 연결된 기타 지역의 중재자가 포함됩니다.

메타는 XNUMX월에 에티오피아의 수도를 위협하는 라이벌 티그레이 세력이 일어나 "매장"하라고 시민들에게 촉구한 에티오피아 총리의 게시물을 삭제했다고 밝혔다.

이후 삭제된 게시물에서 아비는 “에티오피아를 위해 죽을 의무는 우리 모두의 것”이라고 말했다. 그는 시민들에게 “무기나 능력을 보유함으로써” 동원할 것을 촉구했습니다.

Abiy는 4.1만 팔로워를 보유하고 있는 플랫폼에 계속해서 게시물을 올리고 있습니다. 미국과 다른 국가들은 2021년 XNUMX월 총리가 티그레이 군대를 "암"과 "잡초"로 묘사한 후 에티오피아에 "인간을 말살시키는 수사학"에 대해 경고했습니다.

"에티오피아에서 대량 학살을 요구하는 광고가 반복적으로 Facebook의 네트워크를 통과할 때 - 심지어 Facebook에 문제가 신고된 후에도 - 가능한 결론은 단 하나입니다. 집에 아무도 없다는 것입니다."라고 런던에 기반을 둔 법적 비영리 단체인 Foxglove의 이사 Rosa Curling은 말했습니다. Global Witness와 함께 조사하고 있습니다. “미얀마 대학살 이후 몇 년이 지난 지금, 페이스북은 교훈을 얻지 못한 것이 분명합니다.”


출처