Facebook 未能检测到非营利组织提交的广告中的暴力仇恨言论

测试再简单不过了——但 Facebook 仍然失败了。 Facebook 及其母公司 Meta 在一项测试中再次失败,该测试旨在检验非营利组织 Global Witness 和 Foxglove 提交给该平台的广告中是否存在明显的暴力仇恨言论。

这些仇恨信息主要集中在埃塞俄比亚,正如举报人弗朗西斯·豪根 (Frances Haugen) 在 2021 年国会证词中所说,该国的内部文件显示,Facebook 无效的审核“实际上是在煽动种族暴力”。今年 XNUMX 月,全球见证在缅甸进行了类似的仇恨言论测试,Facebook 也未能检测到。

该组织制作了 12 个文字广告,使用非人性的仇恨言论,呼吁谋杀埃塞俄比亚三个主要民族——阿姆哈拉人、奥罗莫人和提格雷人——的人民。 Facebook 的系统批准了这些广告的发布,就像对待缅甸广告一样。这些广告实际上并未发布在 Facebook 上。

不过,这一次,该组织向 Meta 通报了未发现的违规行为。该公司表示,这些广告不应获得批准,并指出其为捕捉其平台上的仇恨内容所做的工作。

在收到 Meta 的消息一周后,全球见证又提交了两则广告以供批准,其中同样包含公然的仇恨言论。这两个广告以埃塞俄比亚最广泛使用的语言阿姆哈拉语撰写,获得了批准。

Meta 表示这些广告不应该获得批准。

该公司在一份电子邮件声明中表示:“我们在埃塞俄比亚的安全措施上投入了大量资金,增加了更多具有当地专业知识的员工,并增强了我们以最广泛使用的语言(包括阿姆哈拉语)捕捉仇恨和煽动性内容的能力。”人们仍然会犯错误。该声明与全球见证收到的声明相同。

“我们挑选了我们能想到的最糟糕的情况,”全球见证组织的活动人士罗西·夏普 (Rosie Sharpe) 说。 “这些应该是 Facebook 最容易检测到的。它们不是编码语言。它们不是狗哨声。他们明确表示这种人不是人,或者这种人应该被饿死。”

Meta 一直拒绝透露在英语不是主要语言的国家/地区有多少内容审核员。这包括埃塞俄比亚、缅甸和其他地区的版主,在这些地区,该公司平台上发布的材料与现实世界的暴力有关。

去年11月,Meta表示,它删除了埃塞俄比亚总理的一篇帖子,该帖子敦促公民奋起并“埋葬”威胁该国首都的提格雷敌对势力。

在这篇已被删除的帖子中,阿比表示“为埃塞俄比亚而死的义务属于我们所有人。”他呼吁公民“携带任何武器或能力”动员起来。

不过,Abiy 继续在该平台上发帖,他在该平台上拥有 4.1 万粉丝。埃塞俄比亚总理在 2021 年 XNUMX 月的评论中将提格雷部队描述为“癌症”和“杂草”后,美国和其他国家就“非人性言论”向埃塞俄比亚发出警告。

总部位于伦敦的法律非营利组织 Foxglove 的主管罗莎·柯林 (Rosa Curling) 表示:“当 Facebook 的网络上反复出现呼吁在埃塞俄比亚进行种族灭绝的广告时,即使在 Facebook 标记了该问题之后,也只有一个可能的结论:没人在家。”全球见证参与调查。 “缅甸种族灭绝事件发生多年后,Facebook 显然还没有吸取教训。”


来源