Facebook não consegue detectar discursos de ódio violentos em anúncios enviados por grupos sem fins lucrativos

O teste não poderia ter sido muito mais fácil – e o Facebook ainda falhou. O Facebook e sua empresa-mãe Meta fracassaram mais uma vez em um teste de quão bem eles poderiam detectar discurso de ódio obviamente violento em anúncios enviados à plataforma pelos grupos sem fins lucrativos Global Witness e Foxglove.

As mensagens de ódio se concentraram na Etiópia, onde documentos internos obtidos pela denunciante Frances Haugen mostraram que a moderação ineficaz do Facebook está “literalmente atiçando a violência étnica”, como ela disse em seu depoimento ao Congresso em 2021. Em março, a Global Witness fez um teste semelhante com discurso de ódio em Mianmar, que o Facebook também não conseguiu detectar.

O grupo criou 12 anúncios baseados em texto que usavam discurso de ódio desumanizante para pedir o assassinato de pessoas pertencentes a cada um dos três principais grupos étnicos da Etiópia – os Amhara, os Oromo e os Tigrayans. Os sistemas do Facebook aprovaram os anúncios para publicação, assim como fizeram com os anúncios de Mianmar. Os anúncios não foram realmente publicados no Facebook.

Desta vez, porém, o grupo informou Meta sobre as violações não detectadas. A empresa disse que os anúncios não deveriam ter sido aprovados e apontou para o trabalho que fez para capturar conteúdo odioso em suas plataformas.

Uma semana depois de ouvir de Meta, a Global Witness enviou mais dois anúncios para aprovação, novamente com discurso de ódio flagrante. Os dois anúncios, escritos em amárico, a língua mais usada na Etiópia, foram aprovados.

Meta disse que os anúncios não deveriam ter sido aprovados.

“Investimos fortemente em medidas de segurança na Etiópia, adicionando mais funcionários com experiência local e desenvolvendo nossa capacidade de capturar conteúdo odioso e inflamatório nos idiomas mais falados, incluindo o amárico”, disse a empresa em comunicado por e-mail, acrescentando que as máquinas e as pessoas ainda podem cometer erros. A declaração foi idêntica à que a Global Witness recebeu.

“Escolhemos os piores casos em que pudemos pensar”, disse Rosie Sharpe, ativista da Global Witness. “Aqueles que deveriam ser os mais fáceis para o Facebook detectar. Eles não eram linguagem codificada. Não eram apitos de cachorro. Eram declarações explícitas dizendo que esse tipo de pessoa não é humano ou que esse tipo de pessoa deveria morrer de fome.”

A Meta sempre se recusou a dizer quantos moderadores de conteúdo possui em países onde o inglês não é o idioma principal. Isso inclui moderadores na Etiópia, Mianmar e outras regiões onde o material postado nas plataformas da empresa foi associado à violência no mundo real.

Em novembro, o Meta disse que removeu um post do primeiro-ministro da Etiópia que instava os cidadãos a se levantarem e “enterrar” as forças rivais de Tigray que ameaçavam a capital do país.

No post excluído, Abiy disse que a “obrigação de morrer pela Etiópia pertence a todos nós”. Ele pediu aos cidadãos que se mobilizem “portando qualquer arma ou capacidade”.

Abiy continuou a postar na plataforma, porém, onde tem 4.1 milhões de seguidores. Os EUA e outros alertaram a Etiópia sobre “retórica desumanizante” depois que o primeiro-ministro descreveu as forças Tigray como “câncer” e “ervas daninhas” em comentários feitos em julho de 2021.

“Quando anúncios pedindo genocídio na Etiópia passam repetidamente pela rede do Facebook – mesmo depois que o problema é sinalizado com o Facebook – há apenas uma conclusão possível: não há ninguém em casa”, disse Rosa Curling, diretora da Foxglove, uma organização sem fins lucrativos com sede em Londres que fez parceria com a Global Witness em sua investigação. “Anos após o genocídio de Mianmar, está claro que o Facebook não aprendeu a lição.”


fonte