Facebook ne parvient pas à détecter les discours haineux violents dans les publicités soumises par des groupes à but non lucratif

Le test n'aurait pas pu être beaucoup plus facile - et Facebook a quand même échoué. Facebook et sa société mère Meta ont une fois de plus échoué lors d'un test visant à déterminer dans quelle mesure ils pouvaient détecter les discours de haine manifestement violents dans les publicités soumises à la plateforme par les groupes à but non lucratif Global Witness et Foxglove.

Les messages haineux se sont concentrés sur l'Éthiopie, où des documents internes obtenus par la lanceuse d'alerte Frances Haugen ont montré que la modération inefficace de Facebook « attise littéralement la violence ethnique », comme elle l'a dit dans son témoignage au Congrès en 2021. En mars, Global Witness a effectué un test similaire avec des discours de haine au Myanmar, que Facebook n'a pas non plus détecté.

Le groupe a créé 12 publicités textuelles utilisant un discours de haine déshumanisant pour appeler au meurtre de personnes appartenant à chacun des trois principaux groupes ethniques d'Éthiopie - les Amhara, les Oromo et les Tigréens. Les systèmes de Facebook ont ​​approuvé la publication des publicités, tout comme ils l'ont fait pour les publicités du Myanmar. Les publicités n'ont pas été publiées sur Facebook.

Cette fois-ci, cependant, le groupe a informé Meta des violations non détectées. La société a déclaré que les publicités n'auraient pas dû être approuvées et a souligné le travail qu'elle a fait pour capturer le contenu haineux sur ses plateformes.

Une semaine après avoir entendu Meta, Global Witness a soumis deux autres publicités pour approbation, toujours avec un discours de haine flagrant. Les deux annonces, rédigées en amharique, la langue la plus utilisée en Éthiopie, ont été approuvées.

Meta a déclaré que les annonces n'auraient pas dû être approuvées.

"Nous avons beaucoup investi dans les mesures de sécurité en Éthiopie, en ajoutant plus de personnel possédant une expertise locale et en renforçant notre capacité à détecter les contenus haineux et incendiaires dans les langues les plus parlées, y compris l'amharique", a déclaré la société dans un communiqué envoyé par e-mail, ajoutant que les machines et les gens peuvent encore faire des erreurs. La déclaration était identique à celle reçue par Global Witness.

« Nous avons sélectionné les pires cas auxquels nous pouvions penser », a déclaré Rosie Sharpe, une militante de Global Witness. "Ceux qui devraient être les plus faciles à détecter pour Facebook. Ce n'était pas un langage codé. Ce n'étaient pas des sifflets pour chiens. Il s'agissait de déclarations explicites disant que ce type de personne n'est pas un être humain ou que ce type de personnes devrait mourir de faim.

Meta a toujours refusé de dire combien de modérateurs de contenu il a dans les pays où l'anglais n'est pas la langue principale. Cela inclut des modérateurs en Éthiopie, au Myanmar et dans d'autres régions où le matériel publié sur les plateformes de l'entreprise a été lié à la violence dans le monde réel.

En novembre, Meta a déclaré avoir supprimé un poste du Premier ministre éthiopien qui exhortait les citoyens à se soulever et à «enterrer» les forces rivales du Tigré qui menaçaient la capitale du pays.

Dans le message supprimé depuis, Abiy a déclaré que "l'obligation de mourir pour l'Éthiopie nous appartient à tous". Il a appelé les citoyens à se mobiliser "en détenant n'importe quelle arme ou capacité".

Abiy a cependant continué à publier sur la plateforme, où il compte 4.1 millions de followers. Les États-Unis et d'autres ont mis en garde l'Éthiopie contre une "rhétorique déshumanisante" après que le Premier ministre a qualifié les forces du Tigré de "cancer" et de "mauvaises herbes" dans des commentaires faits en juillet 2021.

"Lorsque des publicités appelant au génocide en Éthiopie passent à plusieurs reprises sur le réseau de Facebook - même après que le problème a été signalé à Facebook - il n'y a qu'une seule conclusion possible : il n'y a personne à la maison", a déclaré Rosa Curling, directrice de Foxglove, une organisation juridique à but non lucratif basée à Londres qui s'est associée avec Global Witness dans son enquête. "Des années après le génocide au Myanmar, il est clair que Facebook n'a pas retenu la leçon."


Identifier