Facebook kann gewalttätige Hassreden in Anzeigen von gemeinnützigen Gruppen nicht erkennen

Der Test hätte nicht viel einfacher sein können – und Facebook scheiterte immer noch. Facebook und seine Muttergesellschaft Meta scheiterten erneut bei einem Test, wie gut sie offensichtlich gewalttätige Hassreden in Anzeigen erkennen konnten, die von den gemeinnützigen Gruppen Global Witness und Foxglove an die Plattform übermittelt wurden.

Die Hassbotschaften konzentrierten sich auf Äthiopien, wo interne Dokumente der Whistleblowerin Frances Haugen zeigten, dass die ineffektive Moderation von Facebook „ethnische Gewalt buchstäblich schürt“, wie sie in ihrer Aussage vor dem Kongress 2021 sagte. Im März führte Global Witness einen ähnlichen Test mit Hassreden in Myanmar durch, die Facebook ebenfalls nicht erkennen konnte.

Die Gruppe erstellte 12 textbasierte Anzeigen, die mit entmenschlichender Hassrede zur Ermordung von Menschen aufriefen, die jeder der drei wichtigsten ethnischen Gruppen Äthiopiens angehören – den Amhara, den Oromo und den Tigrayanern. Die Systeme von Facebook genehmigten die Anzeigen zur Veröffentlichung, genau wie bei den Anzeigen in Myanmar. Die Anzeigen wurden nicht wirklich auf Facebook veröffentlicht.

Diesmal informierte die Gruppe Meta jedoch über die unentdeckten Verstöße. Das Unternehmen sagte, die Anzeigen hätten nicht genehmigt werden dürfen, und wies auf die Arbeit hin, die es geleistet hat, um hasserfüllte Inhalte auf seinen Plattformen aufzuspüren.

Eine Woche nachdem er von Meta gehört hatte, reichte Global Witness zwei weitere Anzeigen zur Genehmigung ein, wiederum mit offenkundiger Hassrede. Die beiden Anzeigen, geschrieben in Amharisch, der am weitesten verbreiteten Sprache in Äthiopien, wurden genehmigt.

Meta sagte, die Anzeigen hätten nicht genehmigt werden dürfen.

„Wir haben stark in Sicherheitsmaßnahmen in Äthiopien investiert, mehr Personal mit lokalem Fachwissen eingestellt und unsere Kapazität aufgebaut, hasserfüllte und aufrührerische Inhalte in den am häufigsten gesprochenen Sprachen, einschließlich Amharisch, aufzufangen“, sagte das Unternehmen in einer per E-Mail gesendeten Erklärung und fügte diese Maschinen hinzu und Menschen können immer noch Fehler machen. Die Erklärung war identisch mit der, die Global Witness erhalten hatte.

„Wir haben die schlimmsten Fälle herausgesucht, die uns eingefallen sind“, sagte Rosie Sharpe, Aktivistin bei Global Witness. „Diejenigen, die für Facebook am einfachsten zu erkennen sein sollten. Sie waren keine verschlüsselte Sprache. Das waren keine Hundepfeifen. Es waren ausdrückliche Aussagen, die besagten, dass diese Art von Person kein Mensch ist oder dass diese Art von Menschen zu Tode gehungert werden sollte.“

Meta hat sich konsequent geweigert zu sagen, wie viele Inhaltsmoderatoren es in Ländern hat, in denen Englisch nicht die Hauptsprache ist. Dazu gehören Moderatoren in Äthiopien, Myanmar und anderen Regionen, in denen auf den Plattformen des Unternehmens veröffentlichtes Material mit realer Gewalt in Verbindung gebracht wurde.

Im November sagte Meta, es habe einen Posten des äthiopischen Premierministers entfernt, der die Bürger aufforderte, sich zu erheben und rivalisierende Tigray-Truppen zu „begraben“, die die Hauptstadt des Landes bedrohten.

In dem inzwischen gelöschten Beitrag sagte Abiy, die „Pflicht, für Äthiopien zu sterben, obliegt uns allen“. Er forderte die Bürger auf, sich zu mobilisieren, „indem sie jede Waffe oder Fähigkeit halten“.

Abiy hat jedoch weiterhin auf der Plattform gepostet, wo er 4.1 Millionen Follower hat. Die USA und andere haben Äthiopien vor einer „entmenschlichenden Rhetorik“ gewarnt, nachdem der Premierminister die Tigray-Streitkräfte in Kommentaren vom Juli 2021 als „Krebs“ und „Unkraut“ bezeichnet hatte.

„Wenn Anzeigen, die zum Völkermord in Äthiopien aufrufen, wiederholt durch das Netz von Facebook gelangen – selbst nachdem das Problem bei Facebook gemeldet wurde – gibt es nur eine mögliche Schlussfolgerung: Es ist niemand zu Hause“, sagte Rosa Curling, Direktorin von Foxglove, einer in London ansässigen gemeinnützigen Organisation, die Partner ist mit Global Witness in seiner Untersuchung. „Jahre nach dem Völkermord in Myanmar ist klar, dass Facebook seine Lektion nicht gelernt hat.“


Quelle