Facebookは、非営利団体によって提出された広告での暴力的な悪意のある表現を検出できません

テストはこれほど簡単ではありませんでした—そしてFacebookはまだ失敗しました。 Facebookとその親会社であるMetaは、非営利団体GlobalWitnessとFoxgloveによってプラットフォームに送信された広告で明らかに暴力的なヘイトスピーチをどれだけうまく検出できるかをテストするためにもう一度失敗しました。

彼女が2021年の議会の証言で述べたように、内部告発者のフランシス・ホーゲンが入手した内部文書は、Facebookの効果のない節度が「文字通り民族的暴力を扇動している」ことを示したエチオピアに焦点を当てた憎悪のメッセージ。 XNUMX月、Global Witnessは、ミャンマーでヘイトスピーチを使用して同様のテストを実行しましたが、Facebookもこれを検出できませんでした。

このグループは、非人間的なヘイトスピーチを使用して、エチオピアの12つの主要な民族グループ(アムハラ、オロモ、ティグリニャ人)のそれぞれに属する人々の殺害を呼びかけるXNUMXのテキストベースの広告を作成しました。 Facebookのシステムは、ミャンマーの広告と同じように、広告の公開を承認しました。 広告は実際にはFacebookに公開されていません。

ただし今回は、グループは未検出の違反についてMetaに通知しました。 同社は、広告が承認されるべきではなかったと述べ、自社のプラットフォームで嫌なコンテンツをキャッチするために行った作業を指摘しました。

Metaからの連絡からXNUMX週間後、Global Witnessは、さらにXNUMXつの広告を承認のために提出しましたが、これも露骨な悪意のある表現でした。 エチオピアで最も広く使用されている言語であるアムハラ語で書かれたXNUMXつの広告が承認されました。

メタは、広告は承認されるべきではなかったと述べた。

「私たちはエチオピアの安全対策に多額の投資を行い、地元の専門知識を持つスタッフを追加し、アムハラ語を含む最も広く話されている言語で憎悪と炎症のコンテンツをキャッチする能力を構築しました」と同社は電子メールで述べ、そのマシンを追加しましたそして人々はまだ間違いを犯すことができます。 声明は、グローバル・ウィットネスが受け取ったものと同一でした。

「考えられる最悪のケースを選び出しました」と、グローバル・ウィットネスのキャンペーン担当者であるロージー・シャープは述べています。 「Facebookが検出するのが最も簡単なはずのもの。 それらはコード化された言語ではありませんでした。 彼らは犬笛ではありませんでした。 彼らは、このタイプの人は人間ではない、またはこれらのタイプの人は飢えて死ぬべきであるという明確な声明でした。」

Metaは一貫して、英語が第一言語ではない国にコンテンツモデレーターが何人いるかを言うことを拒否してきました。 これには、エチオピア、ミャンマー、および会社のプラットフォームに投稿された資料が現実世界の暴力に関連しているその他の地域のモデレーターが含まれます。

XNUMX月、メタは、エチオピアの首相による、国の首都を脅かすライバルのティグレ軍を立ち上げて「埋める」よう市民に促すポストを削除したと述べた。

削除された投稿の中で、アビィは「エチオピアのために死ぬ義務は私たち全員にある」と述べました。 彼は市民に「武器や能力を持って」動員するよう呼びかけた。

しかし、アビィはプラットフォームに投稿し続けており、4.1万人のフォロワーがいます。 首相が2021年XNUMX月に行われたコメントでティグレ軍を「ガン」と「雑草」と表現した後、米国と他の人々はエチオピアに「非人間的なレトリック」について警告した。

「エチオピアでジェノサイドを呼びかける広告がFacebookのネットを繰り返し通過する場合、問題がFacebookで報告された後でも、考えられる結論はXNUMXつだけです。家がないということです」と、ロンドンを拠点とする合法的な非営利団体FoxgloveのディレクターであるRosaCurlingは述べています。その調査でグローバルウィットネスと。 「ミャンマーの大量虐殺から数年後、Facebookがその教訓を学んでいないことは明らかです。」


ソース