Facebook Gagal Mendeteksi Ujaran Kebencian dengan Kekerasan dalam Iklan yang Dikirim oleh Grup Nirlaba

Tesnya sangat mudah — dan Facebook masih gagal. Facebook dan perusahaan induknya Meta gagal sekali lagi dalam ujian seberapa baik mereka dapat mendeteksi ujaran kebencian yang jelas-jelas mengandung kekerasan dalam iklan yang dikirimkan ke platform oleh kelompok nirlaba Global Witness dan Foxglove.

Pesan kebencian terfokus pada Ethiopia, di mana dokumen internal yang diperoleh pelapor Frances Haugen menunjukkan bahwa moderasi Facebook yang tidak efektif "benar-benar mengipasi kekerasan etnis," seperti yang dia katakan dalam kesaksiannya di kongres 2021. Pada bulan Maret, Global Witness melakukan tes serupa dengan ujaran kebencian di Myanmar, yang juga gagal dideteksi oleh Facebook.

Kelompok tersebut membuat 12 iklan berbasis teks yang menggunakan ujaran kebencian yang tidak manusiawi untuk menyerukan pembunuhan orang-orang yang termasuk dalam tiga kelompok etnis utama Ethiopia - Amhara, Oromo, dan Tigrayan. Sistem Facebook menyetujui iklan untuk dipublikasikan, seperti yang mereka lakukan dengan iklan Myanmar. Iklan tersebut sebenarnya tidak dipublikasikan di Facebook.

Namun, kali ini, grup tersebut memberi tahu Meta tentang pelanggaran yang tidak terdeteksi. Perusahaan tersebut mengatakan bahwa iklan tersebut seharusnya tidak disetujui dan menunjuk pada pekerjaan yang telah dilakukan untuk menangkap konten kebencian di platformnya.

Seminggu setelah mendengar dari Meta, Global Witness mengajukan dua iklan lagi untuk disetujui, sekali lagi dengan ujaran kebencian yang terang-terangan. Kedua iklan tersebut, yang ditulis dalam bahasa Amharik, bahasa yang paling banyak digunakan di Etiopia, disetujui.

Meta mengatakan bahwa iklan tersebut seharusnya tidak disetujui.

“Kami telah banyak berinvestasi dalam langkah-langkah keamanan di Ethiopia, menambahkan lebih banyak staf dengan keahlian lokal dan membangun kapasitas kami untuk menangkap konten kebencian dan menghasut dalam bahasa yang paling banyak digunakan, termasuk Amharik,” kata perusahaan itu dalam pernyataan email, menambahkan bahwa mesin dan orang masih bisa melakukan kesalahan. Pernyataan itu identik dengan yang diterima Global Witness.

“Kami memilih kasus terburuk yang bisa kami pikirkan,” kata Rosie Sharpe, juru kampanye di Global Witness. “Yang seharusnya paling mudah dideteksi oleh Facebook. Mereka bukan bahasa kode. Itu bukan peluit anjing. Itu adalah pernyataan eksplisit yang mengatakan bahwa orang seperti ini bukanlah manusia atau orang seperti ini harus mati kelaparan.”

Meta secara konsisten menolak untuk mengatakan berapa banyak moderator konten yang dimilikinya di negara-negara di mana bahasa Inggris bukan bahasa utama. Ini termasuk moderator di Ethiopia, Myanmar, dan wilayah lain di mana materi yang diposting di platform perusahaan telah dikaitkan dengan kekerasan di dunia nyata.

Pada bulan November, Meta mengatakan menghapus sebuah posting oleh perdana menteri Ethiopia yang mendesak warga untuk bangkit dan "mengubur" saingan pasukan Tigray yang mengancam ibu kota negara itu.

Dalam unggahan yang telah dihapus, Abiy mengatakan “kewajiban mati untuk Ethiopia adalah milik kita semua.” Dia meminta warga untuk memobilisasi “dengan memegang senjata atau kapasitas apa pun.”

Abiy terus memposting di platform, di mana ia memiliki 4.1 juta pengikut. AS dan lainnya telah memperingatkan Ethiopia tentang "retorika yang tidak manusiawi" setelah perdana menteri menggambarkan pasukan Tigray sebagai "kanker" dan "gulma" dalam komentar yang dibuat pada Juli 2021.

“Ketika iklan yang menyerukan genosida di Ethiopia berulang kali masuk melalui jaringan Facebook – bahkan setelah masalah ini ditandai dengan Facebook – hanya ada satu kesimpulan yang mungkin: tidak ada orang di rumah,” kata Rosa Curling, direktur Foxglove, sebuah organisasi nirlaba hukum berbasis di London yang bermitra dengan Global Witness dalam penyelidikannya. “Bertahun-tahun setelah genosida Myanmar, jelas Facebook belum belajar dari pelajarannya.”


sumber