Facebook không phát hiện được các bài phát biểu căm thù bạo lực trong các quảng cáo do các nhóm phi lợi nhuận gửi

Cuộc thử nghiệm không thể dễ dàng hơn nhiều - và Facebook vẫn thất bại. Facebook và công ty mẹ Meta một lần nữa lại thất bại trong cuộc thử nghiệm xem họ có thể phát hiện lời nói căm thù bạo lực rõ ràng trong các quảng cáo do các nhóm phi lợi nhuận Global Witness và Foxglove gửi lên nền tảng này hay không.

Các thông điệp căm thù tập trung vào Ethiopia, nơi các tài liệu nội bộ mà người tố giác Frances Haugen thu được cho thấy rằng sự kiểm duyệt kém hiệu quả của Facebook “thực sự đang cổ vũ bạo lực sắc tộc”, như cô đã nói trong lời khai trước quốc hội năm 2021 của mình. Vào tháng XNUMX, Global Witness đã thực hiện một thử nghiệm tương tự với lời nói căm thù ở Myanmar, điều mà Facebook cũng không phát hiện được.

Nhóm đã tạo 12 quảng cáo dựa trên văn bản sử dụng lời nói căm thù phi nhân tính để kêu gọi giết hại những người thuộc ba nhóm dân tộc chính của Ethiopia - Amhara, Oromo và Tigrayans. Hệ thống của Facebook đã phê duyệt quảng cáo để xuất bản, giống như họ đã làm với quảng cáo ở Myanmar. Các quảng cáo không thực sự được xuất bản trên Facebook.

Tuy nhiên, lần này nhóm đã thông báo cho Meta về những vi phạm chưa được phát hiện. Công ty cho biết các quảng cáo đáng lẽ không nên được phê duyệt và chỉ ra công việc mà họ đã thực hiện để phát hiện nội dung thù địch trên nền tảng của mình.

Một tuần sau khi nhận được phản hồi từ Meta, Global Witness đã gửi thêm hai quảng cáo nữa để được phê duyệt, một lần nữa lại có lời nói căm thù trắng trợn. Hai quảng cáo viết bằng tiếng Amharic, ngôn ngữ được sử dụng rộng rãi nhất ở Ethiopia, đã được phê duyệt.

Meta cho biết quảng cáo lẽ ra không được chấp thuận.

Công ty cho biết trong một tuyên bố gửi qua email: “Chúng tôi đã đầu tư rất nhiều vào các biện pháp an toàn ở Ethiopia, bổ sung thêm nhân viên có chuyên môn địa phương và xây dựng năng lực để nắm bắt nội dung kích động và thù địch bằng các ngôn ngữ được sử dụng rộng rãi nhất, bao gồm cả tiếng Amharic”. và con người vẫn có thể mắc sai lầm. Tuyên bố này giống hệt với tuyên bố mà Global Witness nhận được.

Rosie Sharpe, một nhà vận động tại Global Witness cho biết: “Chúng tôi đã chọn ra những trường hợp tồi tệ nhất mà chúng tôi có thể nghĩ ra”. “Những thứ mà Facebook có thể dễ dàng phát hiện nhất. Chúng không phải là ngôn ngữ được mã hóa. Chúng không phải là tiếng còi của chó. Đó là những tuyên bố rõ ràng rằng loại người này không phải là con người hoặc loại người này đáng phải bị bỏ đói.”

Meta đã liên tục từ chối cho biết có bao nhiêu người kiểm duyệt nội dung ở các quốc gia nơi tiếng Anh không phải là ngôn ngữ chính. Điều này bao gồm những người kiểm duyệt ở Ethiopia, Myanmar và các khu vực khác nơi tài liệu được đăng trên nền tảng của công ty có liên quan đến bạo lực trong thế giới thực.

Vào tháng 11, Meta cho biết họ đã xóa một bài đăng của thủ tướng Ethiopia kêu gọi người dân đứng lên và “chôn vùi” lực lượng Tigray đối thủ đang đe dọa thủ đô của đất nước.

Trong bài đăng đã bị xóa, Abiy cho biết “nghĩa vụ chết vì Ethiopia thuộc về tất cả chúng ta”. Ông kêu gọi người dân huy động “bằng cách nắm giữ bất kỳ vũ khí hoặc năng lực nào”.

Tuy nhiên, Abiy vẫn tiếp tục đăng bài trên nền tảng này, nơi anh có 4.1 triệu người theo dõi. Mỹ và các nước khác đã cảnh báo Ethiopia về “lời lẽ phi nhân tính” sau khi thủ tướng mô tả lực lượng Tigray là “căn bệnh ung thư” và “cỏ dại” trong bình luận đưa ra vào tháng 2021 năm XNUMX.

Rosa Curling, giám đốc Foxglove, một tổ chức phi lợi nhuận hợp pháp có trụ sở tại London, hợp tác, cho biết: “Khi các quảng cáo kêu gọi diệt chủng ở Ethiopia liên tục xuất hiện trên mạng của Facebook - ngay cả sau khi vấn đề này được Facebook gắn cờ - thì chỉ có một kết luận duy nhất: không có ai ở nhà”. với Global Witness trong cuộc điều tra của mình. “Nhiều năm sau nạn diệt chủng ở Myanmar, rõ ràng Facebook vẫn chưa học được bài học của mình”.


nguồn