Facebook ล้มเหลวในการตรวจหาคำพูดแสดงความเกลียดชังที่รุนแรงในโฆษณาที่ส่งโดยกลุ่มที่ไม่แสวงหาผลกำไร

การทดสอบไม่ง่ายไปกว่านี้แล้ว และ Facebook ก็ยังล้มเหลว Facebook และบริษัทแม่ Meta ล้มเหลวอีกครั้งในการทดสอบว่าพวกเขาสามารถตรวจจับคำพูดแสดงความเกลียดชังที่รุนแรงอย่างเห็นได้ชัดในโฆษณาที่ส่งไปยังแพลตฟอร์มโดยกลุ่ม Global Witness และ Foxglove ที่ไม่แสวงหากำไรได้ดีเพียงใด

ข้อความแสดงความเกลียดชังมุ่งเน้นไปที่เอธิโอเปีย ซึ่งเอกสารภายในที่ได้รับจากผู้แจ้งเบาะแส Frances Haugen แสดงให้เห็นว่าการกลั่นกรองที่ไม่มีประสิทธิภาพของ Facebook คือ "การพัดพาความรุนแรงทางชาติพันธุ์อย่างแท้จริง" ตามที่เธอกล่าวในคำให้การของรัฐสภาในปี 2021 ในเดือนมีนาคม Global Witness ได้ทำการทดสอบที่คล้ายกันกับคำพูดแสดงความเกลียดชังในเมียนมาร์ ซึ่ง Facebook ก็ตรวจไม่พบเช่นกัน

กลุ่มได้สร้างโฆษณาแบบข้อความ 12 รายการที่ใช้วาจาสร้างความเกลียดชังเพื่อเรียกร้องให้มีการสังหารผู้คนในกลุ่มชาติพันธุ์หลักสามกลุ่มของเอธิโอเปีย ได้แก่ อัมฮารา กลุ่มโอโรโม และไทเกรยัน ระบบของ Facebook อนุมัติโฆษณาเพื่อเผยแพร่ เช่นเดียวกับที่ทำกับโฆษณาเมียนมาร์ โฆษณาไม่ได้เผยแพร่บน Facebook จริงๆ

คราวนี้แม้ว่ากลุ่มได้แจ้ง Meta เกี่ยวกับการละเมิดที่ตรวจไม่พบ บริษัทกล่าวว่าโฆษณาไม่ควรได้รับการอนุมัติและชี้ไปที่การทำงานเพื่อตรวจจับเนื้อหาแสดงความเกลียดชังบนแพลตฟอร์มของบริษัท

หนึ่งสัปดาห์หลังจากได้ยินจาก Meta Global Witness ได้ส่งโฆษณาอีกสองโฆษณาเพื่อขออนุมัติอีกครั้งพร้อมกับคำพูดแสดงความเกลียดชังที่โจ่งแจ้ง โฆษณาทั้งสองฉบับที่เขียนเป็นภาษาอัมฮาริก ซึ่งเป็นภาษาที่ใช้กันอย่างแพร่หลายที่สุดในเอธิโอเปียได้รับการอนุมัติ

Meta กล่าวว่าโฆษณาไม่ควรได้รับการอนุมัติ

“เราได้ลงทุนมหาศาลในมาตรการด้านความปลอดภัยในเอธิโอเปีย เพิ่มพนักงานที่มีความเชี่ยวชาญในท้องถิ่น และสร้างความสามารถของเราในการจับเนื้อหาที่แสดงความเกลียดชังและยั่วยุในภาษาที่พูดกันอย่างกว้างขวางที่สุด รวมถึงภาษาอัมฮาริก” บริษัทกล่าวในแถลงการณ์ทางอีเมล โดยเสริมว่าเครื่องจักร และผู้คนยังสามารถทำผิดพลาดได้ คำกล่าวนี้เหมือนกับ Global Witness คนหนึ่งที่ได้รับ

“เราเลือกกรณีที่เลวร้ายที่สุดที่เรานึกออก” โรซี่ ชาร์ป นักรณรงค์ของ Global Witness กล่าว “สิ่งที่น่าจะง่ายที่สุดสำหรับ Facebook ในการตรวจจับ พวกเขาไม่ใช่ภาษารหัส พวกเขาไม่ใช่สุนัขผิวปาก พวกเขาเป็นข้อความที่ชัดเจนโดยบอกว่าคนประเภทนี้ไม่ใช่มนุษย์หรือคนประเภทนี้ควรอดอาหารตาย”

Meta ปฏิเสธที่จะบอกว่ามีผู้ดูแลเนื้อหากี่คนในประเทศที่ภาษาอังกฤษไม่ใช่ภาษาหลัก ซึ่งรวมถึงผู้ดูแลในเอธิโอเปีย เมียนมาร์ และภูมิภาคอื่นๆ ที่เนื้อหาที่โพสต์บนแพลตฟอร์มของบริษัทเชื่อมโยงกับความรุนแรงในโลกแห่งความเป็นจริง

ในเดือนพฤศจิกายน Meta ได้ลบโพสต์ของนายกรัฐมนตรีเอธิโอเปียที่เรียกร้องให้ประชาชนลุกขึ้นและ "ฝัง" กองกำลัง Tigray ที่เป็นคู่ปรับที่คุกคามเมืองหลวงของประเทศ

ในโพสต์ที่ถูกลบไปตั้งแต่นั้นมา Abiy กล่าวว่า “ภาระผูกพันที่จะต้องตายเพื่อเอธิโอเปียเป็นของเราทุกคน” เขาเรียกร้องให้ประชาชนระดม “โดยถืออาวุธหรือความสามารถใดๆ ก็ตาม”

Abiy ยังคงโพสต์บนแพลตฟอร์มต่อไป โดยที่เขามีผู้ติดตาม 4.1 ล้านคน สหรัฐฯ และประเทศอื่นๆ ได้เตือนเอธิโอเปียเกี่ยวกับ “วาทศาสตร์ลดทอนความเป็นมนุษย์” หลังจากที่นายกรัฐมนตรีเรียกกองกำลังไทเกรย์ว่าเป็น “มะเร็ง” และ “วัชพืช” ในความคิดเห็นที่เขียนเมื่อเดือนกรกฎาคม พ.ศ. 2021

“เมื่อโฆษณาที่เรียกร้องการฆ่าล้างเผ่าพันธุ์ในเอธิโอเปียซ้ำแล้วซ้ำเล่าผ่านเน็ตของ Facebook แม้หลังจากที่ปัญหาถูกตั้งค่าสถานะด้วย Facebook แล้ว ก็มีเพียงข้อสรุปเดียวที่เป็นไปได้ นั่นคือไม่มีใครอยู่บ้าน” Rosa Curling ผู้อำนวยการ Foxglove ซึ่งเป็นองค์กรไม่แสวงหากำไรทางกฎหมายในลอนดอนกล่าว กับ Global Witness ในการสอบสวน “หลายปีหลังจากการฆ่าล้างเผ่าพันธุ์ในเมียนมาร์ เห็นได้ชัดว่า Facebook ไม่ได้เรียนรู้บทเรียน”


แหล่ง