REPUBLIKA.CO.ID, SAN FRANCISCO -- Facebook dan perusahaan induknya Meta kembali gagal mendeteksi ujaran kebencian yang mengandung kekerasan dalam iklan yang dikirimkan ke platform oleh kelompok nirlaba Global Witness dan Foxglove.
Dilansir dari Japan Today, Ahad (12/6/2022), pesan kebencian terfokus pada Ethiopia. Dokumen internal yang diperoleh pelapor Frances Haugen menunjukkan bahwa moderasi Facebook yang tidak efektif “benar-benar mencegah kekerasan etnis,” seperti yang dia katakan dalam kesaksiannya di kongres 2021.
Pada Maret, Global Witness melakukan tes serupa dengan ujaran kebencian di Myanmar, yang juga gagal dideteksi oleh Facebook.
Kelompok tersebut membuat 12 iklan berbasis teks yang menggunakan ujaran kebencian yang tidak manusiawi untuk menyerukan pembunuhan orang-orang yang termasuk dalam tiga kelompok etnis utama Ethiopia-Amhara, Oromo, dan Tigrayan. Sistem Facebook menyetujui iklan untuk dipublikasikan, seperti yang mereka lakukan dengan iklan Myanmar. Iklan tersebut sebenarnya tidak dipublikasikan di Facebook.
Namun, kali ini, grup tersebut memberi tahu Meta tentang pelanggaran yang tidak terdeteksi. Perusahaan tersebut mengatakan bahwa iklan tersebut seharusnya tidak disetujui.
Sepekan setelah mendengar dari Meta, Global Witness mengajukan dua iklan lagi untuk disetujui, sekali lagi dengan ujaran kebencian yang terang-terangan. Kedua iklan tersebut, yang ditulis dalam bahasa Amharik, bahasa yang paling banyak digunakan di Ethiopia, disetujui. Meta mengatakan bahwa iklan tersebut seharusnya tidak disetujui.
“Kami telah banyak berinvestasi dalam langkah-langkah keamanan di Ethiopia menambahkan lebih banyak staf dengan keahlian lokal dan membangun kapasitas kami untuk menangkap konten kebencian dan menghasut dalam bahasa yang paling banyak digunakan, termasuk Amharik,” kata perusahaan itu dalam pernyataan email.
“Kami memilih kasus terburuk yang bisa kami pikirkan,” kata Rosie Sharpe, juru kampanye di Global Witness.
“Yang seharusnya paling mudah dideteksi oleh Facebook. Ini bukan bahasa kode. Itu adalah pernyataan eksplisit yang mengatakan bahwa orang seperti ini bukanlah manusia atau orang seperti ini harus mati kelaparan.”
Meta secara konsisten secara menolak untuk mengatakan berapa banyak moderator konten yang dimilikinya di negara-negara di mana bahasa Inggris bukan bahasa utama. Ini termasuk moderator di Ethiopia, Myanmar, dan wilayah lain di mana materi yang posting di platform perusahaan telah dikaitkan dengan kekerasan di dunia nyata.
Pada November, Meta mengatakan telah menghapus sebuah posting oleh perdana menteri Ethiopia yang mendesak warga untuk bangkit dan “mengubur” pasukan saingannya Tigray yang mengancam ibu kota negara itu.
Dalam unggahan yang telah dihapus, Abiy mengatakan “kewajiban mati untuk Ethiopia adalah milik kita semua.” Dia meminta warga untuk memobilisasi dengan memegang senjata atau kapasitas apa pun.
Abiy terus memposting di platform, di mana ia memiliki 4,1 juta pengikut. Amerika Serikat (AS) dan lainnya telah memperingatkan Ethiopia tentang “retprika yang tidak manusiawi” setelah perdana menteri menggambarkan pasukan Tigray sebagai “kanker” dan “gluma” dalam komentar yang dibuat pada Juli 2021.
“Ketika iklan yang menyerukan genosida di Ethiopia berulang kali masuk ke jaringan Facebook-bahkan setelah masalah ini ditandai dengan Facebook. Bertahun-tahun setelah genosida Myanmar, jelas bahwa Facebook belum belajar dari pelajarannya,” kata Rosa Curling, direktur Foxglove, sebuah organisasi nirlaba hukum yang berbasis di London yang bermitra dengan Global Witness dalam penyelidikannya.