Jakarta, CNN Indonesia —
Serangkaian iklan yang menyerukan kekerasan terhadap warga Palestina, yang dimaksudkan untuk menguji standar moderasi konten Facebook, ditemukan disetujui oleh media sosial milik Meta tersebut.
Melansir The Intercept, iklan yang dikirimkan, baik dalam bahasa Ibrani dan Arab, mencakup pelanggaran yang signifikan terhadap kebijakan Facebook dan perusahaan induknya, Meta.
Beberapa di antaranya memuat konten kekerasan yang secara langsung menyerukan pembunuhan warga sipil Palestina, seperti iklan yang menuntut “holocaust (pembunuhan massal) rakyat Palestina” dan memusnahkan “perempuan, anak-anak, dan lansia di Gaza.”
Unggahan lainnya, seperti postingan yang menggambarkan anak-anak dari Gaza sebagai “teroris masa depan” dan rujukan kepada “babi Arab”, berisi bahasa yang tidak manusiawi.
“Persetujuan terhadap iklan ini hanyalah yang terbaru dari serangkaian kegagalan Meta terhadap rakyat Palestina,” ungkap Nadim Nashif, pendiri kelompok penelitian dan advokasi media sosial Palestina 7amleh, yang mengirimkan iklan uji tersebut.
“Sepanjang krisis ini, kami telah melihat pola bias dan diskriminasi yang jelas dari Meta terhadap warga Palestina.”
Ide 7amleh untuk menguji sensor pembelajaran mesin Facebook muncul bulan lalu. Saat itu, Nashif menemukan iklan di feed Facebook-nya yang secara eksplisit menyerukan pembunuhan aktivis Amerika Paul Larudee, salah satu pendiri Gerakan Pembebasan Gaza (Free Gaza Movement).
Terjemahan otomatis Facebook atas teks iklan tersebut berbunyi, “Sudah waktunya untuk membunuh Paul Larudi, teroris anti-Semit dan ‘hak asasi manusia’ dari Amerika Serikat.” Nashif melaporkan iklan tersebut ke Facebook dan kemudian dihapus.
Iklan tersebut dipasang oleh Ad Kan, sebuah kelompok sayap kanan Israel yang didirikan oleh mantan Pasukan Pertahanan Israel (IDF) dan perwira intelijen untuk memerangi “organisasi anti-Israel” yang dananya konon berasal dari sumber antisemit, menurut situs webnya.
Baik Larudee maupun Ad Kan tidak segera menanggapi permintaan komentar terkait kasus ini.
Menyerukan pembunuhan terhadap seorang aktivis politik merupakan pelanggaran terhadap aturan periklanan Facebook. Munculnya postingan yang disponsori oleh Ad Kan di platform menunjukkan bahwa Facebook menyetujuinya meskipun ada aturan yang melarangnya.
Iklan tersebut kemungkinan lolos melalui proses otomatis Facebook, berdasarkan pembelajaran mesin, yang memungkinkan bisnis periklanan globalnya beroperasi dengan cepat.
“Sistem peninjauan iklan kami dirancang untuk meninjau semua iklan sebelum ditayangkan,” menurut ikhtisar kebijakan iklan Facebook.
Lantaran moderasi Meta berbasis manusia, yang secara historis hampir seluruhnya bergantung pada tenaga kerja outsourcing, perusahaan tersebut semakin bersandar pada perangkat lunak pemindaian teks otomatis untuk menegakkan aturan dan kebijakan sensornya.
Meskipun teknologi ini memungkinkan perusahaan untuk mengatasi masalah ketenagakerjaan yang terkait dengan moderator manusia, teknologi ini juga mengaburkan bagaimana keputusan moderasi dibuat di balik algoritma yang rahasia.
Merespons kasus ini, jJuru bicara Facebook Erin McPike mengatakan iklan tersebut disetujui secara tidak sengaja.
“Meskipun investasi kami sedang berlangsung, kami tahu bahwa akan ada contoh hal-hal yang kami lewatkan atau kami hapus karena kesalahan, karena baik mesin maupun manusia melakukan kesalahan,” katanya.
“Itulah sebabnya iklan dapat ditinjau beberapa kali, termasuk setelah ditayangkan.”
Tahun lalu, audit eksternal yang ditugaskan oleh Meta menemukan bahwa meskipun perusahaan tersebut secara rutin menggunakan sensor algoritmik untuk menghapus postingan berbahasa Arab.
Perusahaan tidak memiliki algoritma yang setara untuk mendeteksi “perkataan bermusuhan dalam bahasa Ibrani” seperti retorika rasis dan hasutan kekerasan.
Setelah audit tersebut, Meta mengklaim telah “meluncurkan pengklasifikasi ‘ucapan permusuhan’ bahasa Ibrani untuk membantu kami secara proaktif mendeteksi lebih banyak konten berbahasa Ibrani yang melanggar.” Kontennya, seperti iklan yang mendukung pembunuhan.
Studi puluhan organisasi HAM beberapa tahun lalu juga mengungkap Meta bias dalam menyensor konten ujaran kebencian.
Perusahaan yang didirikan Mark Zuckerberg ini mengakomodasi permintaan sensor terhadap unggahan perlawanan Palestina, namun mengacuhkan ujaran kebencian berbahasa Ibrani.
[Gambas:Video CNN]
(tim/arh)