Jakarta, CNN Indonesia —
WhatsApp memunculkan gambar bocah laki-laki memanggul senjata saat merespons kata kunci ‘Palestina’. Sementara, pencarian dengan kata kunci ‘Israel’ hasilnya normal-normal saja.
Pencarian itu sendiri dilakukan lewat fitur baru WhatsApp ‘Create AI Sticker’ yang sejauh ini terlacak belum tersedia di Indonesia. Fitur ini memungkinkan pengguna meng-generate gambar AI untuk ‘membuat stiker’.
Menurut penelusuran The Guardian, Kamis (2/11) pukul 16.46 ET atau Jumat (3/11) pukul 03.46 WIB, sticker anak laki-laki memegang senapan muncul ketika menuliskan ‘Anak Muslim Palestina’ (muslim boy Palestinian).
[Gambas:Twitter]
Bentuknya, empat gambar anak-anak: seorang anak laki-laki memegang senjata api mirip AK-47, mengenakan topi yang biasa dikenakan oleh pria dan anak laki-laki Muslim yang disebut kufi atau taqiyah.
Penelusuran The Guardian lainnya dengan kata kunci ‘Palestina’ (Palestine), satu menit sebelumnya, menghasilkan gambar tangan yang memegang senjata api.
Ketika melakukan penelusuran dengan ‘Muslim Palestina’ (Muslim Palestine), misalnya, menampilkan empat gambar perempuan berhijab: berdiri diam, membaca, memegang bunga, dan memegang papan tanda.
Penggunaan kata kunci ‘Hamas’ memunculkan pesan “Tidak dapat membuat stiker AI. Silakan coba lagi.”
Sementara, ketika memakai kata kunci ‘Israel’, fitur tersebut menampilkan bendera Israel dan seorang pria menari. Pencarian dengan kata kunci ‘anak laki-laki Israel’ (Israeli boy) menghasilkan kartun anak-anak yang bermain sepak bola dan membaca.
Kata kunci “Anak laki-laki Yahudi Israel” (Jewish boy Israeli) menampilkan empat gambar anak laki-laki, dua di antaranya digambarkan mengenakan kalung dengan Bintang Daud, satu mengenakan yarmulke (kopiah Yahudi) dan membaca, yang lainnya hanya berdiri.
Tak satupun dari gambar-gambar itu membawa senjata.
Bahkan unsur militer yang eksplisit, yakni kata kunci ‘tentara Israel’ (Israel army) dan ‘Israeli defense forces’, tidak menghasilkan gambar dengan senjata. AI menciptakan gambar tentara berseragam yang tersenyum dan mengangkat tangan berdoa.
Karyawan Meta sendiri telah melaporkan dan menyuarakan masalah ini secara internal, menurut seseorang yang mengetahui diskusi tersebut.
“Seperti yang kami katakan saat meluncurkan fitur ini, model dapat menghasilkan keluaran yang tidak akurat atau tidak sesuai seperti pada semua sistem AI generatif,” dalih Kevin McAlister, juru bicara Meta.
“Kami akan terus menyempurnakan fitur-fitur ini seiring dengan perkembangannya dan semakin banyak orang yang menyampaikan masukan mereka.”
Riwayat bias Meta
Temuan ini datang seiring dengan banyaknya kecaman terhadap Meta dari pengguna Instagram dan Facebook pendukung warga Palestina.
Pengguna melaporkan postingan mereka disembunyikan dari pengguna lain tanpa penjelasan dan mengalami penurunan tajam dalam keterlibatan (engagement).
“Kami tidak pernah bermaksud untuk menekan komunitas atau sudut pandang tertentu,” klaim sebuah pernyataan Meta.
Namun, karena “lebih banyak konten yang dilaporkan” seputar konflik yang sedang berlangsung, “konten yang tidak melanggar kebijakan kami kemungkinan dihapus karena error”.
Selain itu, pengguna juga mendokumentasikan beberapa contoh Instagram yang menerjemahkan “Palestina” diikuti dengan frasa “Alhamdulillah” dalam teks Arab menjadi “Teroris Palestina”. Perusahaan meminta maaf atas apa yang digambarkannya sebagai “kesalahan”.
CEO Meta Mark Zuckerberg juga sudah lebih dulu mengutuk penyerbuan Hamas terhadap Israel sebagai “kejahatan murni.” Namun, dia tak menyinggung sama sekali pembantaian jauh lebih banyak di Gaza oleh Israel.
[Gambas:Video CNN]
(rfi/arh)