Kominfo Beri Peringatan, Perempuan Jadi Target Penyalahgunaan AI


Jakarta, CNN Indonesia —

Kementerian Komunikasi dan Informatika mengungkap perempuan kerap jadi sasaran penyalahgunaan teknologi kecerdasan buatan atau Artificial Intelligence (AI) dalam bentuk deepfake bertema pornografi.

Nezar Patria, Wakil Menteri Komunikasi dan Informatika, mengatakan ada tiga dampak dan viktimisasi yang mungkin terjadi imbas penyalahgunaan AI. Salah satunya adalah penargetan kelompok perempuan.

“Perempuan menjadi target dalam muatan pornografi yang sengaja diciptakan melalui teknologi deepfake,” ujar dia, di kampus Universitas Gadjah Mada, Yogyakarta, Kamis (16/11), dikutip dari siaran persnya.


ADVERTISEMENT


SCROLL TO CONTINUE WITH CONTENT

Cristina López, analis senior di Graphika, sebuah perusahaan yang meneliti aliran informasi di jaringan digital, dikutip dari Business Insider, mengatakan “Deepfake adalah rekaman yang dihasilkan oleh komputer yang telah dilatih melalui gambar-gambar yang tak terhitung jumlahnya.”

Deepfake memakai AI untuk menghasilkan video, audio, atau foto yang benar-benar baru dengan tujuan akhir untuk menggambarkan sesuatu yang sebenarnya tidak terjadi pada kenyataannya.

Istilah deepfake ini berasal dari teknologi yang mendasarinya, yakni algoritma pembelajaran mendalam, yang belajar sendiri untuk memecahkan masalah dengan kumpulan data yang besar dan dapat digunakan untuk membuat konten palsu dari orang sungguhan.

Contoh terbaru kasusnya adalah Presiden Jokowi berbicara bahasa Mandarin dan artis Hollywood Scarlette Johansson yang ditiru suaranya oleh perusahaan rintisan. 

Wamenkominfo melanjutkan data Home Security Heroes menunjukkan ada 95.820 video deepfake yang tersebar secara global pada 2023.

“Ada peningkatan sebesar 550 persen dari tahun 2019 secara global. Hal yang sangat mengkhawatirkan karena bisa disalahgunakan dan dimanipulasi untuk penipuan, pornografi, dan tujuan jahat lain, yang berujung pada penyebaran disinformasi,” ujar Nezar.

Senada, Biro Investigasi Federal AS (FBI) memperingkatkan peningkatan kasus konten porno deepfake untuk melakukan pemerasan alias sextortion.

Dalam banyak kasus sextortion, konten yang dikirim ke korban biasanya tidak sungguhan. Para pelaku hanya berpura-pura memiliki akses terhadap konten pribadi untuk menakut-nakuti korban agar membayar tebusan.

FBI mengungkap para pelaku cukup mengambil banyak foto normal yang tersedia secara publik di media sosial, seperti foto dan video.

Foto-foto ini kemudian dimasukkan ke dalam alat pembuatan konten deepfake yang mengubahnya menjadi konten seksual eksplisit yang dihasilkan AI. Hasil olahan AI itu terlihat sangat nyata meski tidak asli.

“Pada April 2023, FBI telah mengamati peningkatan jumlah korban sextortion yang melaporkan penggunaan foto atau video palsu yang dibuat dari konten yang diunggah di situs media sosial atau unggahan situs masing-masing.”

“Foto-foto itu diberikan kepada aktor jahat atas permintaan, atau diambil selama obrolan video,” FBI memperingatkan.

[Gambas:Video CNN]

(tim/arh)

Leave a Reply

Your email address will not be published. Required fields are marked *