Mengerikan! Paedofil Ubah Ribuan Foto Seleb Jadi Anak-anak Pakai AI Terungkap di Dark Web
Foto-foto seleb digunakan paedofil untuk diubah memakai AI ke wujud anak-anak.
Foto-foto seleb digunakan paedofil untuk diubah memakai AI ke wujud anak-anak.
Mengerikan! Paedofil Ubah Ribuan Foto Seleb Jadi Anak-anak Pakai AI Terungkap di Dark Web
Kecanggihan dan kegunaan AI dalam kehidupan sehari-hari ternyata tidak melulu memberikan dampak positif bagi para penggunanya.
Bagaikan pisau bermata dua, AI dapat menjadi teknologi yang disalahgunakan oleh para pihak yang tidak bertanggung jawab.
- Jelang Pemilu, Ini Gaya Foto yang Boleh dan Tak Boleh Dilakukan PNS
- Bentuk Foto Keluarga Zaman Mesir Kuno Terungkap, Tak Ada Sosok Perempuan
- Bunga Tabebuya Mekar di Kemang, Bikin Anak Jaksel Betah: Ini Tuh Bagus Parah
- Beredar Foto Kapolda Kepri dengan DPO Kasus Penggelapan Sertifikat, Ini Penjelasan Polisi
Dalam salah satu forum dark web, organisasi bernama Internet Watch Foundation (IWF), menemukan fakta bahwa terdapat banyak foto aktor ternama yang dimanipulasi dan dibuat seakan seperti anak-anak dengan memakai AI.
Ratusan gambar ini ternyata dibuat oleh para pedofil. Mereka melakukan manipulasi itu melalui generator gambar buatan berbasis AI.
Dengan begitu, mereka memiliki kemudahan untuk mengubah bentuk tubuh, dan wajah seseorang melalui foto yang mereka miliki.
Parahnya, para pelaku pedofilia ini membuat foto tersebut dalam bentuk file AI, sehingga mereka dengan mudahnya akan dapat menghasilkan gambar korban mereka lebih banyak.
IWF pun mengatakan bahwa beberapa gambar yang mereka manipulasi terlihat sangat realistis dan tidak dapat dibedakan jika tidak diperiksa dengan teliti.
Hal tersebut lantaran, gambar dan foto penyanyi serta bintang film yang mereka ubah menghilangkan keterangan usia dengan menggunakan pencitraan dari perangkat lunak yang akan mengubah mereka seperti anak-anak.
Ribuan Foto Dimanipulasi
Mengutip BBC, Kamis, (26/10), IWF melaporkan secara rinci terdapat hampir 3.000 gambar manipulasi yang didapatkan oleh para peneliti selama satu bulan menelusuri situs darknet. Temuan ini kemudian dinyatakan ilegal menurut hukum di Inggris.
Berdasarkan penelitian tersebut, para analis juga menemukan tren baru dimana para predator bukan hanya mengubah foto aktris terkenal menjadi anak-anak saja.
Melainkan para analisi menemukan 501 gambar korban yang berusia 9-10.
Tidak hanya sampai disitu, dalam satu bulan penyelidikan, IWF juga berhasil menemukan 11.108 gambar AI korban pelecehan seksual yang dibagikan dalam forum dark web
Setelah terbit laporan ini, IWF kemudian mengingatkan kembali bahwa dampak buruk dari AI harus menjadi perhatian serius. Sebab, jika dibiarkan maka gambar-gambar yang berisikan manipulasi ini akan terlihat seperti menormalisasikan perilaku predator anak-anak.